Technology Assessment Che cos’è e a cosa serve Il Technology Assessment ( di seguito: T.A.) si pone è mirato a fornire ad amministratori e decisori della sanità le informazioni necessarie per fare scelte appropriate sul piano economico e gestionale. Essenzialmente i processi di TA cercano di valutare in modo complessivo i costi e i benefici conseguenti all’adozione e all’uso di una determinata tecnologia. Che metodo utilizza Elementi essenziali del processo di T.A. sono : -identificazione del quesito da affrontare; -trasformazione del quesito in domande in cui è possibile dare una risposta sulla base delle informazioni scientifiche disponibili; -descrizione e valutazione dello stato attuale dell’utilizzo della tecnologia oggetto d’indagine; -revisione sistematica delle informazioni relative all’ efficacia, all’efficienza ed alla sicurezza della tecnologia; -valutazione implicazioni sanitarie, organizzative e sociali dell’uso della tecnologia; -identificazione delle possibili decisioni da assumere in funzione delle valutazioni emerse dai punti precedenti e presentazione delle raccomandazioni principali. Quali contenuti Caratteristiche principali del TA sono l’enfasi nell’utilizzo di metodi di valutazione scientifici e trasparenti, nonché l’assunzione di una prospettiva di valutazione ampia, capace di affrontare non solo le implicazioni cliniche ma anche quelle organizzative, gestionali, economiche e sociali dell’uso di una tecnologia. A cosa si applica Esempi tipici di esercizi di T.A. che hanno prodotto serie di raccomandazioni per la pratica clinica riguardano i rapporti – preparati da diverse agenzie internazionali, sullo screening mammografico, sull’utilizzo di tecnologie chirurgiche, e sull’uso di tecnologie diagnostiche. Comunque il termine più comunemente usato nell’ambito della sanità è Health Technology Assessment. Che cos’è l’ Health Technology Assessment (HTA)? L’acronimo HTA indica tre termini inglesi: -Health = salute -Technology = procedura, tecnica, struttura; -Assessment = valutazione. Perché l’HTA? Nell’assistenza sanitaria, siamo ancora molto lontani dall’aver dimostrato con certezza la necessità e l’appropriatezza di molte prestazioni mediche. E’ noto, infatti, che a seconda della situazione la medesima prestazione può essere necessaria e appropriata, ma anche inappropriata e perfino 1 dannosa. Attualmente, si stima che la percentuale degli interventi sanitari la cui efficacia è scientificamente provata oscilli, a seconda delle discipline mediche, dal 30 all’80%. Purtroppo, la crescita costante dell’offerta sanitaria ha prodotto non soltanto dei benefici, ma anche alcuni effetti indesiderati; è ormai assodato che una maggiore disponibilità di prestazioni sanitarie può anche determinare un eccesso di trattamenti, con tutti gli svantaggi che ne derivano, inconvenienti che sovente sono maggiori dei benefici. Stanziare maggiori risorse per la sanità, quindi, non vuol dire necessariamente ottenere più salute nella popolazione. Ecco perché, di fronte all’incremento costante della spesa sanitaria, causata sia dall’invecchiamento della popolazione, sia dal progresso incalzante di tecnologie sempre più costose, diversi paesi stanno adottando l’HTA come strumento di valutazione delle prestazioni mediche. La sanità è un’importante impresa economica, scientifica e sociale per tutti i paesi dell’OCSE. Ha contribuito ad allungare la vita umana e a ridurre il dolore, il rischio di malattie e le condizioni d’invalidità DATI…... Tuttavia, negli ultimi decenni, le attività associate alla salute hanno assorbito crescenti porzioni del P.I.L.. Nel 1990 la spesa media per le cure sanitarie nei paesi dell’OCSE ammontava al 7,3% del P.I.L.. Nel 2001 questa media era salita all’8,4%, segnando un aumento che superava del 15% la crescita del P.I.L. Nel contesto della minor crescita economica, dell’invecchiamento della popolazione e dell’aumento dei prezzi delle cure sanitarie e del loro uso, molti governi dell’OCSE si preoccuparono della sostenibilità dei finanziamenti assegnati alla sanità pubblica. L’HTA è dunque una metodologia per valutare le prestazioni sanitarie erogate o comunque disponibili, e pianificare e gestire in modo più funzionale l’assistenza ai cittadini. Nella fattispecie, il termine “tecnologie” si riferisce tanto agli interventi terapeutici e riabilitativi quanto agli strumenti, alle apparecchiature, alle procedure mediche e chirurgiche, ai protocolli d’intervento e d’assistenza, alle applicazioni informatiche (per esempio, la cartella clinica elettronica), e non ultimo ai sistemi organizzativi e gestionali. L’HTA valuta quindi l’efficacia sperimentale (in termini d’efficacia assoluta o efficacy), l’efficacia pratica (detta “efficacia relativa” o effectiveness) e l’efficienza (efficiency) di ciascuna “tecnologia” che prende in esame. Efficacia : questo termine traduce la parola inglese “effectiveness”; nel contesto dei sistemi socio-sanitari con “efficacia” si intende la capacità, da parte di un intervento o di una prestazione, di raggiungere gli obiettivi per i quali è stato effettuato e il beneficio e/o l’utilità che un individuo o una popolazione non selezionata riceve dall’offerta di un servizio, trattamento, programma di intervento di cui sia stata preliminarmente valutata la “efficacia clinica” (in inglese “efficacy”) nella popolazione target di uno studio clinico. L’efficacia clinica si valuta nel contesto di studi sperimentali (per esempio, i randomised controlled trials), che mettano a confronto una procedura diagnostica o una terapia con altra strategia o trattamento somministrati in un gruppo di controllo, nella situazione ideale in cui tutti i soggetti seguono il trattamento cui sono stati assegnati con randomizzazione, esattamente come prescritto dal protocollo sperimentale. Efficienza : traduzione della parola inglese “efficienty”, è il rapporto tra risorse impegnate ed ottenimento dei risultati in tutte le caratteristiche essenziali della qualità: appropriatezza, accessibilità, gradimento, ma soprattutto efficacia. E’ importante non confondere questo concetti di efficienza con quello derivato da culture non sanitarie, inteso come massimo numero di prestazioni rispetto alle risorse impiegate. La pratica clinica più “efficiente” è quella che migliora di più lo stato di salute della popolazione oggetto della prestazione in rapporto ad un determinato budget. L’efficienza viene solitamente analizzata verificando se i mezzi impiegati per raggiungere uno scopo avrebbero potuto essere meglio impiegati investendoli in diversa maniera. Per esempio, i costi del rimborso pubblico 2 di una terapia di disassuefazione al fumo potrebbero essere messi a confronto con i risultati di una campagna informativa anti-fumo o dell’attuazione di una legge più restrittiva nei confronti dei fumatori. Al livello minimo, l’H.T.A. mirata per certe tecnologie biomediche affronta la sicurezza e l’efficacia di quelle tecnologie; in altre parole, che cosa comportano i rischi per i pazienti e se sono giustificati rispetto ai possibili benefici alla salute; e se le tecnologie biomediche forniscono esiti benefici alla salute e come quegli esiti per la salute si possono comparare a tecnologie alternative. Molto spesso l’HTA comprende la valutazione economica, in genere come analisi costo-efficacia (cost efficacy analisys: CEA). E’ importante osservare che la CEA si pone un quesito diverso dall’analisi costo-beneficio ( cost-benefit- analisys: CBA). La CBA e la CEA pongono un quesito simile a livello generale, cioè “le spese di un investimento sono giustificate dai suoi costi?”. A differenza della CBA, la CEA valuta gli esiti in unità naturali del beneficio alla salute piuttosto che in termini monetari. Idealmente queste misure sono un’unità pluridimensionale come gli anni di vita migliorati per quanto riguarda la qualità oppure un’unità di anni di vita salvati; o, in via meno ideale, unità quali il numero di eventi di morbilità evitati (esempio: il costo di un infarto miocardico acuto evitato). Il quesito specifico della CEA tende ad essere: “se una tecnologia è in grado di fornire benefici netti a livello di salute della comunità, e se la tecnologia costa di più delle possibili alternative (e in genere costano di più), qual’è il costo per unità di beneficio per la salute ed è un investimento utile per la comunità?”. Gli obiettivi L’HTA si propone di valutare la reale efficacia degli interventi medici, l’appropriatezza, e l’efficienza con cui sono adottati, i loro miglioramenti qualitativi, i benefici clinici e organizzativi, il loro consenso sociale e così via, suggerendo di conseguenza come gestirli, promuoverli o scoraggiarli. In questo caso, l’HTA incide direttamente sulle scelte che riguardano l’utilità clinica ed economica delle tecnologie sanitarie: se infatti vogliamo evitare che l’incremento della spesa sanitaria spinga a razionare le prestazioni, dobbiamo razionalizzare l’uso delle risorse disponibili, trasferendole dalle prestazioni meno efficaci a quelle di cui sia stata provata l’utilità e la necessità. L’HTA è la valutazione sistematica di procedure e tecnologie impiegate nell’assistenza sanitaria alla popolazione, messa in atto raccogliendo e valutando le conoscenze e i dati della ricerca in materia, riassumendoli in un apposito rapporto, traendo le relative conclusioni e fornendo tutti i suggerimenti operativi necessari per il sistema sanitario. Le scelte compiute nella sanità e nella politica sanitaria vanno adottare in base a dati scientifici e certi, e devono essere basate sulle prove desunte dalla ricerca clinica sperimentale rigorosamente condotta (evidence-based). L’HTA, quindi, aiuta a prevenire l’erogazione di prestazioni inefficaci, inappropriate o superflue nell’ambito del sistema sanitario, contenendo così la spesa che comporterebbero e migliorando la qualità complessiva dell’assistenza medica. Il rapporto HTA Il risultato d’ogni valutazione oggettiva è riassunto nel cosiddetto “rapporto HTA”, che si articola nei seguenti capitoli: -presentazione dei dati scientifici più aggiornati su una determinata metodologia diagnostica o intervento terapeutica, redatta in modo trasparente, comprensibile ed obiettivo (evidence-based); -discussione sulla sua rilevanza clinica; -confronto con altri metodi; -analisi delle ripercussioni sulla spesa sanitaria della procedura in questione. Il rapporto tra l’HTA e l’Evidence-based Medicine (EBM) 3 L’EBM si propone di confrontare tra loro diversi risultati della ricerca clinica, puntando soprattutto a verificare l’efficacia degli interventi sanitari; si tratta di una metodologia di analisi particolarmente utile nell’assunzione delle decisioni cliniche quotidiane. L’HTA, invece, si spinge oltre la mera valutazione dell’efficacia degli interventi terapeutici e fornisce indicazioni sulle strategie di prevenzione (per esempio sull’utilità dello screening), sugli interventi a carattere riabilitativo, sulle strategie di ottimizzazione medica ed economica, sulla gestione e programmazione delle strutture sanitarie, sulle intricate questioni legate all’allocazione delle risorse. Di conseguenza, l’HTA crea un collegamento diretto tra la ricerca e le scelte concrete di politica sanitaria. Da quanto detto, emerge che l’HTA e l’EBM sono due discipline che si integrano a vicenda. Il valore aggiunto che l’HTA può garantire alla politica sanitaria dipende anche dalla continuità del suo impiego e dalla complessità dei fattori presi in considerazione. Conclusioni Le tecnologie biomediche possono conferire grandi benefici alla salute, ma possono rappresentare metà dell’incremento dei costi della sanità. (DATI) Coloro che occupano un ruolo decisionale nella sanità affrontano il compito difficile di utilizzare le opportunità create dalle tecnologie biomediche, allo stesso tempo assicurandosi che il sistema sanitario resti sostenibile ed equo. In aggiunta a questa sfida ci sono talvolta le pressioni conflittuali e le esigenze dei pazienti (chi paga le tasse), del personale sanitario, dei produttori di nuove tecnologie e di una gamma di altri gruppi di pressione. Le prove obiettive sono di importanza fondamentale nel contribuire a risolvere esigenze conflittuali per raggiungere un accordo trasparente sul percorso ottimale da seguire. Senza prove, la comprensione e la diffusione delle tecnologie saranno più probabilmente influenzate da un’ampia gamma di fattori sociali, finanziari, professionali e istituzionali, e potrebbero non produrre livelli ottimali sugli esiti per la salute. L’HTA è una forma di accertamento che considera non solo l’efficcia delle tecnologie ma anche il loro più ampio impatto, comprese le problematiche legali e sociali oltre all’efficienza. Il ruolo dell’HTA è molto apprezzato da coloro che sono chiamati a prendere decisioni e svolgere un ruolo sempre maggiore in molti paesi dell’OCSE. Cenni di storia La radiologia deve le sue origini a degli esperimenti effettuati a partire dal 1895 dal primo premio Nobel per la fisica Wilhelm Conrad Roentgen (1845-1923). Egli, per primo si accorse di uno strano fenomeno di luminescenza dato dal fluire di corrente elettrica all’interno di un tubo di vetro nel quale era stato creato il vuoto. Egli chiamò questo fenomeno radiazione X o raggi-X. Roentgen scoprì che gli oggetti metallici non lasciavano passare le radiazioni, le quali invece attraversavano molto bene il legno, la carta ed altri materiali. Ma la cosa più sorprendente era che, se al posto del legno veniva interposto un arto, questo appariva come trasparente, lasciando però vedere l’intera sua struttura ossea. L’anno dopo, un altro fisico, Henri Becquerel (1.852-1.908), si interessò alle potenzialità dei raggi-X. Egli diede inizio nel 1896 allo studio della fisica nucleare. In quell’anno Henri Becquerel fece un’importante scoperta : nei suoi esperimenti sulla fosforescenza trovò che certi minerali (che contenevano uranio) impressionavano le lastre fotografiche anche quando queste erano protette in modo da escludere la presenza di luce. Era chiaro che il minerale emetteva qualche nuovo tipo di radiazione che, a differenza dei raggi-X, si verificava senza alcuno stimolo esterno. Questo fenomeno fu alla fine chiamato radioattività. Poco dopo la scoperta di Becquerel, Marie Curie (1.867-1.934) e suo marito Pierre Curie (1.859-1.906) isolarono 2 elementi prima sconosciuti, che risultavano altamente radioattivi. Li chiamarono Polonio e Radio. A questi ne seguirono presto anche altri.Si trovò che in tutti i casi la radioattività non veniva influenzata da alcun trattamento di tipo fisico o chimico per quanto violento, inclusi un forte riscaldamento o raffreddamento e l’azione 4 di potenti reagenti chimici. Era chiaro che l’origine della radioattività doveva trovarsi nella profondità dell’atomo e quindi provenire dal nucleo. Ben presto emerse che la radioattività era il risultato della disintegrazione o decadimento di un nucleo instabile. Alcuni isotopi non sono stabili sotto l’azione della forza nucleare, e quindi decadono con emissione di alcuni tipi di radiazione o raggi. Esistono molti isotopi instabili in natura e la radioattività che essi emanano è chiamata radioattività naturale. In laboratorio si possono produrre altri isotopi instabili per mezzo di reazioni nucleari (come oggi avviene in medicina nucleare ed in PET, con la formazione dei radioisotopi o traccianti) : si dice quindi che sono prodotti artificialmente e si parla di radioattività artificiale. Quando il mondo venne a conoscenza della scoperta di Roentgen, diversi altri studiosi resero possibili le sue applicazioni pratiche. La possibilità di guardare all’interno del corpo umano, apriva delle nuove ed incredibili possibilità per la medicina. L’utilizzo dei raggi-X si diffuse molto velocemente in tutta l’Europa e negli Stati Uniti e la diagnostica per immagini cominciò a diventare una branca della medicina a se stante. L’avvento della Diagnostica per Immagini diede la possibilità di prevedere l’insorgere di diversi tipi di malattie. Permise, inoltre, ai medici, di avere maggiori e più precise informazioni sulle quali basare le proprie osservazioni. I primi passi evolutivi furono indirizzati soprattutto verso lo sviluppo di strumentazioni che permettessero un maggiore controllo sul flusso dei raggi-X. Parallelamente, lo sviluppo di nuove tecniche per la stampa delle immagini radiografiche (pellicole al posto di lastre), permise di ottenere immagini sempre più nitide e significative. A partire dagli anni ’70 del XX secolo, la Diagnostica per Immagini ebbe a sua disposizione i calcolatori elettronici. Si apriva l’era della Radiologia Digitale. I primi esperimenti in tal senso si debbono all’ingegnere inglese Godfrey Hounsfield. Egli, nel 1972, inventò la Tomografia Computerizzata. Il concetto alla base di questa invenzione è abbastanza semplice: una volta fatte diverse radiografie alla stessa regione del corpo ma da angoli leggermente differenti, un computer può prelevare le informazioni contenute nelle immagini e creare una vista virtuale dell’area interessata. Un ulteriore sviluppo della radiologia si ebbe con la sostituzione delle pellicole radiografiche da parte di lamine sensibili (fosfori di memoria), o, più recentemente, da sensori a carica elettrica (CCD sensor). Questi supporti sono, in pratica, come dei fogli con tanti occhi sopra. Ogni occhio si ricorda quanta luce ha visto e con quanta intensità l’ha percepita. Appositi lettori si occupano di recuperare queste informazioni e ricostruire l’immagine radiologica. I vantaggi di questo tipo di tecniche sono molteplici: la possibilità di elaborare elettronicamente le immagini per esaltarne alcune caratteristiche salienti, la possibilità di conservare le immagini in supporti più durevoli, etc.... Sicuramente uno dei maggiori vantaggi è dato dalla minore quantità di radiazioni necessarie per effettuare l’esame. A più di un secolo dalla sua scoperta la radiologia è ancora necessaria e fondamentale per la diagnosi medica. Esistono altre tecniche che sfruttano fonti di energia differenti (gli ultrasuoni per l’ecografia; i campi magnetici e le radioonde per la risonanza magnetica nucleare), ma i raggi-X sono, a tutt’oggi una risorsa necessaria e imprescindibile. Tomografia Computerizzata (TC). Introduzione La tomografia computerizzata (TC) ha rappresentato una rivoluzione nel campo della diagnostica per immagini sia per le sue caratteristiche tecniche, sia per le indicazioni di impiego che si sono progressivamente ampliate e precisate. Negli anni 1972/73 Hounsfield e Ambrose riportarono le loro esperienze preliminari con un prototipo di sistema TC, ma, come per tutte le scoperte scientifiche, la tecnologia TC rappresentava in realtà la sintesi di numerosi acquisizioni scientifiche ottenute nel tempo. Infatti già nel 1956 e 1961 Cormack e Holdendorf avevano realizzato sistemi concettualmente paragonabili a quelli di Hounsfield, mentre nel 1917 Radon aveva per primo messo a punto una tecnica di “ricostruzione da proiezioni”, che è uno dei fondamenti della tecnologia TC. Ad Hounsfield ed a Cormack venne conferito nel 1979 il premio Nobel per la medicina per aver scoperto – in modo indipendente – il procedimento tomografico computerizzato, che, superando i 5 limiti naturali delle metodiche radiologiche convenzionali, apriva la via a nuove esaltanti possibilità diagnostiche. Nella radiologia tradizionale l’immagine radiografica dipende dall’assorbimento totale del fascio di fotoni X da parte del corpo del paziente; l’informazione è “sintetica”, rappresentando cioè la sovrapposizione della densità di ogni punto. Da ciò derivano tre fondamentali limiti, che Hounsfield rivelò e si propose di superare: l’impossibilità di ottenere da un’immagine radiografica bidimensionale tutta l’informazione contenuta in una regione di esame tridimensionale, l’impossibilità di discriminare i tessuti molli se non facendo ricorso a M.d.C. e l’impossibilità di attuare misure quantitative di assorbimenti regionali della radiazione X. La tomografia convenzionale è una tecnica radiografica-volumetrica che produce l’immagine di uno strato singolo e quindi i dati ottenuti possono essere considerati “analitici”, riguardanti cioè la sola struttura inclusa nello strato selezionato. Tale tecnica rappresenta comunque una serie di limitazioni che condizionano la qualità dell’immagine, quali, ad esempio, la ridotta definizione a causa della distanza dal piano focale e il basso contrasto per l’effetto di sfocamento degli strati sopra e sottostanti a quello selezionato. Natura e ruolo della tomografia computerizzata La TC è un procedimento radiografico digitalizzato che permette di rappresentare sezioni assiali o parassiali di spessore finito del corpo umano tramite immagini esenti da sovrapposizioni e da cancellazioni, caratterizzate da un’elevatissima risoluzione contrastografica. I valori di densità dei singoli elementi di volume in cui viene suddiviso lo strato in esame si traducono in corrispondenti tonalità di grigio sull’immagine. Si effettua in pratica la misura di una mappa di valori di assorbimento e la sua trasformazione in una mappa di grigi. Nella ricostruzione dello strato, la sua superficie viene suddivisa in una matrice di elementi di dimensioni uniformi – PIXELS -. Elementi di volume di dimensioni uniformi – VOXELS – risultano quindi definiti stabilendo lo spessore dello strato. La TC è stata la prima metodica di “imaging” diagnostico, ad avvalersi del computer ed ha aperto la via dell’”imaging” digitale. Il sistema di misura costituito da una sorgente radiogena e da un detettore, allineati e contrapposti, opera una scansione lineare sul piano tomografico lungo tutta la sezione trasversale interessata. Segue una rotazione del sistema di misura di circa 1° alla quale succede una nuova scansione lineare in senso opposto e così via fino a che non sia stata completata una rotazione complessiva di almeno 180°. Durante l’interio procedimento di scansione il segnale di misura, ottenuto da un pennello raggi finemente collimato, viene campionato, digitalizzato e trasmesso ad un computer. Questo calcola dai valori di misura la distribuzione bidimensionale di valori di assorbimento dello strato in esame, la quale infine, dopo la commutazione in segnale video, permette di rappresentare l’immagine della sezione sul monitor televisivo. Evoluzione delle apparecchiature Il progresso tecnologico della TC è avanzato lungo le seguenti principali direttrici: -sviluppo di nuovi sistemi, fondati su differenti principi di scansione, nell’intento prioritario di abbreviare il tempo di raccolta delle misure; -sviluppo ed utilizzo di nuovi e più perfezionati componenti d’impianto al fine di migliorare la qualità dell’immagine ed allo stesso tempo di aumentare l’efficienza operativa ed il comfort; -sviluppo di sistemi di calcolo più efficienti al fine di ridurre il tempo di attesa dell’immagine, migliorare la qualità della stessa ed aumentare il flusso degli esami; -sviluppo di software applicativi per l’esecuzione di esami funzionali e l’incremento delle possibilità di post-processing. Tappe evolutive della TC 6 Nell’intento di migliorare le prestazioni riducendo il tempo di misura sono stati sviluppati ed introdotti nell’esercizio clinico tomografi computerizzati realizzati secondo i quattro fondamentali principi di scansione. a)L’impianto a scansione parallela per mezzo di un singolo pennello raggi, che viene alternativamente traslato e ruotato, utilizza in modo assolutamente scarso la radiazione del tubo radiogeno e richiede un lungo tempo di misura. b)L’impianto a scansione parallela per mezzo di più pennelli raggi offre un miglior utilizzo della radiazione emessa e porta quindi ad abbreviare il tempo di misura. c)L’impianto con fascio a ventaglio presenta una rotazione solidale intorno al paziente della sorgente radiogena e di un sistema rivelatore ad essa contrapposto ed allineato. d)L’impianto ad anello di detettori ha una corona fissa di rivelatori, lavora con un fascio a forma di ventaglio piatto di apertura tale da investire simultaneamente tutta la sezione trasversale del corpo e richiede pertanto solo un movimento di rotazione della sorgente radiogena. Il sistema di tipo a), a traslazione rotazione con rivelatore singolo, fu concepito da Hounsfield e venne prodotto su scala industriale dal 1973 al 1975. Questi apparecchi furono in seguito classificati in letteratura come di prima generazione. Il sistema di tipo b), a traslazione-rotazione con catena di rivelatori, fu prodotto industrialmente dal 1974 al 1979. In esso un fascio di raggi a ventaglio di apertura limitata – da un minimo di 3° ad un massimo di 20°- investiva una serie di rivelatori allineati, il cui numero era pure compreso fra un minimo di 3 ad un massimo di 30 elementi. Permaneva quindi il principio di acquisizione precedente, ma risultava nettamente abbreviato il tempo di scansione. Il sistema di tipo c), a rotazione solidale del tubo radiogeno e dell’arco detettore fu presentato nel 1974 ed introdotto nel 1975. Su questo sistema –detto di terza generazione- si sono orientati decisamente tutti i grandi costruttori radiologici e su di esso è ricaduta negli ultimi anni per oltre il 90% la scelta degli utilizzatori mondiali. Esso consente, in virtù dell’ottimale sfruttamento dell’emissione del tubo e della semplificazione del movimento di scansione, di raccogliere un grande numero di dati di misura in un tempo ridotto in modo drastico rispetto a quello conseguibile col sistema traslo-rotatorio. Il fascio radiante è un sottile ventaglio di apertura tale da inquadrare completamente un campo di misura di circa 50 cm di diametro, investendo infine un sistema detettore costituito da diverse centinaia di rivelatori assemblati compatti su un arco di cerchio centrato sul fuoco del tubo radiogeno. L’acquisizione avviene tramite un movimento di rotazione sincrono della sorgente radiogena e dei rivelatori per un angolo tipico di 360°. Il sistema di tipo d) con il sistema detettore ad anello completo –detto di quarta generazione- fu presentato nel 1976 ed introdotto nel 1977, suscitando un forte interesse che tuttavia è andato di anno in anno scemando. Anche in questo caso il fascio radiante è rappresentato da un sottile ventaglio di apertura tale da avvolgere tutto il campo di misura, mentre i rivelatori sono disposti lungo una corona circolare completa. Soltanto la sorgente radiogena ruota percorrendo una circonferenza concentrica interna a quella dei rilevatori, mantenendo l’asse del fascio raggi centrato rispetto al campo di misura. Il fascio radiante assumendo incidenze diverse rispetto all’oggetto in esame viene ad interessare via via rilevatori diversi fino al completamento della rotazione. Come non trascurabili punti critici devono essere citati la non favorevole geometria di scansione e la pratica impossibilità di attuare efficaci misure di attenuazione della radiazione diffusa. Stato dell’arte: TC volumetrica con sistemi a rotazione continua Le prestazioni sopra descritte sono da considerarsi ben corrispondenti alle esigenze dell’esame TC sui distretti anatomici non soggetti a movimenti, mentre non lo sono per i distretti critici soggetti a movimenti respiratori, in particolare su pazienti non collaborativi e per esami TC funzionali. Sono stati così sviluppati ed introdotti nell’esercizio clinico Tomografi Computerizzati di nuova concezione e tecnologia, con rotazione continua di tutto il complesso di misura. Nel processo di 7 sviluppo tecnico e di applicazione diagnostica si possono distinguere due momenti: un primo periodo in cui si sono migliorate le qualità e l’operatività dell’esame TC –nell’ambito di un’acquisizione volumetrica discontinua, con pacchetti di sezioni singole-, ed un secondo periodo, che ha condotto l’acquisizione volumetrica continua di tutto il distretto di interesse diagnostico, attraverso nuove tecniche d’esame: TC Spirale e la TC Angio. Sistema a rotazione continua Un sistema di misura che ruota in modo continuo garantisce una rapida, ininterrotta acquisizione dei dati. L’inizio e la fine di ogni scansione sono determinati soltanto da un segnale elettronico e non sono legati ad alcuna posizione geometrica. Non vi sono fasi di accelerazione o decelerazione durante la sequenza di scansione. Anelli rotanti (slip-ring), solidali col sistema di misura vengono posti in collegamento con la parte fissa della testata, garantendo per strisciamento l’alimentazione elettrica del tubo radiogeno e delle parti di controllo, e per via optoelettronica la trasmissione al computer dei dati misurati. Scansioni di volume continuo: TC Spirale Fu ideata nel 1989 la tecnica TC Spirale, intesa ad eseguire nel più breve tempo possibile la scansione continua di un intero volume anatomico. Essa venne accolta favorevolmente ed entrò in esercizio clinico nel 1990. Attualmente è entrata nella routine. La scansione continua di volume viene ottenuta dall’acquisizione continua dei dati di molteplici rotazioni del sistema tubo radiogenodetettore intorno ad un paziente in movimento continuo attraverso il foro del gantry. Il parametro aggiuntivo è dato dall’avanzamento in mm del lettino per 360° di rotazione del sistema di misura. Viene definito “Pitch” il rapporto fra l’avanzamento corrispondente a 360° di rotazione e lo spessore dello strato collimato. Applicazioni Tra le applicazioni TC è di particolare importanza la tomografia computerizzata dinamica che permette la visualizzazione di processi tempo-varianti e fenomeni di flusso nei vasi o negli organi. La ricostruzione dinamica consiste in una rapida sequenza di scansioni di breve durata: richiede la rotazione continua del tubo radiogeno, una notevole efficienza dei detettori ed un’alta velocità di elaborazione dei dati. Questo tipo di esame è utilizzato nello studio, mediante una serie di scansioni sullo stesso campo di immagine, della diffusione di un mezzo di contrasto nei vasi e nei tessuti, dal momento della sua iniezione nel paziente. Si ottengono, tra l’altro, le curve della densità in funzione del tempo, relative a regioni di interesse selezionate nonché misure quantitative del flusso del sangue, con informazioni diagnostiche utili sull’occlusione dei vasi, malformazioni arterio-venose, infarti, perfusione. E’ possibile, inoltre, osservare organi in movimento che, nelle immagini TC convenzionali, appaiono confusi e con artefatti: negli esami cardiografici, ad esempio, vengono acquisiti i dati in una fase selezionata del ciclo cardiaco con trigger dell’elettrocardiogramma. Un’innovazione degli ultimi anni è rappresentata dalla fluoroscopia TC. L’utilizzo di processori ad alta velocità ha permesso di acquisire e visualizzare le immagini TC quasi in tempo reale. Essa è stata utilizzata con buoni risultati nel monitoraggio di alcuni interventi chirurgici non vascolari. Un’altra applicazione è l’immagine funzionale, nella quale i livelli di grigio non sono più legati ai coefficienti di attenuazione lineare, ovvero alla densità, ma rappresentano un parametro funzionale locale, come ad esempio il flusso sanguigno o il tempo medio di transito del mezzo di contrasto. Linee guida per la scelta 8 La scelta di una TC è resa complessa da un elevato numero di considerazioni tecniche, economiche e cliniche: innanzi tutto si tratta di una tecnologia sofisticata che presenta un costo di acquisto e manutenzione relativamente alto. Il numero di esami effettuabili nella routine diagnosticostrumentale è ridotto rispetto ad altre tecniche radiologiche tradizionali ed il costo di ogni singolo esame risulta essere superiore. Per tale motivo, sebbene la Tc sia oramai divenuta un’apparecchiatura di routine, l’acquisto dovrebbe essere sempre preceduto da un attento studio costo/efficacia allo scopo di ottimizzare l’utilizzo del tempo macchina ed impedire sprechi di risorse. Oltre ad essere metodologicamente corretta, questa pratica, infatti, consente di migliorare il servizio prevenendo eventuali degradi delle prestazioni ed individuando le dosi ottimali per ciascuna tipologia di esame. Un ulteriore costo è rappresentato dalla formazione del personale. Il processo di formazione è infatti più lungo sulla TC che sulle tecniche radiologiche tradizionali. L’elevato costo del tempo macchina richiede una notevole efficienza del servizio di manutenzione della ditta produttrice nonché la disponibilità ad interventi rapidi. Per tale motivo, nell’acquisto di una TC, assume notevole importanza la garanzia offerta dal produttore ed il tipo di contratto di assistenza. Quest’ultimo, in particolare, può influire in maniera sostanziale sul costo dell’apparecchiatura. Il contratto di acquisto può prevedere la formazione del personale tecnico a spese della ditta produttrice. La Tomografia a Risonanza Magnetica Principi di base La Risonanza Magnetica Nucleare (RM) è una tecnica che usa potenti magneti e radioonde per analizzare le strutture interne del corpo. Essa combina i vantaggi delle altre tecniche di imaging esistenti, senza tuttavia spartirne gli svantaggi. Come la Tc fornisce immagini tomografiche ed è dotata di eccellente risoluzione spaziale e di contrasto, come l’Ecotomografia (ETG) non usa radiazioni ionizzanti e produce immagini orientabili variamente, come la Medicina Nucleare infine è in grado di fornire informazioni sui processi metabolici a livello tissutale. Si tratta di una tecnica abbastanza recente e tuttavia in rapida espansione. Il numero di RM è in progressiva in crescita e continue sono le innovazioni tecnologiche che interessano le varie componenti sia software che hardware del sistema RM. Come la TC anche la RM ha avuto dapprima un impatto clinico nel campo neurologico, e solo successivamente ha trovato, e sta trovando, utili campi di applicazione clinica nell’imaging del resto del corpo. Sebbene l’imaging con RM sia di recente applicazione clinica, la RM è una tecnica che affonda le sue radici in un passato piuttosto lontano. Nel 1924 Pauli propose l’esistenza i un magnetismo nucleare. Nel 1946, indipendentemente, l’equipes di Purcell e Block dimostrarono sperimentalmente il fenomeno della risonanza magnetica. Rapidamente la RM fu applicata a molti campi della fisica e della chimica, per lo studio della struttura e dei movimenti delle molecole. Con l’avvento degli elaboratori elettronici e dei magneti superconduttori la sensibilità e l’accuratezza delle tecniche di analisi RM è migliorata in modo drastico, provocando la sempre maggiore diffusione. Dopo circa un venticinquennio di applicazioni della RM all’analisi di campioni omogenei, per esempio soluzioni di macromolecole, nel 1972, Lauterbur per primo ebbe l’idea di utilizzare la RM per produrre immagini di strutture disomogenee come il corpo. Secondo la sua idea ciò poteva avvenire introducendo nel campo magnetico principale, perfettamente omogeneo, alcune disomogeneità controllate, dette gradienti magnetici, così da creare le coordinate spaziali necessarie per la formazione di immagini. La realizzazione pratica di questa idea è stata possibile grazie ai progressi compiuti nei campi della matematica applicata (algoritmi di ricostruzione delle immagini; Fast Fourier Transform Algorithm) e degli elaboratori elettronici digitali. Il successo di ogni tecnica di diagnosi radiologica dipende innanzitutto da una metodologia di esecuzione appropriata. Quest’ultima, a sua volta, presuppone una buona conoscenza di vari aspetti: principi fisici di formazione dell’immagine, conformazione e funzionamento 9 dell’apparecchiatura, anatomia e fisiologia umana, posizionamento del paziente. L’imaging con RM non si sottrae a questa regola e richiede al radiologo un particolare impegno per la comprensione di principi fisici del tutto diversi da quelli abituali. Principi fisici di Risonanza Magnetica Il campo magnetico principale B0 e la precessione dei nuclei. In natura i nuclei di alcuni elementi con numero dispari di protoni e/o neutroni (per es. 1H; 31P; 19F) sono dotati di spin intrinseco cioè ruotano intorno a se stessi. Dato che ogni carica elettrica in movimento produce un campo magnetico, anche questi nuclei, carichi elettricamente e dotati di spin, sono associati ad un campo magnetico microscopico detto momento magnetico nucleare o dipolo magnetico. In parole più semplici ogni singolo nucleo dotato di spin può essere considerato come un piccolo magnete (dipolo magnetico). Quasi tutti i sistemi RM oggi in funzione producono immagini utilizzandole proprietà magnetiche del nucleo dell’ idrogeno o protone. L’idrogeno infatti, rispetto agli altri elementi utilizzabili in RM è il più abbondante nell’organismo, ed è quello che produce il segnale più intenso. In condizioni normali, cioè in assenza di un campo magnetico esterno, i momenti magnetici dei singoli protoni sono orientati casualmente nei tessuti. Di conseguenza la loro somma, detta magnetizzazione risultante (M) è nulla. Viceversa, in presenza di un forte campo magnetico esterno stazionario (B0) questi protoni tendono ad orientarsi parallelamente alla direzione del campo magnetico esterno B0. Si produce così una magnetizzazione risultante M, macroscopicamente misurabile, orientata anch’essa a B0. Inoltre, sempre per effetto di B0, il momento magnetico di ciascun protone comincia a ruotare, cioè a precedere attorno alla direzione di B0 nello stesso modo in cui l’asse di una trottola ruota intorno alla direzione della forza di gravità. Da un punto di vista energetico, la meccanica quantistica prevede che ciascuna specie nucleare possa assumere solo orientamenti ben definiti, corrispondenti a precisi livelli energetici. Per i protoni esistono solo due possibili orientamenti, parallelo ed opposti rispetto a B0. L’orientamento parallelo corrisponde al livello energetico basso, mentre l’orientamento opposto corrisponde al livello energetico alto. In condizioni di equilibrio il numero di protoni nel livello energetico basso, è lievemente superiore rispetto al numero di protoni nel livello energetico alto. Questa piccola preponderanza di protoni paralleli, approssimativamente di uno per milione, per valori di B0 intorno al tesla, produce una magnetizzazione risultante (M) macroscopicamente misurabile, che ha la stessa direzione e verso del campo magnetico esterno B0. La frequenza con cui i protoni ruotano intorno alla direzione B0 è detta frequenza di precessione o di Larmor e dipende da due fattori: la costante giromagnetica, valore numerico caratteristico di ciascuna specie nucleare, e la forza del campo magnetico principale B0. Pertanto, mantenendo costante B0, ciascuna specie nucleare ha frequenza di precessione caratteristica. Viceversa, per ogni dato nucleo, la frequenza di precessione è direttamente proporzionale alla forza di B0.In condizioni di equilibrio, in presenza di un campo magnetico uniforme come B0, tutti i nuclei hanno la stessa frequenza, ma non la stessa fase di precessione. In altre parole i nuclei in precessione non sono fra loro sincronizzati e sono sparpagliati attorno alla direzione di B0. In realtà i momenti magnetici considerati singolarmente, non sono esattamente paralleli o antiparalleli rispetto a B0, ma precedono ad un certo angolo da B0. Di ciascuno di essi possono quindi essere considerate due componenti vettoriali: una longitudinale e l’altra trasversale a B0. In condizioni di equilibrio, non esiste alcuna magnetizzazione trasversa, perché a causa della diversa fase di precessione le componenti trasverse dei singoli nuclei si trovano sparpagliate casualmente, annullandosi reciprocamente. Viceversa, le componenti magnetiche longitudinali degli stessi nuclei si sommano e danno origine alla magnetizzazione longitudinale M. Radiofrequenza (RF) e risonanza magnetica (RNM) 10 Lo stato di equilibrio può essere alterato mediante l’applicazione di onde elettromagnetiche la cui frequenza sia uguale a quella di precessione nucleare. Solo in tali condizioni si verifica il fenomeno della risonanza, con passaggio di energia dalla radiazione elettromagnetica al sistema di nuclei. Infatti, dato un sistema qualsiasi, si parla di risonanza quando una forza rilascia energia ad una frequenza uguale a quella intrinseca del sistema considerato; per frequenze diverse da quella ideale non si ha alcun fenomeno di risonanza e non si verifica alcuno scambio di energia. Nel campo magnetico la RF viene applicata per tempi molto brevi per cui si parla di impulsi di RF: L’applicazione della RF equivale all’applicazione di un secondo campo magnetico perpendicolare a B0, detto B1. B1 ha un’intensità molto inferiore a B0, ed una frequenza uguale a quella di precessione, inducendo così il fenomeno della risonanza. La stimolazione RF, in condizioni di risonanza, allontana M dall’asse di B0, compiendo una traiettoria a spirale. Più intenso e prolungato è l’impulso di RF, maggiore è l’angolo. Il segnale RNM Ben noto è il fenomeno dell’induzione elettromagnetica secondo il quale in un circuito si genera una corrente elettrica indotta tutte le volte che il circuito stesso è attraversato da un campo magnetico variabile nel tempo. Allo stesso modo la magnetizzazione M, dopo un impulso di RF di eccitazione di 90°, genera nel circuito (antenna) ricevente una corrente misurabile che è il segnale di RNM, anche detto segnale di precessione libera o FID (free-induction-decay). Solo la magnetizzazione presente nel piano trasverso attraversa l’antenna ricevente e vi genera un segnale elettrico. Il segnale RNM può essere convertito in spettro per mezzo di un procedimento matematico detto Trasformata di Fourier. Effetti biologici, controindicazioni L’imaging con RM può produrre effetti biologici con tre diversi meccanismi, che dipendono dalle tre componenti principali del sistema: il magnete principale, i gradienti magnetici e la radiofrequenza. Il rischio teorico legato al campo magnetico principale consiste nella possibile interazione dello steso con i protoni e gli elettroni all’interno delle molecole, con conseguente possibile alterazione dei legami chimici e quindi della funzione biochimica. Per verificare la reale entità di questo ipotetico rischio sono stati condotti numerosi esperimenti. Le conclusioni sono univoche nell’affermare l’assenza di qualsiasi danno biologico per le intensità di campo magnetico impiegate. I gradienti magnetici possono teoricamente produrre danno perché sono costituiti da campi magnetici che variano nel tempo e che possono pertanto indurre correnti elettriche nei tessuti in esame. Le numerosi valutazioni sperimentali eseguite per verificare l’ipotetico rischio legato all’impiego dei gradienti magnetici hanno dimostrato che i gradienti magnetici oggi impiegati nei sistemi RM non sono in grado di produrre gli effetti biologici cui si è accennato. Gli effetti biologici della radiofrequenza sono stati studiati per lungo tempo, anche indipendentemente dall’avvento della risonanza magnetica. L‘effetto principale della RF è il riscaldamento, dovuto all’oscillazione delle molecole ed atomi da essa prodotto. Sebbene sia possibile un lieve aumento della temperatura corporea nel soggetto in esame, tale effetto non costituisce in genere alcun problema, a meno che non vi siano gravi alterazioni dei sistemi cardiocircolatorio e della termoregolazione. Sebbene generalmente non produca danno biologico, la risonanza magnetica può produrre effetti nocivi in alcune particolari categorie di soggetti: i portatori di pace-makers, i soggetti con clips ferromagnetiche vascolari cerebrali e quelli con corpi estranei metallici endooculari. Le grosse protesi articolari nella grande maggioranza dei casi non sono ferromagnetiche, o lo sono solo debolmente e non costituiscono controindicazione all’esame. Tutti i moderni tipi di valvole cardiache non costituiscono controindicazione all’esame, solamente i tipi vecchi, prodotti prima del 11 1964 possono costituire una controindicazione. Anche i portatori di dispositivi cocleari non sono candidati all’esame. Applicazioni Principalmente a causa dell’elevato contrasto ottenibile tra materia bianca materia grigia, la RNM fu impiegata inizialmente soprattutto in campo neurologico. L’alto livello di contrasto consente infatti di ottenere informazioni diagnostiche sia sulla morfologia di tumori cerebrali e sia sui processi di demielinizzazione, che possono essere diagnosticati fin dallo stadio iniziale del loro insorgere. I principali vantaggi della RNM, rispetto alla TC, sono rappresentati dall’assenza di artefatti dovuti a strutture ossee, di particolare rilievo nelle immagini della fossa cranica posteriore. Ne gli ultimi anni le applicazioni della RNM sono state notevolmente ampliate fino a comprendere esami delle articolazioni, imaging cardiaco, imaging angiografico, imaging funzionale, etc.......... Linee guida per la scelta Nella scelta di una RNM il primo criterio di selezione deve necessariamente riguardare la possibilità di effettuare spettroscopia in vivo. Se vi è necessità di effettuare spettroscopia la scelta deve forzatamente venire rivolta alle apparecchiature ad alto campo. I tomografi ad alto campo sono sempre a magnete superconduttivo e offrono le prestazioni migliori in fatto di qualità dell’immagine e i perfezionamenti tecnici più avanzati. I costi di acquisto, gestione e manutenzione, tuttavia, sono decisamente elevati e l’installazione richiede spesso l’esistenza di ambienti costruiti ad hoc a causa del peso del magnete. Viceversa, se non si è interessati a realizzare spettroscopia in vivo, è possibile considerare l’acquisto di apparecchiature a basso campo. I magneti sono ancora superconduttivi e vengono spesso utilizzate soluzioni derivate dai modelli ad alto campo. La qualità dell’immagine a volte è decisamente ottima, i pesi sono più contenuti e i costi di acquisto, gestione e manutenzione sono fortemente ridotti. Se la RNM viene interpretata come un esame di routine è possibile considerare la scelta di sistemi a basso campo. I magneti sono permanenti o, in pochi casi, resistivi. I costi iniziali sono a volte comparabili con quelli della TC di elevata qualità mentre la gestione dei magneti permanenti è decisamente più economica. Se i sistemi resistivi richiedono una potenza non trascurabile per la generazione del campo magnetico e per il raffreddamento, viceversa i sistemi permanenti non consumano energia elettrica e non necessitano alcun raffreddamento. I sistemi a basso campo non permettono forse la realizzare indagini di qualità elevatissima, ma la flessibilità d’uso, la praticità, i costi ridotti e gli ingombri contenuti rappresentano ottimi motivi per preferirli nel caso di esami che rientrino nella routine clinica. Di particolare interesse risultano, inoltre, i sistemi settoriali, che rientrano tra le apparecchiature non soggette ad autorizzazione per l’installazione e l’uso, e i sistemi aperti, che rimuovono definitivamente le controindicazioni di esami di RNM nel caso di pazienti claustrofobici. Tomografo ad emissione di Positroni e il Ciclotrone Introduzione La Tomografia ad emissione di Positroni (PET) è una tecnica per la creazione di immagini tomografiche. La PET genera immagini rilevando la distribuzione dell’emissione di positroni, particelle identiche agli elettroni ma di carica positiva, da parte di radiofarmaci che sono stati assunti, tramite inalazione o iniezione, dal paziente prima dell’esame. La caratteristica essenziale che distingue la PET da altre tecniche per la generazione di bioimmagini (TC, RNM, Raggi X, Ecografia, etc...) è che, mentre queste ultime sono in grado di rilevare caratteristiche anatomiche ed alcune attività fisiologiche, essa è capace di rilevare con grande precisione le attività biochimiche e metaboliche. In sostanza, anziché fornire una mappatura delle alterazioni anatomiche, la PET 12 permette di avere una mappa 3D delle alterazioni biochimiche e metaboliche presenti nel corpo del paziente. Tali alterazioni sono associate a numerose patologie di cui permettono la diagnosi. I radiofarmaci I radiofarmaci sono delle molecole marcate con atomi dal nucleo radioattivo (radionuclide). Il radionuclide è un nucleo instabile che durante il suo decadimento (il processo di stabilizzazione) emette radiazioni). Il tipo di radiazione (raggi x, raggi , raggi , neutroni, positroni,....) dipende dal radionuclide: per gli esami PET vengono scelti marcatori che emettono positroni. La struttura Attraverso opportuni procedimenti, vengono create strutture molecolari al cui interno è presente un atomo marcatore. Nell’esempio in figura, nella molecola di fluorodesossiglucosio, utilizzata per studiare il metabolismo del glucosio, allo stabile Fluoro-17 viene sostituito il radioattivo Fluoro-18. Il decadimento del Fluoro-18 (radiomarcatore) causa l’emissione di un positrone (e+). La PET è in grado di rilevare la posizione in cui è avvenuta l’emissione del positrone e quindi di individuare la collocazione della molecola marcata. La maggiore concentrazione di tale molecola in una certa regione del corpo darà origine, nell’ambito dell’immagine tomografica, ad un’area di contrasto che fornirà all’operatore la posizione dell’anatomia biochimica o metabolica nel corpo del paziente. Quest’alterazione del metabolismo sarà, al variare dei radiofarmaci usati e della collocazione, indicativa di un ampio spettro di patologie che vanno dal morbo di Parkinson al tumore. HO O HO HO OH 18 F I marcatori radioattivi Gli isotopi radioattivi che, all’interno delle molecole scelte come radiofarmaci, assolvono alla funzione di radiomarcatori ad emissione di positroni, assieme al Fluoro-18, sono: Carbonio-11; Azoto-13; Ossigeno-15; Rubidio-82; Iodio-124. Nella scelta del radiofarmaco è particolarmente importante tenere conto della vita media o tempo di dimezzamento (T.1/2) dell’isotopo utilizzato come marcatore. Il parametro T-1/2 è l’intervallo di tempo che trascorre tra il momento della creazione degli isotopi marcati nel ciclotrone ed il decadimento del 50% di essi. Come evidenziato nella tabella, il tempo di dimezzamento varia in funzione dell’isotopo marcatore utilizzato. 13 MARCATORE Carbonio-11 Azoto-13 Ossigeno-15 Fluoro-18 Rubidio-82 Iodio-124 T-1/2 20,4 minuti 12 minuti 120 secondi 110 minuti 1,25 minuti 4,176 giorni Questo parametro dà all’operatore una misura del tempo utile per effettuare l’esame PET. Per rimanere all’esempio dell’FDG marcato con Fluoro-18, trascorsi 110 minuti dal momento della sua produzione, la metà delle molecole avrà già emesso il positrone. Le attività funzionali dei radiofarmaci Le molecole marcate prendono parte alle attività biochimiche e metaboliche come le loro omologhe non radioattive. In funzione delle patologie da individuare o delle ricerche in atto vengono assunti, prima dell’esame PET, uno o più radiofarmaci scelti tra un set di cui presentiamo gli elementi più utilizzati: Marcatore: Azoto-13 L’ammoniaca può utilizzarsi come quantificatore del flusso sanguigno. La molecola migra dallo spazio vascolare al tessuto sia per trasporto attivo (pompa Na-K) che per diffusione. Una volta all’interno delle cellule è metabolizzata dal ciclo acido glutammico-glutammina. L’ammoniaca marcata è un eccellente tracciatore della perfusione sanguigna del miocardio sia in situazioni ordinarie che patologiche. La rapida eliminazione dell’ammoniaca dal sangue e la sua alta ritenzione nei tessuti permette di ottenere immagini ad alto contrasto. Un ulteriore vantaggio è che l’Azoto-13, avendo una vita media relativamente breve, permette di effettuare più esami consecutivamente. Marcatore: Carbonio-11 L’acetato (HC2H3O) è usato per monitorare il metabolismo ossidativo. Nel miocardio tale metabolismo si alimenta essenzialmente di acidi grassi e quindi l’acetato risulta molto utile per analizzare lo stato del metabolismo cardiaco. Il carfentanil è un narcotico circa 8000 volte più potente della morfina. Viene utilizzato, marcato con C-11, negli esami PET per studiare i recettori dei narcotici nel cervello. La cocaina: la PET può essere utilizzata per localizzare i siti cerebrali in cui la cocaina si distribuisce e la sua farmacocinetica. Si possono altresì studiare gli effetti biologici della cocaina come la riduzione del metabolismo della dopamina. La leucina marcata con C-11 può essere utilizzata per valutare l’attività di sintesi proteica volta allo studio del grado di vitalità del tumore. La metionina ha, per gli esami PET, le stesse caratteristiche funzionali della leucina. Marcatore: Fluoro-18 L’isotopo ionico Fluoro-18 (18F-) viene utilizzato per l’analisi delle patologie dello scheletro. Lo ione F-18 ha lo stesso pattern del tecnezio-99m difosfonato, marcatore usato per le gamma camere. Il fluorodesossiglucosio (FDG), è, ad oggi, il radiofarmaco più utilizzato per gli esami PET. La sua capacità di monitorare il metabolismo del glucosio lo rende utilizzabile per la diagnosi e lo studio di patologie neurologiche, cardiologiche ed oncologiche. L’FDG si è dimostrato altresì utile per distinguere le forme maligne e benigne di certi tipi di tumori, in virtù della maggior attività metabolica delle forme maligne. La Fluoro-L-Dopo si può utilizzare in neurologia per studiare il metabolismo, la neurotrasmissione ed i processi cellulari. In particolare si possono ricavare informazioni sulla distribuzione presinaptica dei neurotrasmettitori. Affine alla dopamina viene agganciata ai suoi terminali ed incorporata nel neurotrasmettitore. 14 Fluorouracile: è stato usato per monitorare la distribuzione degli agenti chemioterapici durante il trattamento. Marcatore: Rubidio-82 L’isotopo ionico Rubidio-82, chimicamente affine allo ione Potassio, viene assorbito dalle cellule del miocardio. La sua breve vita (85 secondi) media permette di effettuare esami PET cardiaci ravvicinati per comparare situazioni di stress-riposo del muscolo cardiaco. Un vantaggio di questo radiofarmaco è costituito dalla possibilità di produrlo, senza utilizzare un ciclotrone, con un generatore a colonna. La preparazione dei radioisotopi I ridotti tempi di decadimento dei marcatori usati per gli esami PET, vantaggiosi per ripetere esami ravvicinati nel tempo e per limitare l’esposizione del paziente alle radiazioni, obbligano però l’utilizzazione di una produzione “in situ” dei radiofarmaci. Nella maggior parte dei casi è necessario un ciclotrone accoppiato ad un’unità per la biosintesi delle molecole radiomarcate. Il ciclotrone Il ciclotrone è sostanzialmente un acceleratore circolare di particelle cariche, di piccole dimensioni, adatto alla produzione di radioisotopi. Esso consiste in una coppia di elettrodi metallici a forma di D, posizionata tra i poli di un largo elettromagnete. La coppia di elettrodi è separata da un sottile gap in cui è posizionata una sorgente di ioni che è usata per generare particelle cariche. Subito dopo la produzione di fasci di ioni (ad esempio Idrogeni) un filamento posizionato nella sorgente permette di caricare negativamente gli ioni di idrogeno tramite l’aggiunta di due elettroni (H). In seguito gli ioni negativi entrano nella camera a vuoto dove guadagnano energia grazie al campo elettrico ad alta frequenza che viene indotto dagli elettrodi metallici precedentemente descritti e vengono curvati da un forte campo magnetico generato da elettromagneti posti sopra e sotto la camera a vuoto. Grazie ad un oscillatore RF (Radio-Frequenza) che permette di cambiare la polarità degli elettrodi metallici ad ogni passaggio delle particelle cariche, il flusso di ioni negativi risulta continuamente accelerato e guidato lungo una traiettoria a spirale verso l’esterno. Dopo aver percorso diversi giri dentro la camera a vuoto il fascio di ioni negativi viene a contatto con una particolare struttura denominata carosello composta da diversi strati sottili di carbonio che permettono di strappare i due elettroni dallo ione H. Quando gli ioni negativi perdono entrambi gli elettroni ed acquistano carica positiva, il campo magnetico ancora presente nel carosello li porta a curvare lungo una nuova orbita circolare che li allontana dal centro del ciclotrone. Il fascio di protoni è così indirizzato verso una camera a targhetta fissa (di solito per ogni ciclotrone associato all’apparecchio per la PET ne sono presenti almeno due) dove viene posizionato il materiale atto alla produzione di radioisotopi. Il fascio di protoni entra così nella camera a targhetta ed attraverso particolare reazioni nucleari cambia la natura del materiale stabile, generandovi isotopi radioattivi soggetti a decadimento +. Una volta prodotti, i radioisotopi vengono trasferiti ad un’entità denominata biosintetizzatore dove vengono “attaccati” a particolari molecole per formare i radiofarmaci. Tutte le funzioni sopra descritte, incluso il ciclotrone e le unità biosintetizzatrici, sono controllate attraverso un personal computer. La fisica della PET I radiofarmaci usati nella PET contengono dunque particolari isotopi che sono instabili poiché i loro nuclei hanno un eccesso di protoni e quindi possiedono una carica positiva. Per raggiungere una configurazione più stabile per la loro natura, tali nuclei emettono un positrone (denominato + o e+). Questa particella perde energia attraverso un processo dissipativo all’interno del tessuto del paziente stesso oppure con una certa probabilità viene a contatto con un elettrone libero. L’interazione di un 15 positrone con un elettrone (una l’antiparticella dell’altra) è un evento di annichilazione, ovvero le due particelle si convertono in una coppia di fotoni gamma: la loro massa si trasforma in energia. Essendo la massa di ciascuna particella di 511KeV, i due fotoni creati dall’interazione avranno ognuno un’energia pari a 511 KeV. Inoltre la legge di conservazione della quantità di moto impone che i due raggi gamma viaggino in verso opposto lungo la stessa retta. Potendo passare sostanzialmente indisturbati attraverso il corpo umano, i due fotoni possono essere così rilevati da due distinte sezioni di un apposito rilevatore posto intorno al paziente. Tramite un circuito di coincidenza verrà determinata la posizione dell’evento di annichilazione e una ricostruzione elaborata da un computer esterno potrà dare l’immagine della distribuzione del radionucleo nel corpo del paziente. Ricostruzione dell’immagine Innanzitutto cerchiamo brevemente di descrivere come avviene la tomografia dei raggi gamma da 511 KeV emessi nell’annichilazione del positrone con un elettrone. In uno studio PET, un radioisotopo capace di emettere positroni viene iniettato o inalato nel paziente. In seguito l’isotopo circola attraverso il sangue per raggiungere, per esempio, il tessuto cerebrale, o il muscolo cardiaco. Appena è avvenuta un’annichilazione, il tomografo può rilevare la posizione nel corpo del paziente e la concentrazione dell’isotopo. La linea che appare dopo l’annichilazione del positrone rappresenta, infatti, la direzione di emissione dei due raggi gamma, ognuno ad angolo di 180° dall’altro. Il lavoro che deve fare il tomografo consiste dunque nel rilevare correttamente questi due raggi coincidenti, indicanti che l’annichilazione di un positrone è avvenuta in un punto specifico lungo la linea di coincidenza ricostruita. Quando i due raggi gamma interagiscono con i cristalli dello scintillatore, composto solitamente di germanato di bismuto (BGO), essi vengono convertiti in fotoni di luce visibile e quindi raccolti e amplificati da tubi fotomoltiplicatori (PMTs). Sempre nei PMTs i fotoni vengono convertiti in segnali elettrici che sono poi memorizzati dall’elettronica del tomografo. Il processo di conversione e memorizzazione avviene quasi istantaneamente, il che permette di poter comparare gli eventi di scintillazione di tutti i rilevatori opposti (cioè lungo tutte le linee di coincidenza possibili). Una volta che l’emissione di positroni è stata rivelata e memorizzata, il passo successivo consiste nell’elaborazione dell’immagine dell’organo e della relativa diagnosi associata. Descriviamo brevemente come avviene il processo di ricostruzione dell’immagine. Il risultato finale di una PET è l’insieme di immagini di diverse “fettine” (slices) trasversali dell’organo interessato, con le aree caratterizzate da una ben definita attività biochimica e metabolica chiaramente delineate da differenti colori. In sostanza l’immagina PET rappresenta la distribuzione dei radionuclidi nel corpo del paziente. Quando due cristalli opposti rilevano una coppia di fotoni gamma all’interno della corretta finestra di coincidenza, viene memorizzata una linea di risposta (LOR), identificata da un angolo e da un raggio calcolati rispetto ad una linea perpendicolare direzionata verso il centro del campo di vista (FOV) che si sta analizzando. Ogni volta che un evento viene rivelato, la relativa LOR viene memorizzata e rappresentata in un insieme di coordinate polari che chiamano sinogrammi. Per cui se vogliamo studiare tutte le linee di coincidenza parallele ad un certo angolo (cioè studiare la vista lungo una singola direziona) ci basta studiare un singolo vettore di dati del sinogramma. Il processore di immagini ricostruisce l’immagine dal sinogramma usando diversi protocolli matematici come le trasformate di Fourier veloci (FFT), usate anche in apparecchiature tomografiche come la TC e SPECT. Essendo ogni unità PET dotata di un hardware specifico per la ricostruzione dell’immagine, il computer PET può ricostruire un’immagine in circa due secondi. I dati grezzi vengono comunque scremati dagli eventi di tipo casuale, da quelli scatterati e corretti a seconda dei tempi morti e delle attenuazioni prima che l’immagina finale venga prodotta. Esiste infine la possibilità, per le PET dotate di anelli multipli e capaci di acquisire simultaneamente diverse fettine, di combinare opportunamente “slices” adiacenti producendo viste coronali e sagittali degli organi studiati. Uno degli ultimi passi che caratterizzano la catena di processi nello studio PET è la produzione di una stesura delle 16 immagini utile per la diagnosi. Il modo convenzionale di presentare i dati dell’immagine è quello di produrre una pellicola trasparente (X-ray film) delle immagini visualizzate dal monitor del computer. In aggiunta ai dati di immagine, la pellicola considerata dovrebbe essere etichettata con i dati specifici del singolo caso clinico. Dato che questa informazione è solitamente memorizzata nei file di immagine insieme ai dati sull’immagine, l’etichettatura e la stesura delle immagini prodotta sul display può essere automaticamente trasferita e immagazzinata via software. Comunque, con il rapido sviluppo di network locali e sistemi PACS, le pellicole potranno non essere più indispensabili. Le immagini potranno essere infatti lette direttamente dal sistema e mostrate su appositi display per la refertazione. L’evoluzione tecnologica e la possibilità di fondere le immagini PET, che hanno un elevato contenuto di tipo metabolico-funzionale, con quelle della tomografia computerizzata (TC), che presentano una grande accuratezza spaziale, hanno contribuito in questi ultimi tempi a ottimizzare le informazioni emergenti da questa tecnica diagnostica. I tomografi ibridi PET/TC di ultima generazione infatti sono in grado di ottenere nello stesso paziente sia un’immagine PET che la corrispondente immagine TC, e di riprodurre in tempi molto brevi le due immagini sovrapposte in un’immagine iconografico tridimensionale che rappresenta l’intero distretto corporeo. Negli ultimi anni è stata sviluppata e commercializzata una nuova generazione di strumenti ibridi PET/TC. I vantaggi ricavabili da questo accoppiamento sono: -le radiazioni della TC possono essere utilizzate per correggere il fenomeno dell’attenuazione delle radiazioni attraverso i tessuti dell’organismo, e questo permette di “ripulire” l’immagine PET da possibili interferenze e di migliorare la qualità dell’informazione; -l’impiego della TC per la correzione dell’attenuazione rende l’esame complessivamente più veloce, e pertanto permette lo studio di un maggior numero di pazienti nello stesso tempo; -l’immagini della TC, più accurate nel definire i dettagli anatomici, migliorano l’interpretazione della localizzazione spaziale degli accumuli osservati con la PET; -la possibilità di fondere in un’unica immagine informazioni morfologiche e funzionali rende più agevole l’interpretazione diagnostica, e migliora ulteriormente l’accuratezza diagnostica della PET. Le specifiche delle prestazioni Negli ultimi anni sono stati definiti gli standard per le prestazioni che devono avere le macchine per la PET, è stata definita una terminologia di base comune a tutti i prodotti in commercio e studiate procedure di test sperimentali per valutare le capacità di scansione dei vari modelli. Attualmente la risoluzione spaziale, la sensibilità (energetica), la stima delle correzioni alle quantità acquisite, rispetto alla frazione di radiazione scatterata, alla frequenza di perdita di conteggi, agli eventi casuali, all’uniformità di conteggi e attenuazioni, vengono effettuate usando un fantoccio cilindrico di mecrilato di metilene o polietilene di 18-20 cm. La risoluzione spaziale misura la capacità dello scanner di determinare accuratamente la posizione di ogni evento di annichilazione ed è definita come la larghezza a metà altezza (FWHM) della funzione di distribuzione dei punti di ogni immagine. La risoluzione nella direzione trasversa è calcolata ricostruendo l’immagine di una sorgente posta in aria a diverse distanze radiali tra 0 e 10 cm dentro un definito FOV, e mantenuta stazionaria o in rotazione fuori dal piano. La risoluzione assiale è invece misurata in tre definite posizioni radiali della sorgente: 0 cm, 10 cm e 20 cm dal centro. La risoluzione spaziale di un’unità PET è limitata principalmente dalle dimensioni del rilevatore, dal cammino medio che il positrone fa nel corpo del paziente prima di annichilirsi (range) e dalle deviazioni dei fotoni gamma lungo il percorso (scattering). L’uso di circuiti di coincidenza opportuni per la rilevazione delle radiazioni e di particolari collimatori. La sensibilità del sistema, che misura la capacità per ogni singolo rivelatore di rivelare e discriminare i fotoni di 511 KeV, viene calcolata considerando l’efficienza nel conteggio dello scanner quando un fantoccio è riempito con un quantitativo e una distribuzione conosciuta di materiale radioattivo. La sensibilità totale del sistema è definita come la somma delle sensibilità misurata per ogni fettina ed è rappresentata in conteggi per secondo (cps) per una data 17 attività, solitamente in unità di microcurie per centimetro cubo (Ci/cc). La frazione di eventi diffusi (scatter radiation) sul totale di quelli registrati, rappresenta una buona misura della sensibilità dello strumento nel discriminare la radiazione diffusa e viene testata usando un fantoccio riempito con acqua. Per la sua determinazione si considerano i dati registrati nel sinogramma, ed è consigliabile sia calcolare il valore della frazione per ogni singola fettina, sia estrarre un valore medio su tutte le slice possibili. Questo dato riveste una notevole importanza nella valutazione standard dei differenti scanner prodotti in quanto esso viene modificato principalmente dalla geometria e dal materiale del rivelatore e dalla posizione degli scudi. Nella valutazione di tale parametro bisogna comunque tenere conto che le dimensioni del fantoccio non corrispondono ne a quelle di un singolo organo ne tanto meno a quelle del corpo umano per cui la frazione di radiazione diffusa in una reale situazione clinica non può essere accuratamente predetta dai test di qualità. Un aspetto che può influire molto sulla accuratezza della misura è sicuramente la perdita di conteggi per effetto dei tempi morti caratteristici del sistema di rilevazione e acquisizione. Più esattamente il tempo morto è il periodo di tempo, solitamente di alcuni microsecondi, in cui un evento di annichilazione viene processato e nessun altro evento può essere memorizzato. Per la stima di questo parametro si procede a misurare diverse volte un fantoccio riempito uniformemente con materiale radioattivo. In questo modo si può avere una stima della perdita di conteggi a diversi livelli di attività della sorgente, calcolata in cps o in kilo-conteggi per secondo (kps). I valori misurati di frequenza di conteggio sono solitamente usati per stimare la capacità di acquisizione del sistema e vengono rappresentati con un grafico dell’attività verso conteggi. Il valore sul plot per cui il numero di eventi casuali eguaglia il numero di eventi reali, il punto al quale il tempo morto raggiunge il 50%, è usato come stima della capacità di frequenza di conteggi del sistema. Nei software usati per la ricostruzione delle immagini sono implementati algoritmi che tengono conto dei tempi morti e degli eventi casuali. La misura dell’uniformità della risposta del sistema è usata per valutare le imperfezioni nell’immagine ricostruita proveniente da imperfezioni del sistema stesso come una non eguale risposta dei vari cristalli del rivelatore che può poi essere corretta a livello software. Il test associato all’uniformità fa uso di un fantoccio riempito con una distribuzione uniforme di radioattività e piazzato ad una distanza verticale di 2,5 cm rispetto al centro. Dopo che il fantoccio è stato rivelato con l’acquisizione di circa venti milioni di conteggi per fettina, la percentuale di non uniformità è determinata dai conteggi acquisiti in aree di 1 cm2 su una precisa regione di interesse (ROI). La correzione per attenuazione è un aspetto importante nella scansione della PET in quanto permette di correggere un’eventuale formazione di artefatti nell’immagini finali attraverso l’uso di collimatori elettronici. Una scansione della trasmissione viene di solito effettuata prima dell’iniezione di un radiofarmaco nel paziente per poter stabilire le correzioni da effettuare sulle attenuazioni dei fotoni di annichilazione nel tessuto del paziente. Recenti sviluppi nelle tecnologie di trasmissione permettono oggi di poter effettuare simultaneamente scansioni del paziente con emissione e trasmissione. I dati raccolti durante questo tipo di scansione vengono poi elaborati dal computer che provvede a correggere le attenuazioni e testare le distorsioni spaziali da esse prodotte. Descrizione strumentale La struttura generale di un apparecchi PET si è oramai definita nel corso degli ultimi anni e nonostante ci possano essere differenze nella capacità di elaborare immagini sempre più precise possiamo raggruppare gli elementi principali nel seguente modo : -Gantry -Apparecchiatura rivelatrice -Elettronica di acquisizione -Lettino del paziente -Sistema computerizzato 18 Il Gantry Il gantry contiene il circuito elettronico, i laser per il posizionamento del paziente, la TC e permette l’assemblaggio e l’alloggiamento del rivelatore ad anello per la ricostruzione degli eventi con emissione di due fotoni. Il rivelatore Cristalli di manganato di bismuto (BGO) che hanno la caratteristica di emettere luce (scintillare) quando esposti a radiazioni ionizzanti, costituiscono la parte attiva del detector, capace cioè di rivelare gli eventi di annichilazione dei positroni. In alcune apparecchiature PET vengono usati altri cristalli scintillanti come lo ioduro di sodio attivato al tallio (Na-Tl) o il fluoruro di bario (BaF) oppure il fluoruro di cesio. I vari cristalli del rivelatore sono posizionati in anelli stazionari intorno al paziente.In molti casi gli analizzatori PET hanno da 6 a 16 anelli esagonali, ottagonali o circolari ognuno dei quali è composto da 220 a 512 cristalli. I cristalli sono otticamente accoppiati (cioè collegati tramite l’uso di guide di luce o fibre ottiche) a tubi fotomoltiplicatori (PMTs) che convergono i segnali di luce degli scintillatori in impulsi elettrici opportunamente formati e amplificati. Ad un PMT può essere accoppiato un numero variabile di cristalli tra 1 e 16 tanto che in alcuni sistemi vengono considerati gruppi di rivelatori associati in blocchi di 4 elementi che distribuiscono la luce emessa dagli eventi di scintillazione in 64 cristalli a 4 PMTs. Grazie alla loro spaziatura e all’angolazione con cui vengono disposti, questi blocchi di scintillatori raggiungono così livelli uniformi di efficienza e risoluzione. Altri esempi di apparecchiature PET in funzione usano, invece 6 rivelatori al Na-Tl ad ampia superficie, ognuno accoppiato a 34 PMTs quadrati oppure cristalli di fluoruro di cesio, con un cristallo per PMT. Elettronica di acquisizione Ogni struttura “rivelatore + PMT” è collegata elettronicamente ad un circuito di acquisizione (denominato coincidence circuit o Front End Electronics) che registra possibili eventi di annichilazione rivelati da due cristalli distinti soltanto se entrambi i segnali provenienti da PMTs risultano essere coincidenti. La verifica della coincidenza avviene attraverso un circuito elettronico che compara gli istanti di formazione del segnale con un intervallo temporale ben determinato (finestra temporale di coincidenza) che può variare da meno di un nanosecondo (ns) ad alcuni nanosecondi. La selezione di eventi collimati, cioè di segnali non provenienti da radiazione “scatterata”, è raggiunta elettronicamente attraverso il circuito di coincidenza, piuttosto che attraverso collimatori in piombo usati nelle immagini nella medicina nucleare convenzionale che fa uso di emissioni ad un singolo fotone. La tecnica di coincidenza si basa sulla generazione di un impulso standard (e.g. 1 Volt di altezza e 5 nsec di ampiezza) ogni volta un evento di annichilazione è rivelato. Questo segnale di output è sommato con il segnale proveniente dal rivelatore opposto; se gli impulsi sono coincidenti vengono sovrapposti e in seguito sommati producendo un segnale elettrico con altezza di impulso raddoppiato. Attraverso questo circuito di collimazione è così possibile ottenere una migliore risoluzione di contrasto e spaziale, un’efficienza più alta, ed una frequenza di conteggi più alta di quelle ottenibili con le tecniche per singolo fotone usate nelle gamme-camere. Il rumore del sistema di acquisizione è dovuto principalmente alla registrazione di eventi di coincidenza casuali provenienti da sezioni del rivelatore non correlati (cioè non opposti l’uno con l’altro). Questo tipo di rumore può essere ridotto migliorando: la finestra temporale di coincidenza (principalmente restringendola), la struttura del gantry e gli scudi di piombo. Per aumentare il rapporto tra eventi di coincidenza e non coincidenza e per ridurre la radiazione scatterata sugli anelli del rivelatore vengono posizionati degli anelli stazionari, composti da dischi di tungsteno o piombo posizionati tra in gap opportune tra ogni anello del rivelatore e di spessore di circa 1 mm. Alcune unità PET possiedono anche componenti retrattili settali che aumentano i piani 19 di coincidenza permettendo un’acquisizione tridimensionale. Nell’unità PET che non utilizzano questi dispositivi settali il sistema computerizzato con appositi software controllano e aggiustano le soglie dei discriminatori e l’angolo di accettanza assiale per ridurre lo scattering. Inoltre solo i PMTs nell’intorno della scintillazione sono usati per ricostruire la posizione degli eventi di annichilazione, riducendo in questo modo l’interferenza dovuta ad eventi casuali. Il lettino del paziente Esso è dotato della possibilità di movimento orizzontale e verticale controllabile direttamente dall’operatore o dal computer. Il lettino è solitamente equipaggiato con poggioli per la testa e per le braccia a tutto vantaggio del comfort del paziente. Il sistema computerizzato Il sistema computer di un’unità PET è composto principalmente da un processore per l’acquisizione dei dati (DAP), un processore per ricostruzione, un processore per l’elaborazione d’immagine un video terminale, ed una stampante. Il DAP controlla l’acquisizione dei dati in tempo reale in diversi modi specifici come istogrammi semplici, distribuzioni statiche, a soglia, etc.... Il processore per la ricostruzione provvede ad elaborare i dati in una matrice (solitamente 128 x 128 0 256 x 256), ed il processore d’immagine converte questi dati in un’immagine che può essere visualizzata e studiata su un monitor. Applicazioni La Tomografia ad missione di Positroni è una tecnica non invasiva per la creazione di immagini diagnostiche basata sull’analisi della distribuzione di attività metaboliche indicative di patologie. La PET è particolarmente utile per pazienti affetti da malattie del cervello e del cuore così come in pazienti con certi tipi di cancro. Tramite l’uso di radiofarmaci è possibile infatti studiare i cambiamenti che avvengono a livello dei processi biochimici a causa di tali malattie. La PET può ad esempio evidenziare, i cambiamenti che avvengono come conseguenza del morbo di Alzheimer, per il quale solitamente non si notano grosse anormalità strutturali. Presentiamo di seguito una breve sintesi delle principali applicazioni della PET. Oncologia La tomografia ad emissione di positroni si sta dimostrando estremamente utile nel rivelare masse tumorali mostrandone le dimensioni e nel discriminare crescite maligne da casi benigni. Studi recenti hanno dimostrato che l’elaborazione di immagini della PET permette di riconoscere le forme più ricorrenti di tumori dell’encefalo, dei polmoni, colon, seno, pelle, linfonodi e altri organi. Le informazioni provenienti dalla PET possono aiutare a scegliere quale combinazione di trattamenti farmacologici abbia maggior successo nel controllare il tumore del paziente. In generale, questo tipo di imaging permette la diagnosi precoce della patologia, rilevando le alterazioni metaboliche ad essa dovute prima che si manifestino alterazioni morfologiche (rilevate da RNM e TC). Cancro del polmone Nel cancro del polmone a cellule non piccole (NSC LC), l’utilità clinica è riconosciuta per gli usi seguenti: -caratterizzazione del nodulo polmonare solitario; -staging iniziale con diagnosi avvenuta di NSC LC, includendo la scoperta di linfonodi e metastasi in sede mediastinica e la scoperta di metastasi sparse; e ha potenziale per : -monitoraggio della risposta alla terapia e scoperta di tumori ricorrenti o residui. Linfoma Nel linfoma di Hodgkin e non-Hodgkin, l’utilità clinica è riconosciuta per: 20 -staging iniziale quando il re-staging potrebbe influenzare la scelta del trattamento; -valutazione della malattia rimanente dopo trattamento; e ha potenziale per: -valutare la risposta alla terapia. Cancro della mammella Nel cancro del seno, l’utilità non è riconosciuta in modo chiaro, ma ha potenziale per: -staging dei tumori primari e ricorrenti; -scoperta di metastasi linfonodali; -scoperta del tumore primario nel contesto di una valutazione poco certa; -monitoraggio della risposta alla terapia. Cancro della prostata Nel cancro della prostata, la FDG-PET ha, anche se non ci sono al momento dati per dimostrare la sua efficacia, potenzialità clinica per: -scoprire tumori ricorrenti o residui. Cancro del colon-retto Nel colon-retto, l’utilità clinica è riconosciuta per gli usi seguenti: -scoperta pre-operatoria di metastasi epatiche o extra epatiche in pazienti nei quali è stata trovata una ricorrenza localizzata; -determinazione dell’ubicazione di tumori ricorrenti in presenza di sintomi clinici o scoperte paracliniche anormali (rappresentazione di immagini convenzionale; CEA; etc..); -differenziazione tra ricorrenza e cicatrice post-operatoria nel contesto di rappresentazione di immagini diagnostiche che mostrano le anormalità; ha potenzialità per: -monitorizzare la risposta alla terapia; e non è riconosciuto per: -diagnosticare la lesione primaria. Melanoma Nel melanoma l’utilità clinica è riconosciuta per gli usi seguenti: -individuazione di metastasi extranodali durante lo staging iniziale o nel contesto di un follow up post-operatorio; -valutazione di recidiva potenzialmente trattabile; non è riconosciuta per: -diagnosticare la lesione primaria; -individuare metastasi nei linfonodi. Cancro del testa-collo Nel testa-collo l’utilità clinica è riconosciuta per: -identificare un tumore primario ignoto in presenza di metastasi del nodo cervicale; -staging i linfonodi cervicali quando ci sono esiti negativi dalle tecniche di immagini convenzionali; -scoprire malattia ricorrente o tumori residui e differenziando la cicatrice post-operatoria; e non è riconosciuto per: -monitorare la risposta alla terapia. Malattie del cervello Le immagini prodotte dalla PET permettono di ricavare informazioni utili per localizzare e valutare le patologie cerebrali. Esse infatti possono permettere di individuare la regione del cervello che è all’origine della malattia. La PET si dimostra utile nel riconoscere malattie degenerative del cervello come i morbi di Alzheimer, Huntington e Parkinson. In un periodo non superiore ad alcune ore subito dopo un attacco, l’imaging data dalla PET può dimostrarsi come utile strumento nel determinare la terapia da prescrivere al paziente. Negli studi dei tumori al cervello è stato osservato che la concentrazione di FDG aumenta proporzionalmente all’attività tumorale. Infatti l’uso di 21 FDG-PET in molti studi ha dimostrato come esiste una chiara correlazione tra l’aumento di FDG e il grado istologico di un gliocoma, e anche tra lo stesso aumento e la prognosi sulla sopravvivenza. A livello di immagine di solito si può osservare una zona calda relativamente a lesioni di alto livello, e una zona fredda legata a glicomi di basso grado. Comunque, fino ad ora, l’applicazione più consistente e importante della FDG-PET nello studio dei tumori del cervello, è stata la sua applicazione nel monitoraggio degli effetti del trattamento post-radiazioni per lesioni di alto grado del cervello. Infatti diventa spesso molto difficile fare una diagnosi differenziale con la tomografia computerizzata (CT) o la risonanza magnetica, in quei pazienti che sono stati operati e poi trattati con la radioterapia, e presentano, alcuni mesi dopo l’intervento, una lesione parziale necrotica e un aumento del contrasto periferico. FDG-PET si è dunque dimostrata utile in questi casi per differenziare i casi di riprese di tumori, che si evidenziano con alti aumenti di concentrazione di FDG, da casi di necrosi da radiazione nel quale il livello di FDG è basso. Cardiologia Recenti ricerche effettuate da diversi laboratori europei e americani hanno dimostrato che il F-18 fluorodesossiglucosio (FDG) è un buon marcatore del metabolismo del glucosio ed in particolare, usando tale molecola unita ad uno studio PET, può essere utile per valutare l’irrorazione sanguigna del miocardio. Infatti è stato osservato come l’FDG-PET, quando usato a distanza di una settimana o più dopo un infarto, può accuratamente identificare i pazienti con una povera funzionalità del ventricolo sinistro che potrebbe avere benefici da una rivascolarizzazione. Inoltre, recenti studi, hanno anche mostrato che l’FDG-PET è capace di riconoscere pazienti per i quali ci può essere un alto rischio di complicazioni cardiache dopo interventi chirurgici. Problematiche e sviluppi La maggior parte dei problemi associati alla PET sono legati hai limiti dell’attuale tecnologia (cioè ad esempio risoluzione spaziale e risoluzione energetica). Inoltre per limitare il più possibile errori meccanici e problemi nella qualità dell’immagine, l’unità di lavoro PET dovrebbe adottarsi di un corretto programma di controllo di qualità per l’apparecchiatura che include i seguenti aspetti: -test giornaliero del sistema in condizioni di lavoro normali; -calibrazione del sistema all’incirca una volta a settimana; -test mensile delle prestazioni della macchina, come ad esempio la risoluzione spaziale ed energetica, efficienza di conteggio, uniformità di immagini, e uniformità nella velocità di acquisizione. Attualmente le tecniche di acquisizione sviluppate per camere di coincidenza per raggi gamma hanno una frequenza di conteggi più bassa di quella caratteristica di un sistema PET, il che può intaccare la risoluzione e la qualità di immagine. Comunque, immagine ricostruita tramite coincidenza può permettere di avere una sensibilità più alta, migliorando la rivelazione delle lesioni. Lo sviluppo del sistema PET è sicuramente il più recente all’interno dell’ampio mondo delle immagini nucleari per la medicina. Fino a circa la prima metà degli anni ’80 la PET rappresentava soltanto un’apparecchiatura di ricerca, negli ultimi 10 anni però, grazie al forte sviluppo delle tecnologie per la diagnostica clinica, essa è diventata uno strumento particolarmente utile per la valutazione e la cura di malattie cardiovascolari e tumorali. Attualmente gli sviluppi di questa tecnologia sono concentrati nel miglioramento della cattura dei fotoni per ottenere un’immagine PET più accurata. Un ulteriore campo di sviluppo riguarda la possibilità di unire in un’unica apparecchiatura la tecnologia della PET e della risonanza magnetica. Linee guida per la scelta 22 L’acquisto di un’apparecchiatura PET rappresenta oggi un impegno piuttosto importante.Oltre alla spesa di base per l’acquisto dell’apparecchiatura, un aspetto molto importante nell’economia di una struttura PET è l’installazione della macchina stessa (che talvolta richiede una spesa aggiuntiva elevata) e la sua manutenzione. A tale proposito risulta molto importante calcolare, ancora prima dell’acquisto di una PET, quali spese devono essere sostenute per la costruzione di una o più eventuali stanze opportunamente isolate (bunker) in cui alloggiare il ciclotrone e il tomografo ad emissione di positroni. La manutenzione e il periodo di training per le persone che dovranno lavorare attorno alla struttura devono rappresentare un fattore discriminante notevole nella scelta di quale prodotto comperare alla fine. Infatti all’interno del budget di spesa che l’ente sanitario deve prevedere, il capitolo riguardante il personale da affiancare a quello gia esistente rappresenta un’aggiunta notevole di spesa che deve essere tenuta in considerazione. A tale proposito è importante sottolineare che è stato osservato in diverse strutture sanitarie estere (ad esempio U.S.A. dove le PET sono molto diffuse) che la creazione di un gruppo di lavoro sufficientemente istruito permette con il tempo di abbattere molti costi legati alla manutenzione e al funzionamento giornaliero dell’apparecchiatura, con notevoli benefici dell’azienda stessa e i pazienti che ne usufruiscono. La struttura PET, visto l’alto livello di informatizzazione con cui è stata costruita e sviluppata, richiede che la struttura sanitaria si doti di un’adeguata rete interna (e non) di personal computer con cui gestire, acquisire e immagazzinare le immagini che l’elaboratore di immagini della PET produce. Per questi motivi il capitolato speciale allestito per l’occasione deve essere adeguato all’impegno di spesa previsto ed alle esigenze a cui verrà sottoposta la struttura PET. Se da un lato, pertanto, i requisiti minimi devono essere perfettamente individuati, dall’altro è opportuno evitare limitazioni troppo restrittive basate sulla richiesta di caratteristiche di secondaria importanza così com’è necessario che la struttura PET nel suo complesso sia fornita di tutte le infrastrutture necessarie ad effettuare le diagnosi nei campi medici previsti dalla struttura sanitaria. Traducendo il tutto in aspetti più squisitamente tecnici, fattori discriminanti tra un prodotto e l’altro da considerare al momento della scelta sono ad esempio: i possibili tipi di radiofarmaci che possono essere prodotti (che potrebbe limitare i tipi di esami eseguibili), la velocità e la quantità con cui vengono prodotti questi radiofarmaci (che limiterebbe il numero di esami eseguibili e quindi il pieno sfruttamento della stessa PET). Inoltre la richiesta di un ciclotrone autoschermante (self shilding) può risultare determinante qualora l’azienda non possieda gia un’opportuna stanza isolata atta a contenere apparecchiature che producono elevate dosi di materiali radioattivi. Infine è necessario studiare quali sono i software presenti nell’apparecchiatura PET proposta dalla ditta contattata. Questi ultimi infatti sono diversi a seconda dell’ambito clinico dove deve essere usata la PET. Alcuni di questi software hanno continui aggiornamenti che ne possono migliorare le prestazioni in sede di ricostruzione dell’immagine e sarebbe opportuno conoscere la disponibilità della ditta fornitrice a dotare di volta in volta l’apparecchiatura delle nuove evoluzioni e di insegnare ai tecnici dell’ente sanitario ad utilizzarli. Analisi economica Considerazioni generali La PET ha dimostrato, oltre ad un’elevata affidabilità diagnostica, un significativo impatto in termini di tempi e di costi del processo diagnostico-terapeutico sia con la diminuzione di altre indagini, comunque costose, sia in relazione agli anni di vita guadagnati e all’incremento della qualità della stessa in seno alla popolazione di riferimento. L’impatto economico positivo si rende particolarmente evidente in alcune patologie: il risparmio viene valutato, ad esempio, nell’ordine di 1000 euro/paziente nel caso del tumore polmonare (quasi 1000 casi anno in FGV) e del colon, in quanto determina una riduzione del 20-40% degli interventi inutili (per incompleta stadiazione) e una netta diminuzione dei tempi necessari per la stadiazione. Inoltre, la precocità diagnostica delle lesioni individuata (fino a pochi millimetri di diametro) inciderà in maniera significativa sulla 23 tipologia degli interventi demolitivi che si presume potranno essere meno invasivi e con minore incidenza di complicanze post-chirurgiche, evitando altresì interventi chirurgici del tutto inutili dal punto di vista terapeutico e prognostico. Sviluppi molto promettenti sono anche in atto circa la possibilità di valutare, in corso di terapia antiblastica, la risposta del tumore e quindi l’efficacia della stessa; ricadute positive si attendono sia sulla qualità della vita del paziente sia sui costi della terapia. Gli esiti dei trattamenti, inoltre, dovrebbero in numerosi casi ridurre il peso del follow up e/o delle terapie successive. Ipotesi di finanziamento delle apparecchiature ed impianti La formula di acquisto considerata è del tipo leasing comprensivo di contratto di manutenzione “full risk” e comporta un’incidenza annuale PER costi fissi IMPUTABILI AL CANON ELEASING. A parte, sempre nei costi , vengono considerati i costi del personale, in quanto l’apertura di un centro PET che lavori a pieno regime comporta necessariamente l’assunzione di nuovo personale. I costi variabili sono in funzione diretta del costo per singola dose di radiofarmaco (F-18 FDG). Il costo del radiofarmaco è a sua volta funzione del metodo di produzione prescelto; in questo studio si formulano diverse ipotesi e si scarta l’ipotesi di acquisto dall’estero in quanto particolarmente onerosa: - Opzione 1 : Centro PET privo di ciclotrone con acquisto del radiofarmaco dall’esterno; - Opzione 2 : Centro PET dotato di ciclotrone per la sola produzione interna; - Opzione 3 : Centro PET dotato di ciclotrone per la produzione interna e la vendita; La tecnologia presa in esame Il tomografo PET preso in esame in questo studio appartiene alla classe degli scanner dedicati alla PET, di tipo “Full Ring”, con cristalli dei detettori del tipo NaI, BGO o LSO; la modalità di acquisizione è del tipo 3D Per ragioni di tipo pratico rispetto agli esami oncologici Whole Body ai quali ci si rivolge, il tomografo prevede l’integrazione del Tomografo Computerizzato (TC), con conseguente aumento dei costi stimati per l’acquisto delle apparecchiature. Requisiti strutturali e tecnologici Per svolgere l’attività, considerati i materiali utilizzati e il loro effetto sui pazienti, la struttura deve possedere alcune caratteristiche peculiari e locali annessi, quali la zona di preparazione del paziente, l’attesa calda, il laboratorio per la preparazione dei radiofarmaci, etc..., che incidono sui costi di realizzazione dell’impianto. Per quanto riguarda il personale, l’organizzazione di quello coinvolto nella gestione del paziente non è dissimile da quella che si prevede per altre tecnologie diagnostiche; cambia invece radicalmente la necessità di risorse determinata dalla preparazione dei radiofarmaci con i processi connessi di qualità, attività per la quale si devono prevedere in aggiunta un dirigente farmacista/chimico, tre tecnici di laboratorio e un fisico sanitario. Si tratta, pertanto, di un investimento oneroso per il quale è d’obbligo un’attenta valutazione costiricavi della struttura, al fine di assicurare almeno il pareggio di bilancio dell’Azienda Ospedaliera. Considerando, poi, che il finanziamento delle prestazioni risulta a carico del Servizio Sanitario Regionale, è importante stimare i benefici economici anche in una logica più ampia che tenga conto di aspetti diversi che rivestono ricadute positive su altri settori della sanità e della società. Rilevanti sono, infatti, sia i costi iniziali legati alla realizzazione della struttura sia i costi fissi di gestione annui. Le quote di ammortamento previste dalla normativa sono pari al 12,5% annuo per 8 anni. 24 Opzione N°.1 (PET) Descrizione Quantità Costo storico (Euro) a) Costi Capitale Tomografo 1 2.500.000,00 PET/TC Lavori edili ed 225.500,00 impianti Sub Totale a) 2.725.500,00 b) Costi Fissi Elettricità Personale 6 Manutenzione Sub Totale b) Totale Costi Fissi c) Costi Variabili Numero Esami 2.880 Dose di FDG 2880 450 (acquistato) Materiale di 2880 35 consumo Sub Totale c) Totale Costi Costo per Esame 2.880 eseguito Numero esami giornalieri Attività dose per esame Giornate lavorative/anno Numero esami annuali Costo dose FDG Rimborso nazionale per esame Totale costo per esame Costo (Euro) finale Ammortamento (anni) Incidenza annua (Euro) 3.562.400,00 8 445.300,00 316.824,00 8 39.603,00 3.879.224,00 8 484.903,00 6.000,00 300.000,00 10.000,00 316.000,00 800.903,00 1.296.000,00 100.800,00 2.197.703,00 1.396.800,00 2.197.703,00 763,00 12 8-10 mCi (296-370 MBq) 240 gg 2.880 450 1.070 763 25 Opzione N°. 2 (Ciclotrone) Descrizione a) Costi Capitale Ciclotrone 18 MeV Radiochimica(Modulo sintesi FDG) Sistemi sicurezza/Radioprotezione Totale apparecchiature Lavori edili ed impianti Sub Totale a) b) Costi Fissi Elettricità Personale Manutenzione Sub Totale b) c) Costi Variabili Materiali chimici/Reagenti Sub Totale c) Totale Costi Produzione dosi FDG annue Costo per dose di FDG prodotta Quantità Costo storico (Euro) Costo finale Ammortamento (Euro) (anni) Incidenza annua (Euro) 1 2.000.000 600.000 2.810.000 843.000 8 8 351.250 105.375 600.000 843.000 8 105.375 3.200.000 550.000 3.750.000 4.496.000 772.752 5.268.752 8 8 8 562.000 96.594 658.594 30.000 250.000 40.000 320.000 5 2.880 2.880 2.880 270,833 780.000 780.000 1.758.594 1.758.594 610,6 26 Opzione N°. 2 (PET+Ciclotrone) Descrizione Quantità Costo storico (Euro) a) Costi Capitale Tomografo PET/TC + 2 4.500.000 Ciclotrone Lavori edili ed impianti 775.500 Radiochimica (modulo 600.000 sintesi FDG) Sistemi 600.000 sicurezza/radioprotezione Sub Totale a) 6.475.500 b) Costi Fissi Elettricità Personale 11 Manutenzione Sub Totale b) c) Costi Variabili Numero Esami 2.880 Materiale di consumo 2.880 35 Materiali chimici/reagenti 2.880 270,833 Sub Totale c) 2.880 305,833 Totale Costi (a+b+c) Costo per Esame eseguito 2.880 2.660.300 Opzione N°.2 Produzioni giornaliere Dosi FDG prodotte al giorno Numero esami giornalieri Centri riforniti Attività dose per esame Giornate lavorative/anno Numero esami annuali Costo dose FDG Rimborso nazionale per esame Totale costo per esame Costo finale Ammortamento (Euro) (anni) Incidenza annua (Euro) 6.372.400 8 796.550 1.089576 843.000 8 8 136.200 105.375 843.000 8 105.375 9.147.976 8 1.143.500 36.000 550.000 50.000 636.000 100.800 780.000 880.800 2.660.300 923,71 1 12 12 1 8-10 mCi (296-370 MBq) 240 2.880 610.6 1.070 923.71 27 Opzione N°.3 (PET) Descrizione Quantità Costo storico Costo finale Ammortamento (Euro) (Euro) (anni) a) Costi Capitale Tomografo PET/TC + 1 lavori edili + impianti b) Costi Fissi Elettricità + personale + manutenzione c) Costi Variabili Materiale di consumo 2880 Totale Costi Costo per Esame 2.880 eseguito Opzione N°. 3 (Ciclotrone) Descrizione 2.500.000 8 484.903 316.000 35 a) Costi Capitale Ciclotrone + radiochimica + sistemi sicurezza/protezione + lavori edili ed impianti b) Costi Fissi Elettricità + personale + manutenzione c) Costi Variabili Dosi prodotte annue 8.640 Materiali chimici/Reagenti 8.640 Totale Costi Costo per dose di FDG 8.640 prodotta 100.800 901.703 313 901.703 Quantità Costo storico (Euro) Produzioni giornaliere Dosi FDG prodotte al giorno Numero esami giornalieri Centri riforniti Attività dose per esame Giornate lavorative/anno Numero esami annuali Costo dose FDG Rimborso nazionale per esame Totale costo per esame Totale dosi commerc./anno Totale ricavo dalla vendita del FDG 3.562.400 Incidenza annua (Euro) 3.750.000 Costo finale Ammortamento Incidenza (Euro) (anni) annua (Euro) 5.268.752 8 658.594 320.000 270,833 3.318.591,1 2.339.997,1 3.318.591,1 384 2 36 12 3 8-10 mCi (296-370 MBq) 240 2.880 384 1.070 697 5.760 2.592.000 28 Tabella riassuntiva (In Euro) : Costo Dose Costo Esame Opzione N°.1 450 763 Opzione N°.2 610,6 923,71 Opzione N°.3 384 697 Rimborso 3.081.600 3.081.600 3.081.600 Spese Totali Ricavi 2.197.700 2.660.300 4.220.294,1 2.592.000 Saldo Finale +883.900 +421.300 +1.453.305,9 In funzione hai risultati dell’analisi svolta, tutte e tre le configurazione portano ad un positivo di bilancio, con una predominanza per l’opzione tre. Valutandole singolarmente, si potrebbe giungere alla conclusione che: L’opzione 1 può risultare economicamente vantaggiosa, perché richiede un minore investimento economico rispetto alle altre e perché il costo delle dosi disponibili sul mercato nazionale ed estero vanno progressivamente attenuandosi. L’aspetto negativo che ne sconsiglia la scelta, è legato alla difficoltà organizzativa del Centro PET in relazione al corretto e puntuale approvvigionamento del farmaco. Inoltre l’investimento è totalmente dipendente dalla quota di rimborso prevista dal DRG nazionale. Il rischio di una possibile riduzione del contributo, nell’ottica più generale di un contenimento della spesa sanitaria, porterebbe ad una limitazione di guadagno. L’opzione 2, per numero di dosi prodotte in rapporto ai costi di gestione dell’intera struttura, è al limite della convenienza e soprattutto è inaccettabile in un’ottica di razionalizzazione delle risorse e degli investimenti. Oltretutto, anche questa soluzione è totalmente dipendente dalla quota di rimborso (DRG) nazionale. Più conveniente risulta essere l’opzione 3, che prevede la costruzione di un unico centro per la produzione dei radiofarmaci dalla quale poter fornire fino a tre Centri PET riuniti in consorzio. L’opzione 3 comporta un notevole impegno economico-organizzativo che va dall’acquisto del ciclotrone, all’unità di sintesi, ai sistemi di radioprotezione, vigilanza ambientale, e alla formazione del personale, ma i vantaggi diretti dalla gestione del ciclotrone ne compensano in parte lo sforzo. Si possono infatti produrre traccianti radioattivi con diverse caratteristiche fisico/chimiche specifiche per ogni distretto anatomico da esaminare, variarne la quantità di produzione in funzione alle esigenze, avere sempre a disposizione un’attività tale da ridurre al minimo la quantità di radiofarmaco iniettato. Conclusioni La scelta di introdurre la metodica PET nel Sistema Sanitario Nazionale è sorretta dalla dimostrazione documentata dell’accuratezza diagnostica soprattutto nel settore oncologico, indirizzando i clinici ad una più accurata stadiazione e conseguente implementazione terapeutica. I vantaggi in termini di qualità della vita e di sopravvivenza dei pazienti sono certi, anche se non ancora sufficientemente suffragati da ampi studi di popolazione per la ancora recente prassi assistenziale. I costi di investimento per la tecnologia e la gestione della medesima sono notevoli, ma dovrebbero essere compensati dalla riduzione di altre metodiche altrettanto costose, dalla più accurata tecnica chirurgica e dall’impiego più mirato e specifico della terapia farmacologica e radiante e soprattutto, sul piano sociale, dalla qualità della vita e dagli anni di vita guadagnati. In conclusione ed in accordo da quanto riportato nei più importanti studi di valutazione HTA (Canada, Australia, Gran Bretagna), si suggerisce quanto segue: -al momento attuale, il finanziamento per centri PET dovrebbe essere limitato a quelli che impiegano PET scanner dedicati del tipo “full-ring”, e che utilizzano detettori con cristalli in BGO, 29 NaI, o cristalli con tecnologie o design più nuove (GSO), in grado di abbattere i tempi di esecuzione degli esami; -questi apparecchi PET dedicati dovrebbero soddisfare i requisiti tecnici e fisici identificati dal presente studio; -i sistemi con gamma camera adattate per esami PET non risultano appropriate per le attuali esigenze cliniche e di ricerca; -gli scanner PET dedicati del tipo full-ring , e che utilizzano detettori con cristalli di BGO, NaI, o altri cristalli innovativi sono raccomandati per installazioni in centri clinici per studi oncologici, cardiologici e neurologici; -in base ai risultati dell’analisi economica la configurazione più conveniente è risultata essere quella che prevede la costruzione di un centro unico per la produzione dei radiofarmaci, dalla quale fornire fino a tre centri PET riuniti in consorzio. 30