1 SILVANO DUBINI LA SICUREZZA ELETTRICA NEGLI IMPIANTI ELETTRICI DEI LOCALI AD USO MEDICO E NEGLI APPARECCHI BIOMEDICI Facoltà di Ingegneria dell’Università di Firenze dispense1.doc 2 INDICE 1. PREMESSA.................................................................................................................................... p. 3 2. EFFETTI BIOLOGICI DELL'ENERGIA ELETTRICA ..................................................................... p. 2.1 Cenni di fisiopatologia ............................................................................................................... p. 2.2 Effetti dell'energia elettrica sull'organismo umano.................................................................... p. 2.3 Macroshock e Microshock ......................................................................................................... p. 2.4 Correnti pericolose .................................................................................................................... p. 2.5 Impedenza di contatto ............................................................................................................... p. 2.6 Tensioni di contatto ................................................................................................................... p. 2.7 Effetto termico ........................................................................................................................... p. 2.8 Incidenza della mortalità ........................................................................................................... p. 4 4 11 14 14 22 23 24 24 3. NORMATIVA .................................................................................................................................. p. 3.1 La regolamentazione giuridica................................................................................................... p. 3.2 L'attività normativa.................................................................................................................... p. 3.3 La certificazione volontaria o obbligatoria.................................................................................. p. 3.4 Direttive europee e norme tecniche in campo sanitario............................................................. p. 25 25 27 30 31 4. IMPIANTI ELETTRICI NEI LOCALI AD USO MEDICO.................................................................. p. 4.1 Norme generali e norme particolari ........................................................................................... p. 4.2 Prescrizioni per la sicurezza...................................................................................................... p. 4.3 Classificazione dei locali............................................................................................................ p. 4.4 Zona paziente............................................................................................................................ p. 4.5 Sistemi di distribuzione.............................................................................................................. p. 4.6 Protezione contro i contatti diretti .............................................................................................. p. 4.7 Protezione contro i contatti indiretti ........................................................................................... p. 4.8 Protezione contro le sovraccorrenti .......................................................................................... p. 4.9 Coordinamento delle protezioni................................................................................................. p. 4.10 Sorgenti ausiliarie di energia elettrica...................................................................................... p. 4.11 Sintesi delle prescrizioni impiantistiche previste per i locali ad uso medico ............................ p. 38 38 38 39 40 41 44 46 54 56 57 61 5. SORGENTI AUSILIARIE DI ENERGIA ELETTRICA...................................................................... p. 5.1 Problematiche............................................................................................................................ p. 5.2 UPS ........................................................................................................................................... p. 5.3 Batterie ...................................................................................................................................... p. 5.4 Gruppo elettrogeno.................................................................................................................... p. 63 63 66 71 80 6. APPARECCHI ELETTROMEDICALI.............................................................................................. p. 6.1 Definizione di apparecchio ........................................................................................................ p. 6.2 Classificazione........................................................................................................................... p. 6.3 Tipi di protezione ....................................................................................................................... p. 6.4 Grado di protezione .................................................................................................................. p. 6.5 Resistenza del conduttore di protezione.................................................................................... p. 6.6 Situazioni pericolose.................................................................................................................. p. 87 87 87 90 91 92 93 7. DEFINIZIONI .................................................................................................................................. p. 96 dispense1.doc 3 1. PREMESSA L'uso sempre più diffuso della tecnologia nella pratica medica ha consentito un eccezionale sviluppo della conoscenza e delle possibilità della medicina, ma ha anche elevato il rischio iatrogeno. Infatti gli apparecchi biomedici possono esporre il paziente, l'operatore e l'ambiente circostante ad un certo numero di rischi potenziali di varia natura quali: Erogazione di energie indesiderate nell'uso normale o in caso di guasto; Mancato funzionamento di una attrezzatura a cui è affidata una funziona vitale per il paziente; Mancato funzionamento di un dispositivo durante un trattamento non ripetibile; Errori umani nell'uso delle attrezzature. Alcuni di questi rischi sono presenti anche negli apparecchi non medicali; tuttavia, nella strumentazione biomedica, esistono certi aspetti peculiari che ne aumentano il pericolo, per esempio: il frequente stato di incoscienza del paziente; l'assenza di percezione cosciente di alcune energie come le radiazioni ionizzanti o le radiazioni elettromagnetiche di alta frequenza; il collegamento elettrico franco a strumentazioni elettroniche di diagnosi; le condizioni ambientali o di uso spesso ostili. Purtroppo i rischi potenziali sono tali da non consentire protezioni assolute senza una inaccettabile riduzione della normale funzionalità . Pertanto sono adottate precauzioni che forniscono una adeguata protezione, che si ottiene intervenendo sia sugli apparecchi, sia sugli impianti e l'ambiente, sia sulle modalità di applicazione, dando così luogo ai cosiddetti sistemi di protezione. In generale il guasto di un solo componente, in un sistema di protezione, non deve creare un rischio grave. Ciò· può· essere realizzato aumentando i margini di sicurezza oppure adottando dei dispositivi di protezione. Normalmente si auspica che la condizione di primo guasto risulti evidente all'operatore o per mezzo di un segnale inconfondibile e chiaramente avvertibile, o per mezzo di un programma di verifiche periodiche che lo possa evidenziare. I sistemi di protezione, tuttavia, non si realizzano soltanto con una buona progettazione elettronica e meccanica, ma anche con la conoscenza delle metodiche e delle tipologie di impiego delle attrezzature, nonché con le modalità di fabbricazione, di collaudo, di trasporto e di immagazzinamento dei materiali. Si prescrive, pertanto, che gli apparecchi resistano ad una serie di prove ambientali, meccaniche e di sovraccarico tendenti a simulare le peggiori condizioni di uso . Di seguito si accennerà alle principali fonti di pericolo, ma si approfondiranno essenzialmente gli aspetti relativi alla sicurezza del paziente e degli operatori da scariche elettriche che sono la principale fonte di rischio negli apparecchi di uso medico. Tali fonti di pericolo sono: Scariche elettriche Nonostante i numerosi contributi scientifici oggi disponibili sugli effetti biologici della corrente elettrica, mancano ancora dati certi sulla sensibilità del cuore umano all'energia elettrica. Ai fini della sicurezza sono, pertanto, indicati dei valori massimi di corrente che potrebbe fluire nel paziente o nell'operatore, considerati, per il momento, ragionevolmente sicuri. Ovviamente i progettisti devono attenersi a questi limiti massimi e quanto possibile ridurli ulteriormente. Radiazioni Dagli apparecchi biomedici possono provenire radiazioni in tutte le forme conosciute in fisica. Le prescrizioni di sicurezza riguardano le radiazioni estranee o non volute. Naturalmente i limiti imposti possono essere superati nell'utilizzazione intenzionale della radiazione a scopo diagnostico e terapeutico, purché sotto il controllo e la responsabilità degli operatori sanitari. Pericoli meccanici Alcuni dispositivi meccanici servono a sostenere il paziente o parti dell'apparecchio in prossimità del paziente stesso o degli operatori. In questo caso la sicurezza è costituita dalla resistenza meccanica statica e dinamica dei dispositivi meccanici e della loro garanzia di buon funzionamento. Le protezioni consistono nell'ampio dimensionamento, nell'adozione di appigli di sicurezza o di dispositivi di blocco, oppure di ripari. Si devono inoltre considerare le situazioni di pericolo provocate dall'interruzione dell'erogazione dell'energia elettrica che possono causare movimenti indesiderati, cessazione di operazioni meccaniche o addirittura contenzione del paziente. Tali funzionamenti non desiderati devono essere resi impossibili o eliminabili con pratici azionamenti manuali. dispense1.doc 4 Rumore Gli effetti negativi del rumore sono accentuati nei locali di uso medico, ove si richiede un ambiente il più possibile confortevole per i pazienti, e tale da consentire la maggior concentrazione possibile degli operatori. *Una specifica normativa indica il livello di rumore accettabile anche se la percezione individuale è molto variabile da individuo a individuo in quanto l'effetto reale sull'uomo è fortemente influenzato dalle caratteristiche acustiche del locale, dall'isolamento e dalle interazioni tra le parti degli apparecchi e dello stato psicologico del soggetto. Rischi di esplosione Si manifestano ove si usano particolari sostanze che con l'aria formano miscele esplosive (tipico il metano). Diversamente dal passato gli anestetici oggi usati non danno mai rischio di esplosione e la maggior parte di essi non è neppure infiammabile. Temperature Per quasi tutti i tipi di apparecchi ed impianti si prescrivono valori di temperatura da non oltrepassare, allo scopo di prevenire l'invecchiamento precoce degli isolanti o le spiacevoli conseguenze in caso che essi vengano toccati o manovrati. A questo proposito si consideri che i pazienti possono essere costretti a toccare, anche per lungo tempo, parti di un apparecchio, così come alcune altre parti possono essere inserite in cavità naturali dell'organismo o impiantate sull'organismo umano. Rischio d'incendio Questi rischi sono comuni a tutti gli apparecchi e gli impianti. Normalmente si adottano limiti di temperatura di funzionamento che non provocano incendio e si prescrivono protezioni contro il sovraccarico. In ogni caso, gli involucri degli apparecchi devono essere progettati in modo da impedire la fuoriuscita di metallo fuso, materiale infiammato o simili. Ambiente circostante Contrariamente a quanto si possa immaginare, gli apparecchi di uso medico sono spesso utilizzati in ambiente circostante ostile. Basti pensare a come un apparecchio venga trasportato e usato bruscamente in caso di emergenza clinica; infatti la preoccupazione primaria degli operatori in questo caso è la salvezza del paziente e non certo l'evitare urti o vibrazioni all'apparecchio. Si consideri inoltre l'evenienza, possibile quasi ovunque in ambito medico, che lo sgocciolamento casuale di liquidi conducenti interessi l'apparecchio o la necessità di contenere il peso e le dimensioni che portano a ridurre al minimo i margini di progettazioni. Infine va segnalato che la sicurezza di un apparecchio non dipende solo dalle sue intrinseche caratteristiche tecniche ma anche dall'impianto di alimentazione a cui è connesso, dalle modalità d'uso, dal livello di informazione e formazione del personale utilizzato, dalla manutenzione e dalle verifiche periodiche dei livelli di sicurezza. Da tutto ci· appare chiaramente che la "sicurezza" non è una semplice regola tecnica ma una complessa problematica che coinvolge varie discipline e la sua gestione, allorché imposta dalle vigenti disposizioni legislative, richiede il puntuale studio del “processo” in cui apparecchi, impianti ed operatori interagiscono. 2. EFFETTI BIOLOGICI DELL'ENERGIA ELETTRICA 2.1 CENNI DI FISIOPATOLOGIA L'organismo vivente è costituito da cellule in stretto contatto fra loro che si trovano immerse in un liquido interstiziale. La membrana cellulare, dello spessore di circa 70 . 10-10 m, racchiude al suo interno il liquido intracellulare o citoplasma come schematizzato in fig.2.1. In tab.2.1 sono riportati i valori numerici dei vari parametri relativi alla cellula. All'esterno della membrana si trova, in condizione di riposo, una concentrazione di ioni Na+ mentre all'interno una concentrazione inferiore di ioni K+. Tra interno ed esterno della membrana, a causa della diversa concentrazione ionica, si stabilisce una differenza di potenziale (d.d.p.) chiamata potenziale di membrana. Il sottile strato isolante della membrana interposto fra i due liquidi conducenti carichi elettricamente può essere assimilato ad un parallelo fra un condensatore ed una resistenza. dispense1.doc 5 Durante l'eccitazione la membrana diviene più permeabile agli ioni Na+ di 500 ÷ 1000 volte rispetto lo stato di riposo. Gli ioni Na+ passando all'interno della membrana modificano il potenziale di membrana, dando luogo a caratteristici processi elettrici reversibili che costituiscono il cosiddetto potenziale d'azione (fig.2.2). Esso è caratterizzato da due comportamenti: il primo consiste in una rapida inversione della d.d.p. fra interno ed esterno della membrana, detta depolarizzazione e il secondo consiste nel successivo ritorno alla condizione di riposo, detta ripolarizzazione. Il fenomeno elettrico del potenziale di azione può estendersi in alcuni casi alle cellule adiacenti a quella in cui si è manifestato in origine, propagandosi così attraverso i tessuti. Le forme e le modalità di insorgenza del potenziale di azione sono proprie di ogni particolare cellula nervosa o muscolare, ed il corretto manifestarsi del fenomeno è legato alla funzionalità della cellula. Per esempio le cellule nervose sono organizzate per trasmettere l'eccitazione alle altre cellule nervose vicine fino alle cellule muscolari che hanno principalmente la funzione di variare la loro lunghezza e generare forze di tipo meccanico, in seguito alla stimolazione. Il potenziale di membrana a riposo, detto semplicemente potenziale di riposo, vale orientativamente -70 ÷100 mV con il polo negativo verso l'interno della cellula ma per effetto del flusso incrociato degli ioni K+ e Na+ attraverso la membrana durante l'eccitazione, tale d.d.p. cambia di segno raggiungendo, durante l'azione, valori tipici di 20 ÷ 30 mV. Fig. 2.1 Schematizzazione di una cellula PARAMETRI DELLA CELLULA Resistività Liquido interstiziale Liquido intracellulare Membrana Potenziale di membrana Potenziale di riposo Potenziale di azione Tempi Depolarizzazione Ripolarizzazione Impedenza di membrana Capacità Resistenza Velocità trasmissione stimoliTempi Massima VALORI ORIENTATIVI 60 Ω cm 200 Ω cm 109 Ω cm - 70 mV + 30 mV Tab.2.1 Alcuni parametri fisici della cellula circa 1 ms 100÷300 ms 1÷10 μF/cm2 circa 750 Ω/ cm2 120 m/s La depolarizzazione avviene rapidamente e ha durata di circa 1 ms, mentre la successiva ripolarizzazione è molto più lenta e ha durata orientativa di 200 ÷ 300 ms. La risposta meccanica di una cellula muscolare eccitata è dell'ordine del grammo ed ha l'andamento tipico riportato in fig.2.2. dispense1.doc 6 E' da sottolineare che nell'intervallo di tempo immediatamente successivo all'eccitazione, la cellula diviene ineccitabile. A tale periodo di tempo si dà il nome di periodo di refrattarietà assoluta. Analogamente si definisce periodo di refrattarietà relativa l'intervallo di tempo che segue il periodo di refrattarietà assoluta, in cui uno stimolo può nuovamente produrre l'eccitazione della cellula, purché di intensità maggiore. Solo dopo un certo tempo la cellula ritorna allo stato di riposo primitivo presentando la iniziale eccitabilità. Poiché uno stimolo risulti efficace, è necessario che raggiunga un valore di soglia, cioè deve apportare al substrato biologico una sufficiente quantità di energia al di sotto della quale l'eccitamento della cellula non si verifica. In fig.2.3 è riportata la curva di eccitazione di una cellula, ovvero la legge che lega l'intensità i dello stimolo con la durata t. Una relazione valida in generale, ricavata sperimentalmente, è quella che lega la carica elettrica Q dello stimolo impartito, necessaria a produrre eccitazione del substrato, con la durata t dello stimolo stesso. Essa vale: Q = α + βt ricordando che Q = it si ottiene i = α/t + β Alla grandezza β, che ha le dimensioni fisiche di una corrente, si dà il nome di reobase ed è definita come l'intensità di corrente di stimolo al di sotto della quale non si ottiene eccitazione nemmeno per durata dello stimolo infinita. Alla grandezza τ = α/β che ha le dimensioni fisiche di un tempo, è stato dato il nome di cronassia e rappresenta la durata dell'impulso di ampiezza doppia della reobase che genera eccitazione. La cronassia premette di definire quantitativamente il grado di eccitabilità di un tessuto vivente. In tab.2.2 si riportano i valori di cronassia dei più importanti tipi di tessuto umano interessati alla protezionistica. Quando la fibra è stimolata con impulsi ripetitivi in modo tale che essi cadano appena oltre il periodo di refrattarietà, l'eccitazione della fibra si inserisce su uno stato non ancora completamente a riposo e la risposta meccanica segue un andamento del tipo riportato in fig.2.4, detta tetanizzazione della fibra. Fig.2.2 (a) Potenziale di azione registrato intracellularmente (b) Meccanogramma isometrico di un piccolo segmento di muscolo papillare isolato (Da: Brooks at al “Excitability of the heart” New York – con modifiche) Fig. 2.3 Curva di eccitazione di una cellula dispense1.doc 7 TESSUTO MUSCOLI SCHELETRICI Flessori braccio Estensori braccio Facciali VENTRICOLI NERVI Fibre A Vestibolare RECETTORI Lingua Coni retina Bastoncelli retina CRONASSIA (ms) 0,08 – 0,16 0,16 – 0,32 0,24 – 0,72 2,00 Tab.2.2 Valori di cronassia per alcuni tessuti umani 0,2 14-22 1,4 – 1,8 1,2 – 1,8 2,1 – 3, 0 Fig.2.4 Risposta meccanica tetanizzazione della fibra: A. Contrazioni semplici B. Tetano incompleto C. Tetano completo detta In tale situazione, dopo alcuni stimoli, la risposta meccanica della fibra raggiunge un valore di saturazione che si mantiene pressoché costante finché vi sono gli stimoli e che ritorna gradualmente al livello di riposo quando gli stimoli si interrompono. L'insieme di più cellule organizzante danno luogo a tessuti specializzati per funzioni. Ai fini protezionistici sono di rilevante importanza le fibre nervose e i muscoli con particolare riferimento al cuore. Le cellule nervose, dette neuroni, hanno un lungo prolungamento, assone, attraverso il quale si trasmette il potenziale d'azione che interessa soprattutto i neuroni adiacenti. L'eccitazione quindi migra attraverso le fibre contigue e si realizza così la trasmissione dei segnali nervosi. La velocità con cui si sposta l'eccitazione è molto variabile, dipende dalla tipologia delle fibre, e può· anche raggiungere il valore di 120 m/s. Le fibre nervose terminano innervandosi nelle fibre muscolari attraverso una giunzione chiamata placca motrice, ed è qui che lo stimolo nervoso fa contrarre la fibra muscolare. Ai fini della sicurezza elettrica assume particolare importanza il cuore, che è formato da un elevatissimo numero di fibre muscolari disposte in fasci che vanno dagli atri ai ventricoli. I potenziali di riposo e di azione della fibrocellula cardiaca hanno un'origine del tutto analoga a quella dei potenziali della fibra nervosa e di quella muscolare. Una particolare proprietà del muscolo cardiaco è quella della autoritmicità secondo la quale ogni singola fibrocellula si eccita spontaneamente e sempre con la stessa frequenza. Nel cuore intatto, tuttavia, vi sono due regioni di tessuto nelle quali questa proprietà si manifesta in modo particolare: il nodo seno atriale, indicato con NSA, ed il nodo atrio ventricolare, indicato con NAV. La frequenza degli impulsi originati nel NSA è più alta di quella del NAV e di tutte le restanti fibrocellule del miocardio. Di conseguenza l'autoeccitazione dell'NSA sincronizza le cellule e l'eccitazione si propaga a tutto il cuore prima che insorga la depolarizzazione spontanea. Per questo motivo il NSA viene definito avviatore primario o, con termine inglese ormai entrato nell'uso corrente, pacemaker primario. dispense1.doc 8 La depolarizzazione iniziata nel NSA, fig.2.5, si propaga, quindi, attraverso gli atri poichéle singole cellule miocardiche, sebbene separate le une dalle altre, si comportano elettricamente come un tutto unico. Dopo aver invaso il tessuto atriale, l'eccitazione raggiunge il NAV; dopo di esso, segue un cammino preferenziale costituito dal tessuto di conduzione del fascio di HIS e dalle fibre di Purkinje, per giungere quindi al miocardio ventricolare. L'attivazione del ventricolo destro inizia con un leggero ritardo rispetto a quello sinistro. Le varie fasi della propagazione della depolarizzazione nei ventricoli sono state schematizzate nella fig.2.5 con i numeri in ordine crescente. L'attività elettrica del cuore genera nello spazio circostante un campo elettrico, facilmente misurabile in quanto il cuore può essere ipotizzato come immerso in un mezzo omogeneo moderatamente conducente (in prima ipotesi isotonico con la soluzione fisiologica). Fig.2.5 5 I momenti successivi della propagazione della eccitazione nel miocardiop ventricolare. La successione temporale è indicata con i numeri progressivi 5 4 3 4 2 Essendo l'attività del cuore assimilabile a più cariche elettriche variabili sia nel tempo sia nell'intensità , sia nel segno che nello spazio; anche il campo elettrico generato sarà variabile da punto a punto dello spazio e soprattutto variabile con il tempo. Sono stati individuati punti precisi dell’organismo umano dal quale registrare il tracciato di queste differenze di potenziale, chiamato elettrocardiogramma e mostrato in fig. 2.6. L’ECG è particolarmente significativo in quanto ad esso è possibile correlare l'evoluzione dell'eccitazione dei vari distretti del miocardio. L'onda P rappresenta la contrazione dell'atrio; il tratto PQ a d.d.p. pressoché zero, rappresenta il transito dello stimolo attraverso il fascio di His; l'onda R rappresenta la contrazione del ventricolo che essendo costituito da un numero maggiore di cellule genera un onda molto più alta della P. Il processo di ripolarizzazione delle cellule èrappresentato dall'onda T. A livello funzionale, come noto, il cuore svolge la funzione di garantire la circolazione del sangue in tutti i distretti dell'organismo. La circolazione èottenuta creando un gradiente di pressione positivo nelle arterie. Il cuore umano, come schematizzato in fig.2.7, è costituito da due atri e da due ventricoli: nell'atrio di destra giungono le due vene cave mentre a quello di sinistra le vene polmonari e per effetto della contrazione dell'atrio il sangue è sospinto nei ventricoli. Quando il ventricolo si contrae, si chiudono le valvole e il sangue è spinto nel circolo polmonare dal ventricolo destro e nell'organismo dal ventricolo sinistro. In fig.2.8 è riportato l'andamento delle pressioni nei diversi distretti cardiaci. Una importante anomalia del funzionamento del cuore, provocata dalla energia elettrica, èla fibrillazione ventricolare, ovvero una contrazione disordinata di tutte le fibre del miocardio che riducono la portata ematica a livelli così bassi da provocare la morte dell'individuo in pochi minuti. In fig.2.9 è riportato molto schematicamente l'andamento dell'ECG e della pressione durante la fibrillazione ventricolare. dispense1.doc 9 Fig. 2.6 Tracciato elettrocardiografico normale Fig. 2.7 Schema generale della circolazione: AD = Atrio destro AS = Atrio sinistro VD = Ventricolo destro VS = Ventroicolo sinistro dispense1.doc 10 Fig.2.8 Andamento della pressione ematica nelle diverse cavità cardiache Tempo 1/10 sec. Fig. 2.9 Innesco della fibrillazione ventricolare nel periodo vulnerabile. Effetti sull’elettrocardiogramma (ECG) e sulla pressione ematica dispense1.doc 11 2.2 EFFETTI DELL'ENERGIA ELETTRICA SULL'ORGANISMO UMANO Le conoscenze disponibili sui fenomeni patologici prodotti dall'energia elettrica nell'organismo vivente, non sono complete e sufficienti a spiegare tutti i fenomeni osservati. Tuttavia essi consentono di rendersi conto, almeno qualitativamente, delle principali manifestazioni morbose provocate dall'energia elettrica. Tali fenomeni morbosi si verificano quando l'organismo vivente è percorso da corrente elettrica, tuttavia la legge di Ohm non è rispettata poiché l'organismo non può essere assimilato ad un conduttore metallico. L'organismo vivente invece è costituito, come visto, da liquidi interstiziali e da cellule in cui si verificano complessi fenomeni di polarizzazione a livello della membrana cellulare. Le membrane delle cellule contengono lipidi a bassa resistività ed elettroliti a più alta resistività fungendo da dielettrici a basso isolamento. L'impedenza offerta dal tessuto vivente non è neppure costante e varia sensibilmente nei primi millisecondi in cui è attraversato dalla corrente. All'aumentare della corrente l'impedenza diminuisce. Tale fenomeno non è ancora interamente spiegato. Secondo alcuni l'impedenza dipenderebbe essenzialmente dalla polarizzazione delle cellule. Infatti durante il passaggio di corrente si ha un trasporto di ioni positivi e negativi verso i due opposti elettrodi, ma tali ioni si arrestano in parte sulle due superfici della membrana cellulare ad essi impermeabile generando così delle d.d.p. di segno opposto alla corrente che attraversa il tessuto. All'aumentare della corrente aumenterebbe la permeabilità della membrana riducendo l'impedenza. Altri autori interpretano invece questo fenomeno con la rigenerazione di una capacità fra la membrana cellulare o la combinazione di entrambi i meccanismi visti. Tuttavia nel caso dell'uomo, l'impedenza che si osserva fra i due punti della superficie cutanea è ampiamente dipendente dal sottile strato di cute sottostante il punto di contatto, in quanto la resistività della cute, oltre ad essere molto variabile, è anche maggiore di qualche ordine di grandezza della resistività dei tessuti viventi sottostanti. Poiché la maggior parte degli incidenti provocati dall'energia elettrica avviene in seguito a contatto elettrico con il palmo delle mani e la messa a terra attraverso la pianta dei piedi, si comprende come le donne ed i bambini a epidermide sottile e poco corneificata sono più esposti degli uomini a epidermide spessa se non addirittura callosa. Per tensioni superiori a qualche centinaio di Volt lo strato corneo dell'epidermide può essere perforato dalla scarica elettrica eliminando quindi il componente a più alta resistenza che è il fattore di limitazione della corrente di scarica. Per tensioni ancora superiori la carbonizzazione delle parti superficiali interessate al passaggio della corrente eleva nuovamente la resistenza globale, riducendo conseguentemente la corrente di scarica. La conducibilità elettrica dei tessuti interni dell'organismo vivente dipende dalla concentrazione degli elettroliti ed è perciò particolarmente elevata nei muscoli e nel sangue mentre molto inferiore nelle ossa e nel tessuto adiposo. Poiché i muscoli rappresentano il conduttore di sezione maggiore negli arti, è prevalentemente attraverso questi che scorre la corrente di scarica. In tab.2.3 sono riportate le resistività dei principali tessuti dell'organismo umano. I processi morbosi provocati dall'energia elettrica sull'organismo umano possono essere raggruppati in tre categorie e precisamente: - Fenomeni elettrochimici - Fenomeni termici - Fenomeni fisiologici L'entità di tali effetti e la loro contemporanea comparsa, dipendono dalle caratteristiche della corrente e precisamente dal: • tipo della corrente • frequenza • intensità di corrente • tensione • durata del passaggio • percorso attraverso l'organismo Tipo di corrente La corrente continua provoca per ionoforesi una modificazione nella distribuzione degli elettroliti nei tessuti, la polarizzazione della membrana cellulare e la modificazione parzialmente reversibile del protoplasma cellulare. Correnti più intense possono provocare la fibrillazione della muscolatura dei ventricoli cardiaci e l'arresto cardiaco temporaneo o definitivo. I fenomeni di ionoforesi sopra riferiti si verificano in quanto per effetto della tensione applicata, gli ioni Na+ e Cl-dei liquidi biologici reagiscono con l'acqua dando luogo a idrossido di sodio verso il polo negativo ed acido cloridrico verso il polo positivo secondo le reazioni: dispense1.doc 12 2 Na+ + H2O = 2 NaOH 4 Cl- + H2O = 4 HCl + O2 Si spiega così la formazione di escara molle da alcali nei tessuti a contatto con il polo negativo ed escara dura da acidi verso il polo positivo. Frequenza La corrente alternata, più importante dal punto di vista infortunistico perché più diffusamente impiegata, ha effetti molto variabili con la frequenza. il continuo alternarsi della polarità della corrente alternata, provoca il corrispondente alternarsi della polarizzazione e depolarizzazione a livello della membrana cellulare. Tali periodiche modificazioni eccitano maggiormente le fibre muscolari dando luogo a contrazioni che possono sfociare nella tetanizzazione dei muscoli striati scheletrici e molto più gravemente nella fibrillazione della muscolatura dei ventricoli cardiaci. La condizione di massimo pericolo per l'uomo si manifesta a frequenza compresa fra 50 e 100 Hz a cui corrisponde la massima sensibilità del miocardio a entrare in fibrillazione ventricolare. Per frequenze superiori a 100 kHz gli effetti ionoforetici si annullano, poiché l'alternarsi delle polarità è troppo rapida per l'inerzia degli ioni e mancano conseguentemente gli effetti fisiologici di stimolo sulle fibre muscolari per l'assenza di processi di polarizzazione della membrana lasciando naturalmente inalterato l'effetto termico (1). Intensità di corrente Come sarà più dettagliatamente esposto oltre, la pericolosità dell'energia elettrica può essere espressa in funzione della intensità di corrente che attraversa l'organismo vivente. Alla soglia di percezione la corrente provoca sensazioni di "formicolio". Per valori più alti, si manifesta lo spasmo della muscolatura scheletrica compresi i muscoli respiratori, da cui il grave pericolo di arresto del respiro che per· si può risolvere spontaneamente all'interruzione della scarica. MATERIALE SANGUE Siero o plasma Globuli rossi PROTOPLASMI CELLULARI MUSCOLI STRIATI CUORE FEGATO RENE MILZA POLMONE CERVELLO TESSUTO OSSEO LIQUIDO CEFALORACHIDIANO SALIVA TRASUDATI ESSUDATI SUCCO GASTRICO URINE SOLUZIONE FISIOLOGICA (0,9% Na Cl) a 20C PASTE ELETTROCONDUTTRICI Electrode cream EC-2 (20C) Gel JEJ (20C) Electrode cream NASA (20C) Cardette electrode jelly (20C) (1) RESISTIVITA’ Ω cm 155-165 82-90 250-260 300 140-200 150-210 300 250 280 500 800 900-1800 70 140-250 75 84 60 35 50 75 Tab.2.3 Resistività dei principali tessuti, liquidi organici umani e materiali di uso clinico La temperatura a cui i dati si riferiscono è di 37C se non diversamente indicato 30 70 82 313 Un diffuso apparecchio che sfrutta questo fenomeno è l'"elettrobisturi" che somministrando una corrente alternata ad alta frequenza (500 kHz ÷ 1 MHz) provoca nel punto in cui è concentrato il passaggio di corrente un innalzamento della temperatura con la conseguente coagulazione in massa delle proteine cellulari. Un altro apparecchio molto diffuso è la "Marconi terapia" che genera corrente a 50 MHz ÷ 100 MHz. Tali correnti provocano fenomeni di risonanza sulle molecole dipolari contenute nelle cellule generando calore nei tessuti più profondi. Entrambi questi apparecchi non provocano fibrillazione ventricolare dispense1.doc 13 Ai fini protezionistici assume una notevole importanza il particolare valore di corrente, detta corrente di rilascio, per il quale l'individuo mantiene ancora il controllo del proprio sistema muscolare e può volontariamente sconnettersi con il contatto che ha provocato la scarica elettrica prevenendo la tetanizzazione del muscolo. Per valori maggiori di corrente si può manifestare l'arresto del cuore in diastole e se tale arresto si protrae per oltre 30 s circa sopraggiunge generalmente la fibrillazione ventricolare che notoriamente è una patologia difficilmente reversibile spontaneamente anche quando cessa la causa che l'ha provocata. Perché si abbia defibrillazione è necessario che la scarica elettrica attraversi il cuore nel periodo vulnerabile alla fine della sistole. Per questa ragione le scariche elettriche, anche se molto intense ma di brevissima durata che attraversano il cuore in un periodo diverso da quello vulnerabile, lo possono risparmiare dalla defibrillazione ventricolare. Tensione In linea generale la pericolosità dell'energia elettrica dipende essenzialmente dalla corrente che fluisce nell'organismo vivente per cui la corrispondente tensione dipende dall'impedenza offerta dall'organismo medesimo. L'impedenza globale di un contatto è assimilabile a tre impedenze in serie di cui: una dei tessuti interni che è generalmente piccola (dell'ordine di 100 Ω) e due relative alla cute e proporzionali alla superficie di contatto. Queste ultime impedenze assumono valori molto diversi o molto bassi (dell'ordine di 100 Ω/cm) per cuti preparate allo scopo di ottenere un buon contatto elettrico come ad esempio nella registrazione di segnali bioelettrici, o valori molto alti (dell'ordine di 100 kΩ/cm) per cuti callose e secche. Il valore di tensione ritenuto sicuro si calcola nelle condizioni ragionevolmente più svantaggiose quindi per i valori minimi di impedenza di contatto. Come sarà considerato più dettagliatamente nel capitolo delle Normative, le tensioni di contatto applicate per un tempo illimitato ritenute sicure dipendono dal collegamento dell'individuo al generatore di tensione. I valori di tensione ritenuti sicuri vanno da 10 mV, nel collegamento diretto dal cuore a 50 V nel collegamento della superficie esterna dell'organismo umano. Durata del contatto L'eccitazione di una fibra segue la legge del "tutto o niente" nel senso che in caso di eccitazione fisiologica presenta sempre la stessa risposta meccanica indipendentemente dall'intensità dello stimolo. Se si considera invece non già una singola fibra ma un complesso organizzato di fibre che danno luogo ad un'unica unità funzionale (come ad esempio ad un muscolo o al cuore), la legge del tutto o niente non vale più e si riscontra una risposta complessiva Ri proporzionale allo stimolo S secondo la relazione approssimata: Ri = K log S Tale relazione vale solo entro particolari valori dello stimolo ed inoltre K non sempre è costante. Nei casi in cui l'effetto eccitatorio complessivo è dovuto alla partecipazione di una popolazione di elementi a soglia di eccitabilità diversa, come nel caso di un contatto della superficie esterna dell'organismo umano, la risposta allo stimolo è dovuta alla interferenza funzionale dei molti e diversi elementi che costituiscono la popolazione da cui risulta un comportamento troppo complesso da essere schematizzato con semplici reazioni analitiche. I fenomeni appaiono più proficuamente descritti, attraverso i sistemi generali che si manifestano nell'organismo attraversato dalla corrente elettrica, e tale criterio sarà qui seguito. Per contatti di durata dell'ordine del secondo i fenomeni dominanti sono quelli di eccitazione muscolare (tetano, blocco della respirazione, fibrillazione ventricolare), mentre l'effetto termico che si manifesta sotto forma di ustioni e carbonizzazioni diventa sempre più grave con il passare del tempo. Percorso della corrente L'elemento più vulnerabile dell'organismo umano sia per soglia di stimolazione sia per funzionalità , è il cuore e pertanto i percorsi della corrente che lo attraversano sono da considerarsi i più pericolosi. Purtroppo la maggior parte dei contatti che si verificano in pratica, si riferiscono a percorsi di corrente fra i più pericolosi. Infatti nei più frequenti collegamenti, come ad esempio mano-piede o mano-mano, il cuore è attraversato dalla corrente in modo privilegiato. Come vedremo oltre, il rapporto fra le correnti relative al percorso più pericoloso e quello meno pericoloso è di circa 2, per cui si può ritenere che tutti i collegamenti sono intrinsecamente pericolosi e la loro relativa minor pericolosità non può essere utilizzata ai fini protezionistici. dispense1.doc 14 2.3 MACROSHOCK E MICROSHOCK Gli effetti più dannosi della corrente elettrica che si manifestano nell'organismo umano sono dovuti a quella parte di corrente che attraversa il cuore, o meglio alle densità di corrente che interessa le fibre eccitabili del miocardio. Se il contatto con la tensione avviene attraverso la cute, soltanto una minima parte della corrente che entra nell'organismo attraverserà il cuore e non vi saranno, nel miocardio, particolari zone ad alta densità di corrente. Come mostrato in fig. 2.10 (a), le linee di corrente entro l'organismo si diffonderanno ovunque (secondo i percorsi di minima resistenza) per poi concentrarsi verso il punto di uscita. Questo caso viene chiamato macroshock. In modo diverso si presenta il caso in cui il cuore del soggetto ha un collegamento elettrico verso l'esterno. Tale collegamento può essere realizzato o da un conduttore elettrico come ad esempio un elettrodo di stimolazione endocardica, oppure da un catetere endocardico pieno di soluzione fisiologica. In quest'ultimo caso la resistenza elettrica del catetere dipende dalla sezione e dalla lunghezza, comunque è dell'ordine di 200 kΩ. Nel caso di fig.2.10 (b) la totalità della corrente che fluisce nell'organismo umano non solo attraversa il cuore, ma in prossimità dell'elettrodo o del lume del catetere si manifesterà una densità di corrente molto intensa. Si instaura così una situazione di pericolo enormemente più grave rispetto al caso precedente, a parità di corrente affluita nell'organismo. Questa circostanza viene chiamata microshock. Fig. 2.10 Schematizzazione del macroshock e microshock (a) Macroshock. Solo una minima parte della corrente che fluisce nell’organismo umano attraversa il cuore; (b) Microshock. Tutta la corrente che fluisce nell’organismo umano attraversa il cuore e in prossimità dell’elettrodo o del lume del catetere si manifesta una intensa densità di corrente 2.4 CORRENTI PERICOLOSE Le conoscenze oggi disponibili relative agli effetti biologici della corrente elettrica si fondano su alcuni lavori sperimentali eseguiti sull'uomo adottando la configurazione del macroshock. Essi riguardano essenzialmente la determinazione della soglia di percezione alla corrente elettrica e della soglia di rilascio volontario della presa, che notoriamente non comportano particolari pericoli per la vita. Invece per determinare la soglia di corrente che provoca la fibrillazione ventricolare sono state eseguite sperimentazioni sull'animale ed estrapolate all'uomo. Gli studi relativi alla determinazione della soglia di fibrillazione ventricolare, nel caso di microshock, sono meno numerosi e i risultati non unanimemente condivisi. Tutti i ricercatori, per·, concordano sull'ordine di grandezza della corrente che genera la fibrillazione. Poiché la corrente continua procura, rispetto alla corrente alternata, un aggiuntivo fenomeno di elettrolisi del sangue difficilmente controllabile, la quasi totalità dei dati sperimentali disponibili è stata ottenuta utilizzando correnti elettriche alla frequenza di rete (60 Hz dai ricercatori americani e 50 Hz dai ricercatori europei) che, come si è già detto, è la più pericolosa. dispense1.doc 15 Soglia di percezione La percezione che si manifesta nell'uomo al passaggio di una corrente debole à , in generale, una sensazione di calore per la corrente continua, ed una sorta di prurito per la corrente alternata. La più piccola corrente che provoca sensazioni percettibili si chiama soglia di percezione, e risulta essere molto variabile da individuo ad individuo. Riportando su un grafico il percentile (frequenza percentuale cumulata) relativa alla soglia di percezione, ottenuta facendo scorrere la corrente alternata a frequenza di rete tra un piccolo filo di rame nudo tenuto in mano dal soggetto e le sue estremità inferiori, in un campione di 187 uomini adulti, si è ottenuto il grafico di fig.2.11 che rappresenta una distribuzione gaussiana. Il valore medio della soglia, corrispondente cioè al 50% dei soggetti, è di circa 1 mA. Poichà , come si vedrà più avanti, la donna adulta ha dimostrato una maggiore sensibilità agli effetti della corrente elettrica, è stato applicato anche in questo caso lo stesso coefficiente determinato per la soglia di rilascio, ottenendo così la retta teorica (b) di fig.2.11. In letteratura non esistono rilevazioni sperimentali effettuate su bambini, ma è verosimile che i valori di soglia siano ancora inferiori a quelli delle donne adulte. Fig. 2.11 Soglia di percezione Ip nel caso di macroshock. Frequenza: 60 Hz (a) Curva sperimentale ottenuta nell’uomo adulto (b) Curva presunta valida per la donna adulta (mA) Fig. 2.12 Effetto della frequenza sulla soglia media di percezione dispense1.doc 16 Fig. 2.13 Soglia di rilascio volontario Ir. Frequenza: 60 Hz (c) Curva sperimentale ottenuta nell’uomo adulto (d) Curva sperimentalepresunta valida per la donna adulta Fig. 2.14 Effetto della frequenza sulla soglia di corrente media di rilascio volontario L’effetto della frequenza sulla soglia di percezione è riportato in fig.2.12, nella quale è riscontrabile come a 5 kHz la soglia di percezione sia circa 6 volte superiore a quella ottenuta a 60 Hz. Per frequenze superiori a 0,1 MHz la sensazione di prurito si trasforma, via via, in sensazione di calore. Soglia di rilascio volontario Aumentando progressivamente la corrente oltre la soglia di percezione, la sensazione di prurito diventa sempre più intensa fino a sfociare in contrazioni muscolari involontarie associate a dolore. Viene definita soglia di rilascio volontario il più grande valore di corrente I r m per cui il soggetto è ancora in grado di lasciare volontariamente il conduttore che tiene in mano. Questa soglia assume, in pratica, un particolare significato, poiché determina il valore di corrente oltre il quale il soggetto rimane attaccato, come si suol dire usualmente, al conduttore sotto tensione, ovvero è presente la tetanizzazione dei muscoli. I valori della corrente di rilascio ottenuti analizzando 134 uomini adulti e 28 donne adulate sono riportati in fig.2.13 E' stato verificato che la posizione dell'elettrodo di ritorno, le condizioni di umidità della cute e le dimensioni dell'elettrodo non hanno apprezzabile effetto sul valore individuale della corrente di rilascio. dispense1.doc 17 Anche questi dati forniscono, con buona approssimazione, una distribuzione gaussiana delle correnti di rilascio Ir. Il valore medio I r m vale circa 10 mA per la donna e 16 mA per l'uomo e dà luogo al rapporto 1,6 già applicato per la stima della soglia di percezione della donna, riportata in fig.2.11 (b). L'effetto della frequenza sulla corrente di rilascio media I r m è riportata in fig.2.14 l'andamento è simile a quello di fig.2.12 ma con incrementi più contenuti. Soglia di fibrillazione nel macroshock Allo scopo di valutare il pericolo rappresentato per l'uomo dalla corrente elettrica, occorre determinare il minimo valore di corrente che provoca il fenomeno più gravemente lesivo, ben definibile clinicamente e oggettivabile. Tutti i ricercatori hanno individuato nella fibrillazione ventricolare tale fenomeno. Naturalmente la determinazione di questa soglia è effettuata sull'animale, ferma restando la difficoltà di estrapolare i dati ottenuti per la specie umana. Gli esperimenti sono stati eseguiti su specie animali di peso corporeo paragonabile a quello dell'uomo, come vitelli, pecore e cani, facendo in modo che il percorso della corrente andasse dalla zampa posteriore a quella anteriore. Così è stata simulata abbastanza bene la situazione di pericolo che si manifesta nell'uomo, quando la sua mano viene in contatto con un conduttore sotto tensione e il circuito si richiude con l'altra mano o, molto più frequentemente, con le estremità inferiori. In fig.2.15 sono riportati i casi di fibrillazione ventricolare provocati dalla corrente di soglia If, ottenuti su cani con una corrente alternata a 60 Hz applicata per un tempo illimitato. Poiché i punti non giacciono su una retta, la distribuzione non è gaussiana, sebbene la si possa ritenere tale per valori di corrente inferiore a 50 mA. In fig.2.16 e 2.17 sono riportati gli andamenti della corrente che provoca la fibrillazione ventricolare nei cani di diverso peso corporeo, al variare della frequenza e della durata del contatto, in diverse posizioni degli elettrodi. Come si può notare il valore di corrente che provoca la fibrillazione è abbastanza indipendente dalla posizione degli elettrodi, all'aumentare della frequenza la soglia aumenta mentre diminuisce all'aumentare della durata del contatto come del resto già riscontrato. Ai fini protezionistici, la fibrillazione ventricolare è un evento così tragico che non ha senso parlare di soglia media, come considerato precedentemente, ovvero del valore di corrente che provoca l'evento nel 50% dei casi. In questo caso si considera invece il valore di corrente minima che provoca il fenomeno, ovvero il valore limite sotto il quale il fenomeno non si verifica mai. Nell'ipotesi che il fenomeno presenti una distribuzione di tipo gaussiano, il valore minimo tende a zero perdendo così ogni significato pratico. Si assume allora come valore minimo ai fini della protezionistica, il valore di corrente che ha la probabilità pari a 0,2% di provocare la fibrillazione ventricolare. A questa specifica corrente si dà il nome di corrente minima di fibrillazione If min. Per studiare l'andamento della If in funzione del peso corporeo è stato studiato il diagramma di fig.2.16 nel quale i valori sperimentali di If ottenuti su animali di diversi pesi corporei al variare della durata del contatto presentano tutti lo stesso andamento. Come prevedibile la corrente di soglia If aumenta con il peso corporeo dell'animale e con la durata del contatto in modo abbastanza sovrapponibile in tutti i casi osservati. Conseguentemente è stata ricercata una espressione analitica che interpola tutti i dati sperimentali, che risulta essere: K If = ---√t (1) in cui K dipende essenzialmente dal peso corporeo. Fig.2.15 Soglia di fibrillazione ottenuta nel cane Corrente alternata di 60 Hz applicata per un tempo illimitato dispense1.doc 18 Fig.2.16 Andamento della corrente di soglia che provoca la fibrillazione ventricolare indotta su animali di peso diverso in funzione della durata del contatto. Gli elettrodi sono posti sulla zampa anteriore e sulla zampa posteriore Per poter estrapolare il valore di If min valido per l'uomo, è stato determinato tale valore per altre specie animali, suddividendole per classi omogenee di peso corporeo. Per poter disporre di un numero di casi statisticamente significativo, i dati provenienti dalle sperimentazioni specifiche sono stati integrati con i dati desunti dalla letteratura scientifica resi omogenei mediante estrapolazioni ritenute lecite. Tutti i dati disponibili sono stati rapportati ad uno stimolo di corrente alternata di frequenza industriale della durata di 3 s. L'insieme di questi casi, resi omogenei, è stato riportato sul diagramma di fig.2.18 e sono state tracciate due rette che delimitano una zona all'interno della quale cadono la quasi totalità dei casi osservati. E' stata così verificata sperimentalmente in modo abbastanza accettabile che la corrente minima di fibrillazione If min dipende essenzialmente dal peso corporeo dell'animale e pertanto sembra lecito estrapolare la sua validità anche per l'uomo. La retta inferiore di fig.2.18, che determina i casi di maggior sensibilità della corrente, è stata considerata essere la relazione esistente fra corrente minima che provoca la fibrillazione ventricolare e il peso corporeo. Ipotizzando che il peso corporeo di un ipotetico uomo standard sia di 50 kg, dal diagramma di fig.2.18 si ricava che Ifmin ÷ 60 mA da cui K ÷ 100. La relazione (1) per l'uomo standard vale perciò· 100 If min = ----√t (2) in cui la If min è espressa in milliampere e il tempo in secondi. L'espressione (2), determinata con le approssimazioni ed estrapolazioni viste, vale per tempi di contatto dell'ordine di alcuni secondi. Infatti per t tendente all'infinito, If min tenderebbe a zero perdendo ogni pratica utilità ; è per questo che convenzionalmente si è assunto come valore ragionevolmente sicuro per l'uomo 10mA; pertanto l'espressione della corrente minima di fibrillazione nell’uomo diventa: dispense1.doc 19 100 If min = ----- + 10 √t (3) assumendo così come valore limite di If min per t ∞ appunto il valore di 10 mA. Fig.2.17 Andamento del valore della corrente che provoca fibrillazione ventricolare sul cane, in funzione della frequenza, usando diverse posizioni degli elettrodi Fig.2.18 Corrente minima di fibrillazione in condizione di macroshock in funzione del peso corporeo. Corrente alternata a frequenza industriale; durata di 3 s dispense1.doc 20 E' doveroso notare come la curva della corrente minima di fibrillazione (3) ricordi, come andamento, la curva di eccitazione di una cellula di fig.2.3. La dipendenza della corrente minima di fibrillazione ventricolare con la frequenza è stata indagata con minor approfondimento che nei casi precedenti. In pratica l'unico dato riportato in letteratura è quello di Geddes ed altri del 1972 che affermano che a 3 kHz la corrente minima di fibrillazione ventricolare nell'animale si innalza di 22-28 volte quella corrispondente relativa a 60 Hz. Soglia di fibrillazione nel microshock La corrente minima che genera fibrillazione ventricolare in microshock è stata studiata in pochi casi. I dati disponibili al riguardo, sono stati ottenuti utilizzando un catetere endocardico riempito di soluzione fisiologica, tenuto in posizione da una leggera pressione negativa, in modo da essere certi che il lume del catetere rimanesse a contatto con il miocardio. In fig.2.19 è riportato l'andamento della corrente che induce la fibrillazione ventricolare nel cane, in cui attraverso un catetere endocardico viene somministrata una corrente alternata per 5 s. Il numero riportato accanto alle spezzate si riferisce alla cavia. Un'altra interessante sperimentazione, sempre effettuata nel cane, è riportata in fig.2.20 che riporta il comportamento del cuore di 18 cani attraversato da una corrente alternata da 50 Hz per 5 s. All'aumentare della corrente si instaurano alterazioni funzionali sul miocardio via via sempre più importanti fino alla fibrillazione ventricolare che comporta la morte dell'animale. Si noti l'estrema variabilità del comportamento del cuore alle medesime correnti, tuttavia questi dati sperimentali appaiono sostanzialmente concordi con quelli riportati in fig.2.19. In ogni caso mediando la quasi totalità dei valori sperimentali riportati in letteratura si ha che la minima corrente che provoca la fibrillazione ventricolare, determinata in un campo di frequenze da 30 a 100 Hz, varia da 35 a 400 μA per 5 s di shock, mentre per frequenze da 150 a 350 Hz sale a circa 2 mA. Sui valori estrapolati per l'uomo non vi è tuttavia unanimità di consensi; alcuni Autori ritengono che 20 μA a 60 Hz applicati per un tempo illimitato, siano già sufficienti a provocare la fibrillazione ventricolare. A livello internazionale è stata proposta una relazione che lega la probabilità di fibrillazione ventricolare con l'intensità di corrente. Tale relazione, mostrata in fig.2.21 è recepita dalle norme armonizzate europee e quindi dall'Italia nell'ambito della CEI 62-5. Tale curva è stata ottenuta elaborando le ricerche di Starmer e Watson che forniscono dati sulla fibrillazione ventricolare provocata da correnti di frequenza di 50 e 60 Hz applicate direttamente al cuore dell'uomo in particolari condizioni cliniche che consentivano eticamente una tale sperimentazione. La probabilità di fibrillazione è stata ottenuta tenendo conto del diametro degli elettrodi e dell'intensità di corrente. Per elettrodi di 1,25 e 2 mm di diametro e per correnti inferiori a 0,3 mA, la distribuzione appare normale. Di conseguenza, i dati sperimentali sono stati estrapolati per includere i valori comunemente usati per valutare il rischio del paziente. Da questa estrapolazione si nota che: a) Ogni valore di corrente, ancorché piccolo, ha una certa probabilità di causare una fibrillazione ventricolare. b) I valori correntemente ritenuti sicuri (10μA) hanno tutti piccole probabilità , approssimativamente dell'ordine di 0,2%. Tuttavia la quasi totalità degli Autori concordano nel ritenere che la corrente a frequenza industriale applicata per un tempo indefinito, di intensità inferiore a 5÷10 μA, non dovrebbe mai provocare la fibrillazione ventricolare nell'uomo salvo in condizioni così sfavorevoli e con probabilità così bassa da poter essere trascurata, come suggerisce la normativa europea EN60601.1 recepita dalla norma CEI 62-5. Fig.2.19 Andamento della corrente che provoca fibrillazione ventricolare nel cane in funzione della frequenza. Corrente applicata per 5 secondi attraverso un catetere endocardiaco. Il numero accanto alle spezzate indica la cavia. La crocetta si riferisce ai dati del ventricolo destro. Il puntino a dati del ventricolo sinistro. (da Geddes con modifiche) dispense1.doc 21 Fig. 2.20 Risultati di una sperimentazione sull’animale nella quale veniva applicata direttamente sul miocardio una corrente a 50 Hz per 5 s Valore minimo di corrente che provoca fibrillazione ventricolare Riduzione della portata cardiaca Valore minimo di corrente che provoca riduzione della portata cardiaca Disturbi del ritmo Valore minimo di corrente che provoca disturbi nel ritmo Fig. 2.21 dispense1.doc Probabilità di fibrillazione ventricolare nell’uomo (da CEI 62-5) 22 2.5 IMPEDENZA DI CONTATTO L'impedenza fra due punti della superficie esterna dell'organismo umano può essere ritenuta la somma dei seguenti tre termini: - Impedenza di contatto del primo elettrodo che interessa uno spessore cutaneo di frazioni di millimetro. - Impedenza presentata dall'interno dell'organismo umano. - Impedenza di contatto del secondo elettrodo. Di queste impedenze quella dell'intero organismo umano è determinabile con buona approssimazione, mentre quelle cutanee sono estremamente variabili e spesso non facilmente valutabili. Una semplificazione del problema, accettabile ai fini protezionistici (poiché le eventualità più pericolose e ricorrenti si riferiscono alla corrente alternata a frequenza di rete), è trascurare gli effetti elettrochimici provocati dalla corrente continua. Lo schema equivalente semplificato dell’impedenza di contatto è riportato in fig. 2.22. In esso sono rappresentati i seguenti elementi: E = E' la somma delle polarizzazioni dei due elettrodi metallici in contatto con il soggetto. Il valore massimo per metalli diversi è di circa 1V. E è ovviamente tendente a zero quando i metalli costituenti gli elettrodi sono uguali. Questo parametro è ininfluente nelle considerazioni protezionistiche e = E' la somma dei due rumori degli elettrodi; è dell'ordine dei mV e non influisce nelle considerazioni protezionistiche. Z E e R C rbrb Fig.2.22 Schema equivalente dell’impedenza di contatto rs rs semplificato Z = Impedenza di contatto che rappresenta l'interfaccia fra elettrodo - elettrolita. L'elettrodo rappresenta il conduttore metallico con cui l'organismo umano è venuto in contatto e l'elettrolita, la soluzione presente nel punto di contatto al di sotto della cute. Normalmente si fa l'ipotesi semplificativa che detta soluzione sia la soluzione fisiologica ovvero una soluzione di NaCl allo 0,9%. I valori di R e C dipendono da molti parametri fra cui la natura del metallo e la superficie di contatto. Al variare della frequenza, R e C variano approssimativamente come l'inverso della radice quadrata della frequenza. Per i metalli immersi nella soluzione fisiologica, i valori indicativi di R e C per unità di superficie, a 50 Hz sono: R = 100 Ω/cm² C = 40 μF cm² a cui corrisponde una impedenza Z di circa: Z = 60 Ω / cm² rb= E' la resistenza della cute Il valore di rb presenta una inusuale variabilità e va da 30 Ω/cm² fino a 300 kΩ/cm² come è stato provato sperimentalmente. rs= E' una resistenza che può essere considerata pura e rappresenta tutti i tessuti dell’organismo umano attraversati dalla corrente elettrica. Il valore numerico di rs è dato dalla relazione: l rs = ρ --S dispense1.doc 23 in cui ρ è la resistività delle parti molli dell'organismo umano e vale mediamente 200 Ω cm (vedere tab.2.3); l è la distanza fra i due contatti fra i quali passa la corrente e S è la sezione media. Il valore di rs è dell’ordine dei 100 Ω. Ai fini della valutazione dei rischi elettrici in circostanze cliniche è opportuno evidenziare le seguenti tipologie di contatto: • Contatto esterno nel quale il collegamento con il generatore di tensione avviene attraverso la cute non preparata. In questo caso la resistenza della cute ha il peso predominante nella determinazione dell'impedenza di contatto anche se variabile da individuo a individuo. I valori usuali sono compresi da 5÷10 kΩ per superfici di contatto tipiche del contatto esterno accidentale. • Contatto esterno attraverso elettrodi di registrazione dei segnali elettrobiologici. Gli elettrodi sono posti sulla cute del paziente avendo cura di ridurre al minimo l'impedenza di contatto allo scopo di migliorare la registrazione del segnale. Le zone di applicazione degli elettrodi sono scelte fra le zone anatomiche a cute più sottile; inoltre la cute viene leggermente abrasa e inumidita con soluzione fisiologica o con opportune paste elettroconduttrici. Così facendo l'impedenza di contatto per elettrodi di 1 cm² scende a valori tipici di 1000÷2500 Ω. • Contatto diretto dal cuore attraverso elettrodi endocardici utilizzati nella diagnosi emodinamica o nella elettrostimolazione del miocardio. In questo caso almeno un elettrodo cutaneo è eliminato dall'elettrodo endocardico, inoltre le distanze si riducono per i particolari punti anatomici in cui sono posti gli elettrodi. Il valore di impedenza in questo caso per elettrodi di circa 10 mm² vale tipicamente da 500 ÷1000 Ω anche se alcuni autori segnalano come minimo il valore di 200 Ω. Infine si segnala che l'impedenza offerta dall'organismo umano in caso di contatto con metalli varia con la tensione applicata e raggiunge il valore minimo asintotico verso tensioni di 300 V a frequenza industriale. 2.6 TENSIONI DI CONTATTO La tensione di contatto è determinata applicando la Legge di Ohm fra la corrente e l'impedenza. Poiché l'impedenza, come visto nel paragrafo precedente, è molto variabile e influenzata da molti parametri, ai fini protezionistici è più agevole riferirsi ad altri parametri elettrici. Dal punto di vista biologico gli effetti dell'energia elettrica sull'organismo umano sono studiati in funzione della densità di corrente che lo attraversa. Ai fini pratici la densità di corrente è pressoché impossibile da misurare per cui si considera l'organismo vivente come posto in contatto con una d.d.p generata da un generatore ideale di tensione (impedenza interna nulla). Per questo motivo il parametro tensione di contatto è quello più ricorrente nella pratica e nella normativa di sicurezza. Abbinando i valori minimi discussi nei precedenti capitoli si ha una indicazione dei parametri ritenuti sicuri, che sono riportati in tab.2.4. Si noti che i livelli di tensione, nel caso di microshock, sono così bassi da essere in pratica irraggiungibili con i normali impianti e apparecchi. Parametro Corrente sicura Microshock 10 µA Macroshock 10 mA Impedenza di contatto 1000 Ω 2500÷5000 Ω Tensioen di contatto sicura 10 mV 25-50 V Tab.2.4 Parametri ritenuti sicuri L’Ente americano N.F.P.A. (*) indica come tensione di contatto sicura nel caso di microshock il valore obiettivo a cui tendere 5 mV, ben conscio delle concrete difficoltà tecnologiche che occorre superare. D'altra parte è doveroso segnalare che i dati qui riportati si riferiscono alle peggiori circostanze configurabili e i dati scientifici prima riportati mostrano che non è possibile raggiungere una sicurezza assoluta in tutti i casi. Questi valori costituiscono perciò gli elementi teorici per valutare il rischio accettabile, associato all'utilizzazione dell'energia elettrica. (*) National Fire Protection Association - U.S.A. dispense1.doc 24 2.7 EFFETTO TERMICO Come noto il passaggio della corrente in una resistenza produce calore per effetto Joule. Nell’ambito della sicurezza elettrica vi sono poche circostanze in cui il calore prodotto dalla corrente elettrica può costituire pericolo, perché alla frequenza di rete, la corrente che circola nel paziente molto prima di provocare apprezzabili aumenti di temperatura, provoca effetti biologici molto più gravi come ad esempio la tetanizzazione dei muscoli o la fibrillazione ventricolare a cui deve andare l’attenzione. Ad alta frequenza (oltre i 100 kHz) ove si annulla l’effetto di stimolazione dei musoli, si potrebbe presentare il pericolo di ustioni non volute. Questo è il caso dell’uso dell’elettrobisturi, che costituisce praticamente l’unico apparecchio elettromedicale che presenta questo tipo di rischio. E’ da segnalare tuttavia la possibilità di ustioni dovute a guasti elettrici che provocano archi o la fuoriuscita di metalli fusi dagli involucri. Queste circostanze in ambito sanitario sono rarissime da osservare e impossibili da accadere se si rispetta la regoa dell’arte nella realizzazione degli apparecchi e degli impianti. 2.8 INCIDENZA DELLA MORTALITA' Nell'ambito della trattazione della sicurezza va considerata anche l'incidenza della mortalità provocata dalla corrente elettrica durante l'uso di apparecchi elettromedicali. Nel caso specifico si presentano molte difficoltà , perché le conseguenze cliniche della corrente elettrica, applicata accidentalmente all'organismo umano, sono spesso assimilabili a molte cardiopatie naturali ed è spesso impossibile distinguerle all'esame necroscopico. Inoltre, occorre considerare che i pazienti maggiormente esposti al rischio di folgorazione possono andare incontro, per ragioni naturali dovute alla loro patologia, a crisi cardiache tipo la fibrillazione ventricolare. Si capisce quindi come un incidente possa passare inosservato in quanto ritenuto come fenomeno naturale. Inoltre va considerato il fattore umano, di cui tutti sono consapevoli, che porta a non dare il giusto peso all'eventuale incidente dovuto a guasto o ad errore di manovra, attribuendo l'eventuale morte del paziente a cause naturali. Altre ragioni, non meno valide, possono essere quelle che le apparecchiature bioelettroniche sono considerate, nell'ambiente sanitario, delle macchine quasi perfette di cui ci si può sempre fidare, che in caso di guasto tutt'al più interrompono il funzionamento. Invece la sicurezza di un'apparecchiatura dipende, in larga misura, dal modo in cui è utilizzata, dall'impianto elettrico che l'alimenta, dal livello di manutenzione, dalle periodiche verifiche di sicurezza e per ultimo dal livello di preparazione del personale utilizzatore. Forse è per questo concorso di diverse cause che non esistono né in Italia né all'Estero statistiche ufficiali sulla mortalità da corrente elettrica sufficientemente attendibile. Risulta a tal riguardo che il Dipartimento di Sicurezza Sociale Inglese ha formulato nel 1970 l'auspicio di una collaborazione tra le Autorità Mediche ed il Dipartimento della Salute e Sicurezza Sociale, al fine di stabilire una procedura per poter redigere i rapporti di incidenti che riguardano l'uso di apparecchiature bioelettroniche. Questa procedura sul piano puramente scientifico è molto valida in quanto solo analizzando la dinamica di un incidente ma ancor più la dinamica di un “quasi incidente” (che solo fortuitamente non si è trasformato in un incidente) si possono individuare quei mal funzionamenti tecnologici o errori umani che si possono correggere solo se individuati e sviscerati in ogni particolare. A questa auspicabile metodica scientifica si oppone di fatto l’orientamente giurisprudenziale di perseguire penalmente non soltanto l’incidente, ma anche il solo “pericolo” provocato da negligenza (errore umano). Negli U.S.A. il problema della folgorazione negli ospedali è tradizionalmente al centro dell'attenzione tanto che fin dal 1969 Walter ebbe a dire: le folgorazioni possono succedere ed in verità succedono frequentemente, ma il personale ospedaliero neppure lo sospetta in quanto è così preoccupato ed occupato al salvataggio della vita di ogni singolo paziente che non può nemmeno mettersi a sbrogliare il dedalo di cavi elettrici che riempiono le prese di tensione dei reparti di cura intensiva. Non c'è possibilità di sapere quante simili situazioni avvengono realmente negli ospedali. Il numero presunto di incidenti mortali attribuibili a folgorazione negli U.S.A., dedotto da Nader, in conversazioni con medici e tecnici durante vari incontri scientifici, potrebbe aggirarsi su 5.000 casi all'anno come valore massimo. Analizzando i registri di una compagnia di assicurazione, Walter ha riscontrato il numero di 1.200 morti all'anno da folgorazione provocata da prestazioni sanitarie. Un valore simile è riportato da Burchell il quale parla di circa 1.000 decessi all'anno. dispense1.doc 25 Dal lato opposto la F.D.A.(∗) dopo l'elaborazione dei dati raccolti da una ventina di articoli pubblicati tra il 1963 ed il 1969 sull'argomento, è arrivata a stabilire che il numero di morti all'anno per folgorazioni è di 115, mentre sono più di 1.600 le patologie non mortali provocate dagli apparecchi di uso medico e non soltanto quindi elettromedicale. Arbeit descrive minuziosamente 15 casi accertati di folgorazione (di cui 5 mortali) avvenuti, nell'Ospedale presso cui operava, durante il cateterismo cardiaco. Più ottimista è Lee, Direttore del Dipartimento di Elettronica e Strumentazione al Presbyterian Hospital di New York, il quale afferma che il numero dei pazienti suscettibile di folgorazione con rischio di microshock è estremamente basso, ed aggiunge che non un solo paziente è morto per scarica elettrica durante il periodo della sua carica presso il Presbyterian Hospital. Della stessa opinione di Lee è Dobbie, ingegnere per la sicurezza elettrica del United Kingdom Department of Health di Londra, il quale affermava nel 1974 che nel Regno Unito non un solo paziente è deceduto per scarica elettrica negli ultimi 10 anni. In Italia dalle statistiche ISTAT dello stesso periodo si ricava che le morti dichiarate per folgorazione erano dell'ordine di 400 all'anno in totale e quindi comprensive degli infortuni sul lavoro e domestici. Non risulta alcuna analisi dell'incidenza della mortalità in ambito sanitario. E’ doveroso tuttavia segnalare che dagli anni ’90 in Italia una serie di Leggi, raccomandazioni e direttive europee hanno sensibilizzato gli addetti ai lavori sulle problematiche della sicurezza, per cui sono stati compiuti molti progressi in questo settore. Al di là dei dati statistici o delle opinioni personali, comunque contraddittorie, è tuttavia doveroso affrontare con estrema cautela il problema della sicurezza degli apparecchi e degli impianti elettrici di uso medico, soprattutto ora che la tecnologia ha pressoché invaso ogni campo della diagnostica e della terapia, e, i casi in cui si può manifestare microshock si sono moltiplicati e si moltiplicano ogni giorno. 3. NORMATIVA 3.1 LA REGOLAMENTAZIONE GIURIDICA La sicurezza dell'individuo è considerata nel nostro ordinamento giuridico uno dei valori basilari della nostra società . La Costituzione della Repubblica Italiana accenna a questo argomento più volte come ad esempio all'art.32, 35, 41. In particolar modo nell'art.32 ci si rivolge all'individuo come cittadino e lavoratore. A quest'ultimo è indirizzata la maggior parte delle leggi riguardanti la prevenzione degli infortuni e parecchi articoli del Codice Civile fra cui segnatamente gli art. 2050 e 2087. Il Codice penale, all'art.437 sancisce che "chiunque omette di collocare impianti, apparecchi o segnali destinati a prevenire disastri o infortuni sul lavoro, ovvero li rimuove o danneggia, è punito ......"; l'articolo suddetto si riferisce al reato doloso, ovvero quando c'è la volontà e l'intenzione di omettere le cautele e di non predisporre le misure di sicurezza. L'art.451 del Codice Penale prevede invece la colpa ovvero la negligenza, l'imprudenza o l'imperizia. Successivamente alcuni Decreti e Leggi hanno completato il quadro normativo dell'argomento. Fra i fondamentali si segnalano: - DDL 547 del 27/04/55 "Norme per la prevenzione degli infortuni sul lavoro" - DDL 303 del 19/03/56 "norme per l'igiene del lavoro" - L.186 del 1/03/1968 "Disposizioni concernenti la produzione di materiali, apparecchiature, macchinari, installazioni ed impianti elettrici ed elettromedicali" - L. 791 del 18/10/1977 dia ttuazioned ella Direttiva Europea (73/23/CEE) - L.46 del 5 marzo 1990 che indica le norme per la sicurezza degli impianti anche non elettrici - Dl 626 del 19 settembre 1994 e le numerose integrazioni e modificazioni, che riguarda il miglioramento della sicurezza e della salute dei lavoratori sul luogo di lavoro" L'insieme della norma giuridica è diretta in linea principale alla tutela degli addetti all'uso di apparecchiature elettriche e degli impainti; detta tutela tuttavia si estende in modo ancora più intenso anche ai destinatari dell'uso delle apparecchiature e impianti, tipicamente i lavoratori, ma anche in generale tutti gli utenti, quali ad esempio gli studenti, gli sportivi, gli avventori di luoghi pubblici e segnatamente i pazienti che vengono messi a diretto contatto fisico con gli apparecchi o con parti di essi. (∗) Food and Drug Administration - U.S.A. dispense1.doc 26 Assicurare a tutti i cittadini la sicurezza nelle abitazioni e nei luoghi di lavoro, contro i possibili pericoli derivanti dagli impianti tecnici, in particolare elettrici, è l'obiettivo primario che il Legislatore si è posto con la L. n.46 del 05/03/90 che è in vigore dal 13 Marzo 1990. Si tratta quindi di un atto legislativo della massima importanza che colma un vuoto le cui conseguenze più appariscenti sono state la realizzazione di impianti tecnici costruiti in modo non sempre sicuro perché non rispondenti alle norme e, nel tempo, numerosi incidenti con conseguenze anche mortali. Questa Legge riguarda tutti gli impianti tecnici negli edifici e non solo quelli elettrici ed elettronici, ma anche gli impianti a gas, di condizionamento dell'aria, quelli idrosanitari, gli impianti di ascensori e di protezione antincendio. Ma, mentre per questi ultimi impianti, solo se gli edifici sono di tipo civile, per gli impianti elettrici la Legge si applica anche a quelli relativi agli immobili adibiti ad attività produttive, al commercio, al terziario e ad altri usi. Il primo strumento previsto dalla L. 46/90 per realizzare l'obiettivo primario di cui sopra è costituito dall'obbligo "per chi opera nel settore" di possedere una adeguata professionalità che deve essere riconosciuta per mezzo di apposite certificazioni amministrative. Per ottenere il risultato della sicurezza negli ambienti di vita e di lavoro, la Legge prevede inoltre tre strumenti di prevenzione e precisamente: - Una corretta progettazione degli impianti effettuata da professionisti iscritti negli albi professionali; - Una realizzazione dell'installazione effettuata secondo la regola d'arte ed accompagnata da una dichiarazione di conformità rilasciata dall'impresa installatrice; - Le verifiche sull'applicazione della Legge e le sanzioni per chi non opera correttamente. Tali strumenti non erano disciplinati nel quadro legislativo che ha preceduto la L.46/90 che pure, nel settore elettrico, era adeguatamente coperto sul piano formale per l'esistenza della L.186/1968 e della L.791/1977: Attuazione della Direttiva Comunitaria 73/23/CEE relativa alle garanzie di sicurezza che deve possedere il materiale elettrico destinato ad essere utilizzato entro taluni limiti di tensione. Queste due Leggi “impongono” che gli apparecchi e gli impainti siano realizzati a “regola d’arte” , ovvero adottando tutte le conoscenze di cui la comunità scientifica dispone, ottenendo perciò impianti e apparecchi sicuri. La normativa quindi non impone l’applicazione delle indicazioni normative. La legislazione sopra citata, confermando anche precedenti leggi, afferma anche che se si applicano le norme CEI si “presume” che le apparecchiature e impianti a cui si riferiscono, siano a regola dell’arte. In virtù di queste disposizioni, le Norme CEI sono considerate ufficialmente gli strumenti più agili, idonei e facili da seguire per realizzare apparecchi e impianti sicuri. In altre parole lsi deve osservare che e Norme del Comitato Elettrotecnico Italiano (Norme CEI), perciò, assumono il carattere di norma tecnica di riferimento in quanto la dizione generale costruiti a regola d'arte viene considerata presunta ex lege per effetto della disposizione contenuta esplicitamente da un’altra Legge Italiana, la L.186/1968 "Disposizioni concernenti la produzione di materiali, apparecchiature, macchinari, installazioni e impianti elettrici ed elettronici" che recita: "Art.1 - Tutti i materiali, le apparecchiature, i macchinari, le installazioni e gli impianti elettrici ed elettronici devono essere realizzati e costruiti a regola d'arte. Art. 2 - I materiali, le apparecchiature, i macchinari, le installazioni e gli impianti elettrici ed elettronici realizzati secondo le Norme del Comitato Elettrotecnico Italiano si considerano costruiti a regola d'arte." In conclusione va ulteriormente segnalato che la qualifica costruito a regola d'arte è presunta per legge quando i materiali sono costruiti in stretta osservanza delle Norme CEI, ma ciò non esclude che le realizzazioni effettuate in difformità da esse possano ugualmente considerarsi sicure, solo che la prova che la costruzione eseguita con criteri diversi dalle Norme CEI è a regola d'arte, va dimostrata tecnicamente caso per caso. Il decreto legislativo 19 settembre 1994 n.626, sulla tutela della salute e sicurezza nei luoghi di lavoro, incide profondamente sul vecchio sistema normativo basato sui decreti degli anni '50, per la prevenzione degli infortuni (Dpr 27 aprile 1955 n.547) e l'igiene del lavoro (Dpr 19 marzo 1956 n.303). Infatti all’obbligo senza condizioni ed eccezioni, di qualche anno fa, di adottare le prescrizioni tecniche indicate dalle norme e dai regolamenti, vi è la nuova prassi quale modalità ordinaria per rispondere ai requisiti essenziali di sicurezza e di efficiaenza: la valutazione del rischio e delle esigenze del processo e l’adozione di tutte quelle soluzioni tecniche che la comunità scientifica (detto anche stato dell’arte) indica come idonea nella fattispecie. Ciò nonostante a livello delle caratteristiche tecniche che gli impianti e le attrezzature devono avere, le prescrizioni delle norme tecniche costituiscono senza dubbio un autorevole riferimento e spesso una prescrizione contrattuale ma comunque senza il caratttere di obbligatorietà. L’obbligatorietà è invece relativa ai “requisiti essenziali” che coerentemente all’evoluzione normativa in atto non possono che essere dichiarazioni di principio quali ad esempio “essere correlate alla tipologia e al volume delle attività erogate” dispense1.doc 27 espressione tipica delle Normativa nazionale spesso ripresa da quelle regionali nell’Accreditamento delle strutture sanitarie, oppure “essere progettati e fabbricati in modo che la loro utilizzazione non comprometta lo stato clinico e la sicurezza dei pazienti” della direttiva europea sui dispositivi medici, tanto per citarne solo due. Questo nuovo scenario cambia l’atteggiamento sia del Progettista che del Gestore in quanto queste due categorie professionali non sono più chiamate al rispetto pedissequo di prescrizioni tecniche ma all’analisi del “processo” di cui il manufatto è parte integrante, e a garantire, nei modi che lo stato dell’arte prevede, la sicurezza, l’efficacia e l’efficienza del manufatto. I due protagonisti a cui si fa riferimento sono da una parte il Progettista che deve ideare l’impianto o l’apparecchio che soddisfa predefinite esigenze funzionali e di sicurezza risolvendo tutti i problemi costruttivi, di manutenzione, di gestione e di futuro smaltimento e dall’altra parte il Gestore che deve valutare: il processo che intende svolgere con il manufatto e indicare le condizioni specifiche, i livelli di sicurezza richiesti, gli esiti attesi, ecc. A ulteriore conferma del ruolo attivo, indispensabile, e non delegabile del Gestore nell’indicare le specifiche funzionali degli impianti e degli apparecchi, si consideri la norma tecnica sugli impianti elettrici nei locali ad uso medico CEI 64-8 cap.710 che recita: “la classificazione dei locali ad uso medico e l’individuazione della zona paziente [a cui corrisponde una specifica tipologia di impianto elettrico devono essere fatte dal personale medico [non del progettista!] o in accordo con l’organizzazione sanitaria”. 3.2 L'ATTIVITA' NORMATIVA Rilevanza giuridica Fin dall’inizio del secolo scorso in tutti i Paesi industrializzati si sentì l'esigenza di disporre di un insieme di regole tecniche a cui fare riferimento negli scambi commerciali. Le regole tecniche devono - oltre che specificare le caratteristiche del prodotto facilitando il progetto, la realizzazione e l'installazione - fissare criteri di accettazione commerciale e di collaudo e soprattutto assicurare adeguati livelli di sicurezza di impiego e tutela della salute e dell'ambiente. La rilevanza giuridica di una norma tecnica dipende dall'Ente che l'ha emessa. Per esempio si può distinguere la seguente gerarchia di importanza giuridica decrescente: - Norme tecniche obbligatorie in quanto recepite dalla legge - Norme tecniche omologate in quanto fatte proprie dai Ministeri che inserendole nei Capitolati di fornitura o di appalto diventano obbligatorie per le sole commesse pubbliche (per esempio Circolari Ministeriali e Capitolati Speciali di Acquisto L.730/83 art.30) - Norme tecniche che definiscono la regola d'arte come per esempio quelle CEI che hanno avuto un riconoscimento indiretto (L.186/68) - Norme tecniche volontarie il cui valore risiede principalmente nella autorevolezza dell'Ente che le emette (per esempio le norme AAMI degli U.S.A.) Enti normatori italiani In Italia in forza del D.L.L. n.82 del 1/03/45 il CNR (Comitato Nazionale delle Ricerche) "... provvede alla compilazione di norme per l'accettazione, il collaudo e l'unificazione di materiali, strumenti, apparecchi, macchinari ed accessori vari per usi tecnici e scientifici, nonché di norme per l'esecuzione, il collaudo e la protezione degli impianti e delle costruzioni ....", ma dal 1974 il CNR ha delegato al CEI (Comitato Elettrotecnico Italiano) i compiti della normalizzazione nei settori elettrotecnico ed elettronico. Attualmente il CEI partecipa all'attività di normazione a livello internazionale (CENELEC, IEC, CEN). Analogamente l'UNI (*)redige le norme su tutti gli altri argomenti non di competenza della CEI. Con la legge di riforma sanitaria L.833 del 32/12/78 "Istituzione del Servizio Sanitario Nazionale" è stato previsto e costituito nel 1980 l'ISPELS (Istituto Superiore per la Prevenzione e la Sicurezza del Lavoro) con il compito di "individuazione, in via esclusiva, dei criteri di sicurezza e dei relativi metodi di rilevazione ai fini della omologazione di macchine, di componenti, di impianti, di apparecchi, di strumenti e di mezzi personali di protezione, nonché ai fini delle specifiche tecniche normative". Enti normatori internazionali Gli intensi scambi commerciali internazionali non consentono ad un Paese Industrializzato di adottare norme tecniche difformi da quelle degli altri Paesi. Nell'intento di addivenire ad una uniformità di normativa sono sorti gli organismi normativi internazionali fra cui l'IEC (International Electrotechnical Commission) e il CEEel (International Commission on Rule for the Approval at Electrical Equipment). Oggi aderiscono alla IEC quasi tutti gli Enti Normatori Nazionali del mondo (per l'Italia il CEI). (*) Ente Nazionale Italiano di Unificazione; è anche il rappresentante dell'Italia presso l'Organizzazione Internazionale di Normalizzazione (ISO). dispense1.doc 28 Alla CEEel invece aderiscono i soli Paesi Europei e tratta prevalentemente l'unificazione dei protocolli di prova di laboratorio dei materiali elettrici e del loro riconoscimento fra i Paesi che vi aderiscono. Poiché le varie Norme Nazionali di per sé non erano uniformi, in quanto nate scoordinate e spontaneisticamente, in base all'art.100 del trattato di Roma, costituente la Comunità Economica Europea, i Paesi membri si sono impegnati ad eliminare gli ostacoli agli scambi commerciali ed in particolare di disuniformità della Normative tecniche nazionali; a questo fine è sorto il CENELEC (European Committee for Electrotechnical Standardization). A questo punto occorre fare una precisazione. Fino a pochi anni or sono l'IEC, a cui partecipava anche l'Italia, predisponeva appunto con l'apporto tecnico di esperti di tutte le nazioni aderenti, normative chiamate raccomandazioni. Queste venivano recepite dagli Enti normatori nazionali che le traducevano ed eventualmente le modificavano per adeguarle al loro preesistente corpo normativo. Tale attività normativa a livello nazionale adesso è svolta a livello europeo dal CENELEC, il quale infatti, con l'apporto di esperti delle nazioni aderenti alla Comunità Europea redige le norme europee. La novità principale è che gli Enti normatori nazionali (CEI), in quanto membri del CENELEC, devono recepire le norme europee senza alcuna modifica, limitandosi semplicemente a tradurle. Il CENELEC perci· emette documenti di armonizzazione che devono essere recepiti dagli Enti normativi nazionali aderenti: si parla quindi di Norma armonizzata e viene pubblicata con la sigla EN preceduta dalla classificazione nazionale (in Italia: CEI EN; UNI EN, ecc.). La strategia per l'abbattimento delle barriere tecniche fra i Paesei della Comunità Europea è basata perciò sui seguenti principi: - l'armonizzazione legislativa si limita alla approvazione, mediante direttive, dei requisiti essenziali di sicurezza (o di altre esigenze di carattere collettivo) ai quali devono soddisfare i prodotti immessi sul mercato che, in tal caso possono circolare liberamente nella Comunità ; compete agli organismi europei di normazione (CEN, CENELEC e ETSI) il compito di elaborare le norme tecniche armonizzate necessarie per l'applicazione delle direttive; gli Stati membri possono, nel rispetto delle regole comunitarie e garantendo sempre la libera circolazione delle merci, emanare particolari specifiche tecniche (regole tecniche), la cui osservanza è obbligatoria, ai fini della salvaguardia della sicurezza e della salute dei loro cittadini; agli organi competenti per la normazione industriale è affidato il compito di elaborare tutte le altre specifiche tecniche (norme tecniche), tenendo conto del livello tecnologico del momento, di cui le industrie hanno bisogno per produrre ed immettere sul mercato prodotti conformi ai requisiti essenziali fissati dalle direttive; le norme tecniche non devono essere obbligatorie bensì conservare il carattere di norme volontarie; tuttavia, le amministrazioni pubbliche sono obbligate a riconoscere ai prodotti fabbricati secondo le norme armonizzate una presunta conformità ai requisiti essenziali fissati dalla direttiva; ci· significa che il produttore ha la facoltà di fabbricare prodotti non conformi alle norme, ma in tal caso ricade su di lui la responsabilità di dimostrare che i suoi prodotti rispondono ai requisiti essenziali fissati alla direttiva. Con la garanzia del rispetto dei requisiti essenziali, se un prodotto è fabbricato e commercializzato legalmente in uno Stato membro, non c'è motivo per cui non debba essere venduto all'interno della Comunità . Tale garanzia si ottiene tramite la valutazione di conformità alle norme europee armonizzate o, in via transitoria, quando non esistano norme europee armonizzate, alle norme nazionali e queste siano riconosciute dagli uffici comunitari valide ai fini dell'applicazione della direttiva interessata. Enti certificatori Il Decreto del Ministero dell'Industria del 23/7/1979 "Designazione degli organismi incaricati di rilasciare certificati e marchi ai sensi della legge 18 ottobre 1977 n.791" autorizza alcuni Enti a rilasciare attestati di conformità. I più noti per essere stati autorizzati da più anni sono: - Istituto del Marchio di Qualità (IMQ) di Milano Istituto Elettrotecnico Nazionale G.Ferraris di Torino Centro Elettrotecnico Sperimentale Italiano (CESI) di Milano Fra gli Enti Certificatori Italiani il più noto è l’IMQ fondato nel 1969 dal CEI , dall’AEI, dall'ENEL e dall'ANIE, di cui sono soci di diritto anche il CNR e otto Ministeri. Gli scopi dell'IMQ sono: a) accertare la rispondenza alle norme elaborate e pubblicate dal CEI dei materiali e delle apparecchiature elettrotecniche ed elettroniche che qualunque produttore intenda sottoporre a controllo. Ove del caso, tale controllo comprende anche le verifiche dimensionali previste dall'unificazione elettrotecnica (tabelle CEI-UNEL); dispense1.doc 29 b) impegnare il produttore richiedente alla costante conformità al prototipo di ogni unità fabbricata; c) certificare conseguentemente la costante conformità del prodotto, come sopra accertata, ed autorizzare il produttore ad applicare su ciascuna unità fabbricata un marchio attestante tale conformità . L'attività dell'Istituto è rivolta soprattutto ai materiali ed apparecchi destinati all'impiego civile ed anche del settore delle apparecchiature elettromedicali. L’IMQ rilascia il “marchio” se la norma CEI è già stata pubblicata, in caso contrario l'IMQ può rilasciare il Certificato con Sorveglianza. Tale Certificato è rilasciato sulla base delle prescrizioni delle Norme Generali CEI 62-5 e sulle indicazioni di eventuali raccomandazioni IEC se esistenti. Il Certificato di Sorveglianza non consente l'uso al Costruttore del contrassegno IMQ, ma garantisce all'utilizzatore oltre la rispondenza del prototipo alle norme generali di sicurezza, il costante livello qualitativo della Produzione perché "sorvegliato" con controlli periodici dell'Istituto allo Stabilimento di costruzione. Sovraintende all'attività dell'IMQ nø10 Commissioni Tecniche di cui la 10 è specifica per il settore degli apparecchi elettromedicali. Risultano ammesse al regime del Marchio IMQ le seguenti categorie di prodotti che devono soddisfare ai requisiti fissati nelle relative norme CEI, indicate in corrispondenza ad ogni categoria. 1001. Apparecchi elettromedicali in generale - Tutti gli apparecchi per i quali esistono norme CEI del comitato 62 - Gli apparecchi per i quali risultano già in vigore le relative Norme Particolari - Ricadono in questa categoria apparecchi per i quali pur non essendo ancora disponibili le Norme Particolari, l'IMQ ha ricevuto l'autorizzazione a rilasciare il marchio sulla base di Raccomandazione IEC 1010. Apparecchi per uso odontoiatrico - Solo un sottoinsieme degli apparecchi elettromedicali previsti dalla norma CEI 62-5 1020. Apparecchi di radiodiagnostica L’IMQ inoltre (art.2) è incaricato di rilasciare marchi di conformità , il cosiddetto marchio IMQ riprodotto in fig.3.1. Per l'ottenimento del marchio IMQ il Costruttore deve sottostare ad una procedura che prevede la verifica da parte dell'Istituto di: - Idoneità tecnica del Costruttore a produrre e collaudare il prodotto con i previsti livelli di sicurezza.A questo proposito viene verificata l'esistenza degli apparecchi di misura ritenuti indispensabili per il collaudo, l'esistenza di schede tecnico-amministrative su cui annotare l'esito delle misure, ecc. - Rispondenza alle Norme di un prototipo di apparecchio riscontrata con il superamento di tutte le verifiche e misure strumentali previste dalla Norma specifica - Controllo periodico della produzione per verificare che la costruzione di serie dell'apparecchio sia conforme al prototipo verificato. E' doveroso segnalare che per il settore degli apparecchi di uso medico l'ottenimento di un marchio di qualità nazionale non dà il diritto ad ottenere il marchio presso un altro Paese. Questo avviene solo per alcune categorie di prodotti anche se è allo studio un sistema di certificazione reciproco che dovrebbe allargare l'estendibilità dei marchi nazionali almeno alle nazioni europee. Per gli apparecchi sono riportati in fig.3.2 i principali marchi. Il marchio di conformità non è obbligatorio, ma è una significativa garanzia che il Costruttore offre all’aquirente. Recenti decreti legislativi di recepimento di direttive europee come ad esempio il Dlg 46/1997 relativo ai dispositivi medici, impone obbligatoriamente che tutti i materiali individuati dalla direttiva devono rispondere ai requisiti essenziali di sicurezza. La autocertificazione di ciò da parte del Costruttore è evidenziata dal marchio “CE” (fig.3.3) apposto al materiale. Fig.3.1 Contrassegno IMQ rilasciato agli apparecchi che hanno superato la procedura di attestazione di conformità alle Norme. La scitta sottostante si riferisce alla norma presa in considerazione. Fig. 3.3 dispense1.doc Marchio CE obbligatorio per i materiali di cui è già stata pubblicata la relativa Direttiva Europea 30 Fig.3.2 Principali Marchi di conformità 3.3 LA CERTIFICAZIONE VOLONTARIA O OBBLIGATORIA La certificazione è l'atto mediante il quale un organismo di certificazione dichiara che un determinato prodotto, processo, servizio, sistema qualità aziendale è conforme alle norme o alle regole ad esso applicabili. Esistono principalmente 2 tipi di certificazioni: a) La certificazione di prodotto, attuata per mezzo di: - uno o più laboratori che effettuano le prove di conformità (esempio IMQ); - un organismo che controlla la permanenza nel tempo della conformità prelevando campioni sul luogo di produzione o sul mercato e sottoponendoli a prove di laboratorio. b) La certificazione del processo produttivo (ad esempio seguendo le ISO 900), attuata per mezzo di: - un organismo che valuta l'idoneità e la permanenza nel tempo delle caratteristiche del sistema di qualità di un'azienda, applicando uno schema adatto al settore produttivo considerato; - un organismo di certificazione che controlla le caratteristiche (scolarità , esperienza, addestramento specifico) del personale impiegato in particolari attività . La certificazione è un processo volontario che il produttore decide di utilizzare per qualificare il suo prodotto sul mercato garantendo un livello definito di qualità o prestazioni. La certificazione può diventare obbligatoria quando per esempio è prevista da una direttiva europea per garantire i requisiti essenziali per l'immissione sul mercato europeo del prodotto. La corrispondenza del prodotto ai prescritti requisiti è comunque evidenziata come già visto dall'apposizione della marcatura CE al prodotto. La certificazione di conformità ai requisiti essenziali nel quadro del processo di valutazione di conformità che porta all'apposizione della marcatura CE, prevista ai sensi delle direttive comunitarie, emesse a difesa degli interessi generali degli stati membri, è una certificazione obbligatoria. Occorre tuttavia chiarire che, mentre nel caso della certificazione volontaria, l'apposizione del marchio è diretta conseguenza dell'operazione di certificazione eseguita dall'organismo di certificazione, nel caso della certificazione obbligatoria effettuata da Organismi notificati (un Organismo notificato è un laboratorio di prova o un organismo di certificazione che un Governo nazionale segnala alla Commissione Comunitaria come idoneo ad operare per l'accertamento della conformità ai requisiti essenziali prescritti dalle direttive comunitarie), nell'ambito delle procedure previste dalle direttive comunitarie, essa può essere solo una delle operazioni mediante le quali il produttore, seguendo la procedura per la valutazione di conformità ai requisiti essenziali scelta per il suo prodotto, arriva ad apporre la marcatura CE. Le certificazioni previste dalle direttive sono rilasciate con l'intervento di organismi esplicitamente notificati dall'autorità competente di uno stato membro alla Commissione della Comunità europea e da questa alle autorità competenti degli altri stati membri e scelti sulla base dei requisiti minimi indicati nelle direttive stesse. Le autorità competenti sono le sole responsabili del loro operato e possono, se del caso, deciderne la sospensione. dispense1.doc 31 E' opportuno ricordare che, per alcuni prodotti, le direttive comunitarie prevedono che la valutazione di conformità ai requisiti essenziali sia autocertificata dallo stesso produttore, lasciando agli organismi notificati e all'autorità competente competente il compito di sorveglianza. Il produttore quindi, nel momento in cui matura la decisione di percorrere la strada della certificazione, deve pianificare una serie di attività secondo lo schema seguente: 1) Identificare i propri prodotti 2) Identificare le direttive applicabili 3) Identificare i requisiti essenziali da rispettare 4) Identificare le norme tecniche applicabili 5) Studiare le regole di classificazione dei prodotti 6) Scegliere il modulo per la valutazione della conformità fra quelli indicati nelle direttive da rispettare 7) Approntare la documentazione necessaria 8) Identificare l'ente di certificazione notificato 3.4 DIRETTIVE EUROPEE E NORME TECNICHE IN CAMPO SANITARIO Direttive europee nel settore sanitario La Comunità Economica Europea, al fine di garantire al suo interno la libera circolazione di tutti i tipi di materiale di uso sanitario, ponendo al tempo stesso la massima attenzione alla sicurezza dell'utente, ha sentito negli scorsi anni il bisogno di emanare una serie di “direttive” che regolamentano l'accesso al mercato di tutti i materiali di uso sanitario, dettando nel frattempo tutte le norme tecniche che debbono essere rispettate affinché questi materiali offrano le massime garanzie di sicurezza per l'utilizzatore ed il paziente finale. La prima direttiva, in ordine di tempo, è stata la 90/385/CE, recepita in Italia con il Dlgs 507/1992, relativa ai “dispositivi medici impiantabili attivi”. La definizione, fornita dalla direttiva, di questi dispositivi è: “ - dispositivo medico attivo: qualsiasi dispositivo medico collegato per il suo funzionamento ad una fonte di energia elettrica o qualsiasi altra fonte di energia diversa da quella prodotta direttamente dal corpo umano o dalla gravità; - dispositivo medico impiantabile attivo: qualsiasi dispositivo medico attivo destinato ad essere impiantato interamente o parzialmente mediante intervento chirurgico o medico nel corpo umano o mediante intervento medico in un orfizio naturale e destinato a restarvi dopo l’intervento” Appartengono a questa categoria ad esempio i pacemaker impiantabili, il cuore artificiale, ecc.. Sono i dispositivi medici più critici per cui la procedura per poterli immettere in commercio è molto severa e tra l’altro il prodotto deve necessariamente essere valutato da un Ente Certificatore individuato con Legge di Stato. Un’altra direttiva, molto importante per la vastità e diversificazione dei prodotti a cui si riferisce è la 93/42/CE recepita in Italia dal Dlgs 46/1997 relativa ai “dispositivi medici” definiti come “qualsiasi strumento, apparecchio, impianto sostanza o altro prodotto, utilizzato da solo o in combinazione, compreso il software informatico impiegato per il corretto funzionamento, e destinato dal fabbricante ad essere impiegato nell’uomo a scopo di diagnosi, prevenzione, controllo, terapia o attenuazione di una malattia; di diagnosi, controllo, terapia, attenuazione o compensazione di una ferita o di un handicap; di studio, sostituzione o modifica dell’anatomia o di un processo fisiologico” La terza direttiva, in ordine di tempo è la 98/79/CE recepita in Italia con il Dlgs 332/2000 relativa, ai dispositivi medicodiagnostici in vitro. Questi dispositivi sono definiti come: “Qualsiasi dispositivo medico composto da un reagente, da un prodotto reattivo, da un calibratore, da un materiale di controllo, da un kit, da uno strumento, da un apparecchio, un’attrezzatura o un sistema, utilizzato da solo o in combinazione, destinato dal fabbricante ad essere impiegato in vitro per l’esame di campioni provenienti dal corpo umano” Norme tecniche nel settore dell’uso medico Attualmente l'attività preponderante del CEI è quella di elaborare le norme tecniche attraverso la partecipazione all'attività dei Comitati Europei (CENELEC) ed internazionali (IEC) (esempio negli apparecchi elettromedicali), tradurre le norme armonizzate, e redigere norme nazionali in quei settori in quei settori in cui non ci siano ancora norme europee (esempio impianti elettrici nei locali ad uso medico, ecc.). Il CEI è organizzato in Comitati Tecnici a loro volta articolati in Sottocomitati e Gruppi di Lavoro, per un totale di circa 200 gruppi con circa 1800 esperti. Due sono i Comitati tecnici che si occupano di argomenti direttamente connessi al campo sanitario. Essi sono: CT 62 Apparecchiature elettriche per uso medico CT 64 Impianti elettrici utilizzatori dispense1.doc 32 Il CT 62, interamente rivolto agli apparecchi di uso medico, è suddiviso nei seguenti quattro Sotto Comitati: A. Aspetti comuni delle apparecchiature elettriche per uso medico B. Apparecchi a raggi x e accessori C. Apparecchi ad alta energia ed apparecchi per medicina nucleare D. Apparecchi elettromedicali Quest'ultimo Sotto Comitato è organizzato in diversi Gruppi di lavoro impegnati su particolari tematiche quali ad esempio apparecchi di monitoraggio clinico, anestesia, defibrillatori, ecc. Finora (2003) le Norme CEI pubblicate dal Comitato Tecnico 62 sono: CEI 62(1998) CEI 62-1 (1997) CEI 62-2 (1998) CEI 62-3 (1998) CEI 62-4 (1998) CEI 62-5 (1998) CEI 62-7 (2001) CEI 62-9 (2003) CEI 62-11 (2001) CEI 62-12 (1998) CEI 62-13 (1998) CEI 62-14 (1999) CEI 62-17 (1998) CEI 62-22 (1998) CEI 62-23 (2001) CEI 62-24 (2002) CEI 62-26 (1996) CEI 62-27 (1999) CEI 62-28 (1998) CEI 62-30 (1998) CEI 62-33 (1999) CEI 62-34 (1997) CEI 62-35 (2003) CEI 62-36 (2000) CEI 62-37 (1998) CEI 62-38 (1998) CEI 62-40 (1998) CEI 62-41 (1999) CEI 62-42 (1997) CEI 62-48 (1998) CEI 62-49 (1998) dispense1.doc Dizionario di Radiologia Medica Complessi tubo – guaina per diagnostica medica. Caratteristiche delle macchie focali Protezione contro le radiazioni negli apparecchi radiologici per uso medico funzionanti con tensioni da 10 kV a 400 kV Cassette radiografiche per radiodiagnostica medica. Cassette radiografiche e cassette per mammografia Isolatori terminali di cavo e isolatori a bicchiere per giunzioni in alta tensione negli apparecchi a raggi X ad uso medico Apparecchi elettromedicali. Parte 1 : Norme generali per la sicurezza Apparecchi elettromedicali. Sistemi di misura del prodotto dose-area Apparecchiature di immagini per uso diagnostico – Caratteristiche delle griglie antidiffusione d’uso generale e per mammografia Apparecchi elettromedicali. Parte 2: Norme particolari di sicurezza per gli apparecchi di elettrochirurgia ad alta frequenza Schemi di rinforzo radiologici. Dimensioni Apparecchi elettromedicali. Norme particolari di sicurezza per defibrillatori cardiaci con monitor incorporato Apparecchi elettromedicali. Parte 2: Norme particolari di sicurezza per gli apparecchi di terapia ad onde corte Apparecchi elettromedicali. Norme particolari di sicurezza per gli apparecchi per la terapia a microonde Apparecchi elettromedicali. Parte 2: Norme particolari di sicurezza per le incubatrici Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza delle apparecchiature di terapia ad ultrasuoni Apparecchi elettromedicali. Parte 2: Norme particolari di sicurezza per gli stimolatori neuromuscolari Elettrostimolatori cardiaci impiantabili. Norma di sicurezza Apparecchi elettromedicali. Parte 2: Norme particolari di sicurezza dei generatori di alta tensione radiologici per diagnostica Apparecchi elettromedicali. Norme particolari di sicurezza dei generatori radiologici terapeutici Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza dei dosimetri a contatto con il paziente utilizzati in radioterapia, con rivelatori di radiazione collegati elettricamente Apparecchi elettromedicali. Dosimetri a camera di ionizzazione utilizzati in radioterapia Determinazione del massimo campo di radiazione simmetrica di un tubo radiogeno ad anodo rotante per diagnostica medica Apparecchi elettromedicali. Parte 2: Norme particolari di sicurezza per gli acceleratori medicali di elettroni nella gamma da 1 MeV a 50 MeV Apparecchiature elettromedicali. Acceleratori di elettroni per uso medico. Caratteristiche delle prestazioni funzionali Caratteristiche elettriche, termiche e di carico dei tubi radiogeni ad anodo rotante per diagnostica medica Apparecchi elettromedicali. Parte 2: Norme particolari di sicurezza per generatori radiologici a scarica di condensatore Apparecchi elettromedicali. Parte 2: Norme particolari di sicurezza degli apparecchi proiettori automatici di sorgenti gamma con comando a distanza Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza delle incubatrici da trasporto Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza degli apparecchi laser terapeutici e diagnostici Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza di complessi radianti a raggi X e complessi tubo-guaina per diagnostica medica Connettori di basso profilo per elettrostimolatori cardiaci impiantabili 33 CEI 62-50 (2003) Apparecchi elettromedicali. Parte 1: Prescrizioni generali per la sicurezza – Norma collaterale: Compatibilità elettromagnetica – Prescrizione e prove CEI 62-51 (2003) Apparecchi elettromedicali. Parte 1: Norme particolari per la sicurezza. Norma Collaterale: Prescrizione di sicurezza per i sistemi elettromedicali CEI 62-52 (2002) Sistemi qualità. Dispositivi medici. Prescrizioni particolari per l’applicazione della EN ISO 9001 (revisione della EN 46001) CEI 62-53 (2002) Sistemi qualità. Dispositivi medici. Prescrizioni particolari per l’applicazione della EN ISO 9002 (revisione della EN 46002:1996) CEI 62-54 (1998) Simulatori di radioterapia – Caratteristiche funzionali CEI 62-55 (1998) Prove di valutazione e di routine nei reparti per la produzione di immagini mediche. Parte 1: Aspetti generali. CEI 62-56 (1998) Caratteristiche e condizioni di prova di dispositivi di diagnostica per immagini a radionuclidi Gamma camere di tipo Anger CEI 62-57 (1998) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2-4: Prove di costanza – Camere di riproduzione a stampa CEI 62-58 (1998) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2-5: Prove di costanza – Dispositivi per la visualizzazione delle immagini CEI 62-59 (1998) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2-6: Prove di costanza – Apparecchiature di tomografia computerizzata CEI 62-60 (1998) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza dei riscaldatori radianti per neonati CEI 62-61 (1998) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza degli elettroencefalografi CEI 62-62 (1998) Apparecchi elettromedicali. Caratteristiche degli intensificatori elettro-ottici di immagine radiologica Parte 1: Determinazione della dimensione del campo di ingresso. CEI 62-63 (1998) Apparecchi elettromedicali. Caratteristiche degli intensificatori elettro-ottici di immagine radiologica Parte 2: Determinazione del fattore di conversione CEI 62-64 (1998) Apparecchi elettromedicali. Caratteristiche degli intensificatori elettro-ottici di immagine radiologica Parte 3: Determinazione della distribuzione della luminosità e della non-uniformità della luminosità CEI 62-65 (1998) Apparecchi elettromedicali. Caratteristiche degli intensificatori elettro-ottici di immagine radiologica Parte 4: Determinazione della distorsione di immagini CEI 62-66 (1998) Apparecchi elettromedicali. Caratteristiche degli intensificatori elettro-ottici di immagine radiologica Parte 5: Determinazione dell’efficienza quantica di rivelazione CEI 62-67 (1998) Apparecchi elettromedicali. Caratteristiche degli intensificatori elettro-ottici di immagine radiologica Parte 6: Determinazione del rapporto di contrasto e dell’indice di velo luminoso CEI 62-68 (1998) Apparecchi elettromedicali. Parte 2: Prescrizioni particolari per la sicurezza delle apparecchiature complementari agli apparecchi radiologici CEI 62-69 (1998) Apparecchi elettromedicali. Parte 1: Prescrizione generali per la sicurezza. 3: Norma collaterale: Prescrizioni Generali per la radioprotezione in apparecchi radiologici per diagnostica CEI 62-70 (1999) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza degli stimolatori cardiaci esterni con sorgente d’alimentazione interna CEI 62-71 (1998) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza degli apparecchi di monitoraggio elettrocardiografico CEI 62-72 (1996) Guida per l’applicazione delle Norme EN 29001 ed EN 46001 e delle Norme EN 29002 e EN 46002 per l’industria dei dispositivi medici attivi CEI 62-73 (1996) Apparecchi radiologici per diagnostica medica. Condizioni di radiazione per l’uso nella determinazione delle caratteristiche CEI 62-74 (2001) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza, comprese le prestazioni essenziali, degli apparecchi di monitoraggio della pressione del sangue in modo non invasivo, automatico e periodico CEI 62-75 (2001) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza, comprese le prestazioni essenziali, degli apparecchi di monitoraggio diretto della pressione del sangue CEI 62-76 (2000) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza degli elettrocardiografi CEI 62-77 (2001) Apparecchi elettromedicali. Parte 2: Prescrizioni particolari di sicurezza relative agli apparecchi a risonanza magnetica per diagnostica medica CEI 62-78 (1997) Apparecchi elettromedicali. Caratteristiche degli intensificatori elettro-ottici di immagine radiologica Parte 7: Determinazione della funzione di trasferimento della modulazione CEI 62-79 (2001) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza dei simulatori per radioterapia CEI 62-80 (1997) Apparecchi elettromedicali. Calibratori a radionuclidi. Metodi particolari per descrivere la prestazione dispense1.doc 34 CEI 62-81 (2000) Apparecchi elettromedicali. Parte 1: Norme generali per la sicurezza. 4: Norma collaterale: Sistemi elettromedicali programmabili CEI 62-82 (2001) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza delle apparecchiature endoscopiche CEI 62-83 (2001) Apparecchiature utilizzate in radioterapia – coordinate, movimenti e scale CEI 62-84 (1997) Segni grafici per apparecchiature elettromedicali CEI 62-85 (1997) Apparecchi elettromedicali. Parte 3-1: Prescrizioni essenziali di prestazioni per apparecchi di monitoraggio transcutaneo della pressione parziale di ossigeno e biossido di carbonio CEI 62-86 (1998) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza di apparecchi di litotrissia indotta extracorporea CEI 62-87 (1998) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 3-3: Prove di accettazione – Prestazioni del trattamento delle immagini per gli apparecchi radiologici per angiografia a sottrazione digitale (ASD) CEI 62-88 (1998) Apparecchi elettromedicali. Dosimetri a camera di ionizzazione e/o rivelatori a semiconduttore utilizzati nella produzione di immagini per radiodiagnostica CEI 62-89 (1998) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 3-2: Prove di accettazione – Prestazioni relative alle immagini di apparecchi radiologici per mammografia CEI 62-90 (1998) Dispositivi di visualizzazione di immagini a radionuclidi. Caratteristiche e condizioni di prova. Parte 1: Tomografi ad emissione di positrone CEI 62-91 (1998) Dispositivi di visualizzazione di immagini a radionuclidi. Caratteristiche e condizioni di prova. Parte 2: Tomografi computerizzati ad emissione di fotone singolo CEI 62-92 (1998) Dispositivi di visualizzazione di immagini a radionuclidi. Caratteristiche e condizioni di prova. Parte 3: Sistemi per la produzione di immagini del corpo intero tipo gamma camera CEI 62-93 (1998) Aspetti fondamentali delle norme di sicurezza per gli apparecchi elettromedicali CEI 62-94 (2001) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza, comprese le prestazioni essenziali, degli apparecchi monitoraggio di pressione parziale per via transcutanea CEI 62-95 (2000) Apparecchi elettromedicali. Parte 2: Norme particolari di sicurezza di letti per ospedale azionati elettricamente CEI 62-96 (1999) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza di elettromiografi e apparecchi per potenziale evocato CEI 62-97 (1999) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza delle coperte, dei cuscinetti e dei materassi destinati al riscaldamento dei pazienti per l’impiego medico CEI 62-98 (2000) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza degli apparecchi per emodialisi, emodiafiltrazione e emofiltrazione CEI 62-99 (1999) Apparecchi elettromedicali. Parte 2: Norme particolari di sicurezza per pompe d’infusione e dispositivi di controllo CEI 62-100 (1999) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza dei tavoli operatori CEI 62-101 (2002) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza degli apparecchi radiologici per mammografia e dispositivi stereotassici per mammografia CEI 62-103 (2000) Dispositivi di protezione dalla radiazione X per uso medico-diagnostico. Parte 3: Indumenti e dispositivi di protezione per le gonadi CEI 62-104 (2000) Dispositivi medici impiantabili attivi. Parte 1: Requisiti generali per la sicurezza, la marcatura e le informazioni fornite dal fabbricante CEI 62-105 (2000) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2: prove di costanza – Apparecchi per il trattamento della pellicola CEI 62-106 (2000) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2: prove di costanza – Cassette radiografiche e cambia-pellicola – Contatto schermo-pellicola e sensibilità relativa del sistema schermo-cassetta CEI 62-107 (2000) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2: prove di costanza – Condizioni di luce inattinica nelle camere oscure CEI 62-108 (2000) Guida alla manutenzione delle pompe di infusione e sistemi di controllo CEI 62-109 (2000) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza degli apparecchi per la dialisi peritoneale CEI 62-110 (2002) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza di apparecchiature radiologiche per la tomografia computerizzata CEI 62-111 (2001) Determinazione della filtrazione permanente dei complessi tubo-guaina CEI 62-112 (2001) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2: prove di costanza – Apparecchi per radiografia dentale endorale ad esclusione degli apparecchi per radiografia dentale panoramica dispense1.doc 35 CEI 62-113 (2001) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2: prove di costanza – Apparecchi per radioscopia indiretta e radiografia indiretta CEI 62-114 (2001) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2: prove di costanza – Apparecchi radiologici per mammografia CEI 62-115 (2001) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2: prove di costanza – Apparecchi per radiografia generale diretta CEI 62-116 (2001) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2: prove di accettazione – Prestazioni di immagini degli apparecchi radiologici per sistemi radiografici e radioscopici CEI 62-117 (2001) Sistemi qualità. Dispositivi medici. Prescrizioni particolari per l’applicazione della EN ISO 9003 CEI 62-118 (2001) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza di apparecchi di illuminazione per uso chirurgico e per la diagnosi CEI 62-119 (2001) Apparecchi elettromedicali. Prescrizioni particolari di sicurezza per i sistemi di pianificazione del trattamento in radioterapia CEI 62-120 (2001) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2: prove di accettazione – Prestazioni del trattamento di immagini degli apparecchi radiologici per uso dentale CEI 62-121 (2002) Dispositivi medici. Applicazione della gestione dei rischi ai dispositivi medici (ISO 14971:2000) CEI 62-122 (2002) Guida alle prove di accettazione ed alle verifiche periodiche di sicurezza e/o di prestazione dei dispositivi medici alimentati da una particolare sorgente di alimentazione CEI 62-123 (2002) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza degli apparecchi radiologici per procedure intervenzionali CEI 62-124 (2002) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza degli apparecchi per la diagnosi e il monitoraggio medico a ultrasuoni CEI 62-125 (2002) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza degli apparecchi di monitoraggio multifunzione dei pazienti CEI 62-126 (2002) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza per gli apparecchi di fototerapia intensiva CEI 62-127 (2002) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza, comprese le prestazioni essenziali, per i sistemi elettrocardiografi per uso ambulatoriale (Holter) CEI 62-128 (2002) Guida alle prove d’accettazione ed alle verifiche periodiche di sicurezza e/o di prestazione dei sistemi elettromedicali Esistono inoltre anche delle guide elaborate dal CT 62 come supporto tecnico di ausilio alla lettura e alla comprensione delle norme tecniche, alcune di queste sono: GUIDA CEI 62-39 (1992): "Apparecchi elettrici per uso estetico, Guida generale per la sicurezza" GUIDA CEI 62-43 (1993): "Guida all'utilizzo degli apparecchi per elettrochirurgia ad alta frequenza" GUIDA CEI 62-44 (1993): "Guida per la manutenzione degli apparecchi per l'elettrochirurgia" GUIDA CEI 62-46(1993): "Guida all'utilizzo dei defibrillatori cardiaci e defibrillatori con monitor incorporato" GUIDA CEI 62-47 (1993): "Guida per la manutenzione dei defibrillatori cardiaci e defibrillatori con monitor incorporati e defibrillatori con monitor incorporato" Il vasto segmento degli apparecchi di laboratorio, inizialmente rientrante nel settore degli apparecchi elettromedicali, è ora normato dalla CEI EN 61010 (CEI 66-5) del Marzo 2001 e riguarda tutti gli apparecchi di laboratorio che trattano campioni biologici purché non siano direttamente connessi all’organismo vivente. Il CT 64, si interessa di tutti gli impianti utilizzatori e pertanto solo come caso particolare di quelli nei locali adibiti ad uso medico. Fino a qualche anno fa vigeva la norma nazionale CEI 64-4 sui locali ad uso medico ma ora questa norma è stata abrogata e i suoi contenuti, sensibilmente modificati anche alla luce di una raccomandazione IEC ha dato luogo alla variante 2 della CEI 64-8 “Impianti elettrici utilizzatori” che è la norma nazionale più importante per questo settore e coordinata alla legislazione vigente in Italia (L.46/1990 e dei due decreti attuativi DPR 392/1994 e DM 380/2001 meglio noto come “testo unico dell’edilizia”). I contenuti della CEI 64-8 V2 sono le istruzioni per la buona esecuzione, per il corretto esercizio e per le verifiche degli impianti elettrici in locali adibiti ad uso medico. Esse si applicano integralmente agli ospedali, cliniche ed edifici nei quali l'uso medico è prevalente. Per quanto è possibile sono valevoli anche per i locali ad uso medico (ambulatori e studi dispense1.doc 36 professionali), installati in edifici civili. Tali Norme completano le indicazioni generali descritte dal precedente corpo normativo della CEI 64-8. Per ulteriori approfondimenti sulla produzione normativa del CEI si rimanda al sito internet www.ceiuni.it UNI L'UNI è stato fondato nel 1921 per iniziativa degli industriali meccanici e con la denominazione di "Controllo Generale per l'Unificazione dell'Industria Meccanica - UNIM". Con il Regio Decreto nø1107/30 fu trasformato in UNI - Ente Nazionale per l'Unificazione nell'Industria, e ne fu approvato lo statuto. Nel 1946, per iniziativa di un gruppo di industriali, l'UNI fu riorganizzato ed assunse la struttura di libera Associazione, di cui fu riconosciuta la personalità giuridica con il DPR n. 1522/55. Esso ha lo scopo di "unificare norme e prescrizioni generali interessanti sia la produzione sia il suo esito, di definire tipi unificati di materiali, di oggetti, di strumenti e di organi di macchine, di promuovere la diffusione e l'adozione delle norme unificate". Per il raggiungimento dei suoi scopi l'UNI provvede: - ad elaborare progetti o norme di unificazione, valendosi di commissioni tecniche (formate da rappresentanti dei produttori, dei consumatori interessati alle rispettive norme di unificazione e da tecnici e ricercatori) ed a curarne la pubblicazione e la diffusione; - a costituire archivi delle norme di unificazione nazionali ed estere; - a promuovere studi, pubblicazioni, riunioni, discussioni, esperienze e ricerche che interessano la normazione; - a promuovere e coordinare le iniziative di carattere scientifico, tecnico-applicativo e culturale che rientrano nel campo della normazione; - a mantenere i rapporti ed a collaborare con gli Enti di normazione degli altri paesi, con l'ISO, della quale l'UNI è uno dei Membri fondatori, e con altri Organismi di normazione a carattere regionale (CEI, CECA, ecc.); - ad effettuare ogni altra iniziativa che giudichi utile al raggiungimento dei suoi scopi. Attualmente sono in funzione circa 60 Commissioni Tecniche, articolate in Sottocommissioni e Gruppi di Lavoro con un totale di 500 organismi con più di 5000 membri. Nel settore di interesse opera la Commissione Attrezzature ed apparecchiature per uso medicale, composta attualmente da una trentina di esperti e articolata nelle seguenti Sottocommissioni (SC) o Gruppi di Lavoro (GL), corrispondenti ai Comitati Tecnici ISO o CEN di seguito indicati: SC Aghi e siringhe per iniezioni (ISO 84); SC Apparecchi ed attrezzature per anestesia e rianimazione (ISO 121); SC Apparecchi di circolazione extracorporea (con GL Emodialisi e GL Cardiochirurgia); SC Apparecchi per trasfusione ed infusione (ISO 70); GL Contraccettivi meccanici (ISO 157); SC Ergonomia (ISO 159); SC Meccanica medica (CEN 102); SC Odontotecnica (ISO 106); SC Protesi chirurgiche (ISO 150); SC Protesi ortopediche (ISO 168). Sono state sinora elaborate un centinaio di norme concernenti le apparecchiature, l'arredamento ospedaliero, la biancheria, i tessuti, i capi di vestiario e gli strumenti con impiego sanitario. Il catalogo delle norme è disponibile in rete all’indirizzo www.unicei.it ISO L'ISO, International Organization for Standardization, è un organismo a carattere privato, con sede a Ginevra, che raggruppa gli organismi di normazione nazionali di una novantina di paesi. Gli obiettivi perseguiti dall'ISO sono: - coordinamento e unificazione delle norme nazionali; - stabilire norme internazionali fondate sul massimo consenso; - organizzare lo scambio di informazioni tecniche tra gli istituti membri; - cooperare con tutte le organizzazioni internazionali aventi interessi comuni nel campo della normativa. In particolare l'ISO opera in tutti i settori produttivi ad eccezione del settore elettrotecnico, materia di competenza dell'IEC. La dicotomia tra i due Enti si riscontra in quasi tutti gli enti di normazione a tutti i livelli (mondiale, europeo e nazionale) e si deve a ragioni di natura storica. In Inghilterra, il BSI svolge attività normativa tanto nel settore generale che nel settore dispense1.doc 37 elettrotecnico; il DIN (Germania) e l'AFNOR (Francia), pur riconoscendo un'autonomia funzionale rispettivamente al DKE e all'UTE, detengono la responsabilità dell'insieme dell'attività normativa. Nelle intenzioni dell'ISO, secondo quanto emerso dall'Assemblea generale tenutasi nel settembre 1988 a Praga, vi è tuttavia la creazione di un unico grande organismo di normazione a livello mondiale che comprenda anche l'IEC. Sono in atto forme di collaborazione molto stretta tra le segreterie dei due organismi. La tendenza verso l'unificazione non è da registrare solo a livello di ISO e IEC ma anche a livello europeo dove la Commissione ha formalmente invitato in CEN, il CENELEC e l'ETSI a creare un'organizzazione unitaria. IEC Lo IEC, con sede a Ginevra è stato fondato nel 1906 per studiare i problemi dell'unificazione, della nomenclatura, delle prove e del collaudo degli apparecchi e delle macchine elettriche. Oggi aderiscono alla IEC 44 Enti normatori nel settore elettrico, che comprendono tutti i paesi industrializzati del mondo. Lo IEC ha lo scopo di facilitare la coordinazione e l'unificazione delle Norme nazionali relative all'elettrotecnica. Per far fronte a tale scopo pubblica le Raccomandazioni internazionali, predisposte da circa 200 Comitati e Sottocomitati tecnici. Ciascun Comitato Nazionale può contribuire allo sviluppo delle raccomandazioni sia inviando propri delegati ai Comitati Tecnici, sia commentando le bozze che vengono fatte circolare in pubblica inchiesta con particolari procedure e scadenze. La votazione finale per l'approvazione della raccomandazione elaborata è inoltre prerogativa dei Comitati nazionali. Nel 1966 è stato costituito il Technical Committee 62 (Electrical Equipment in Medical Practice) cui spetta il compito di preparare raccomandazioni relative alla produzione, all'installazione ed all'impiego delle apparecchiature elettromedicali utilizzate in campo sanitario (medico, chirurgo, odontoiatrico), con particolare riferimento ai problemi della sicurezza del paziente e dell'operatore, alle prestazioni funzionali, alle dimensioni, alla terminologia e ai simboli grafici. CEN Il CEN è l'organismo cui è affidato il compito di armonizzare le norme in campo europeo. E' stato creato nel 1961, con sede a Bruxelles, come associazione di tutti gli enti normatori europei: al CEN partecipano infatti anche i membri dell'Efta. Come già avviene a livello mondiale, il settore elettrotecnico dispone di un organismo di normazione separato, il CENELEC. I due organismi hanno come principali compiti lo studio, l'elaborazione, l'approvazione e la pubblicazione di norme europee, ed il collegamento con le organizzazioni internazionali, prima fra tutte l'ISO. La struttura operativa del CEN è del tutto simile a quella dell'ISO ed è costituita da circa 160 Comitati tecnici. La domanda di norme messe allo studio presso CEN-CENELEC proviene da tutti gli associati, dalla Commissione delle Ce o dalla segreteria dell'Efta, oltre che da organizzazioni internazionali o organizzazioni commerciali, professionali, tecniche, scientifiche a livello europeo. Se lo studio sull'oggetto della domanda di normazione è già stato effettuato o è in corso di svolgimento presso ISO-IEC, l'orientamento dei lavori CEN-CENELEC sarà verso l'adozione e se necessario verso l'elaborazione di complementi ai lavori di ISO-IEC. Il CEN-CENELEC produce varie pubblicazioni che contengono i diversi tipi di norme. L'approvazione è soggetta ad una procedura di voto ponderato, che assegna ai diversi paesi membri un diverso numero di voti in base all'importanza economica. I criteri in base ai quali una norma viene approvata sono, secondo il nuovo regolamento CEN-CENELEC adottato nel 1988, graduati come segue: a) i voti positivi superano i voti negativi; b) vi sono almeno 25 voti positivi; c) vi sono al massimo 22 voti negativi; d) al massimo tre membri votano negativamente. Come si può intuire la procedura di voto è estremamente snella e impedisce l'opposizione di singoli paesi nelle questioni di approvazione. Per i paesi come l'Italia, il cui peso è rilevante, la possibilità di sfruttare la sede CEN-CENELEC per appoggiare le proprie norme nazionali è molto forte. La sede CEN-CENELEC risulta essere, anche ai sensi dell'Art.7 della direttiva CEE 83/189, ideale per affrontare con successo i problemi legati all'armonizzazione delle normative volontarie a livello comunitario. In base alla suddetta direttiva il CEN viene chiamato a preparare delle proposte di normativa per conto della Commissione. Tuttavia non sempre la richiesta viene preceduta da una preventiva analisi mirata a verificare l'esistenza di condizioni politiche favorevoli. Questo comporta lo spostamento in sede CEN di scontri politici la cui soluzione spetterebbe ad altre sedi. Quella che segue è la classificazione delle norme: 1) Norma europea En; 2) Documento di armonizzazione Hd; 3) Norma sperimentale Env dispense1.doc 38 4. IMPIANTI ELETTRICI NEI LOCALI AD USO MEDICO. 4.1 NORME GENERALI E NORME PARTICOLARI La normativa CEI è caratterizzata in generale da due tipologie di norme: norme generali e norme particolari. Norma generale Norma che si propone di stabilire un soddisfacente raggiungimento di un particolare obiettivo per un'ampia categoria di apparecchi o impianti. Norma particolare Norma che per un ben determinato gruppo di apparecchi o impianti stabilisce, rispetto alla Norma Generale, quali articoli dovranno non essere applicati, modificati o aggiunti. Nel caso specifico degli impianti elettrici la norma generale è la CEI 64-8: Impianti elettrici utilizzatori a tensione nominale non superiore a 1000 V in corrente alternata e a 1500 V in corrente continua e la Variante 2 è da considerarsi come norma particolare per i locali ad uso medico. La norma CEI 64-8, che come giò detto è la principale norma che regola gli impianti elettrici utilizzatori, è suddivisa nelle seguenti parti: CEI 64-8/1: Oggetto, scopo e principi fondamentali CEI 64-8/2: Definizioni CEI 64-8/3: Caratteristiche generali CEI 64-8/4: Prescrizioni per la sicurezza CEI 64-8/5: Scelta ed installazione dei componenti elettrici CEI 64-8/6: Verifiche CEI 64-8/7: Ambienti ed applicazioni particolari Il motivo principale che ha portato alla stesura della attuale edizione 2003, va ricercato nella costante opera di adeguamento alla normativa internazionale e, in particolare, europea. Si ricorda a questo proposito che il TC 64 del CENELEC ha invitato i Comitati Tecnici Nazionali a recepire rapidamente i Documenti di Armonizzazione in modo da fornire agli operatori del settore un testo di norme impiantistiche il più omogeneo fra i vari stati membro. Tuttavia qualora esistano impianti elettrici da realizzarsi in locali ove si richiedano specifici accorgimenti, vedi il caso di locali ad uso medico, esistono norme particolari che devono comunque essere considerate sempre congiuntamente alla parte generale della CEI 64-8. Nel caso degli impianti elettrici in locali ad uso medico, la norma particolare è la Variante 2 ovvero il capitolo 710. Le prescrizioni del capitolo 710 della Norma CEI 64-8 devono essere applicate integralmente ad ospedali, cliniche ed edifici ad uso prevalentemente medico, e, per quanto è possibile, anche per i locali ad uso medico (ambulatori e studi professionali) installati in edifici civili. 4.2 PRESCRIZIONI PER LA SICUREZZA La sicurezza delle persone e dei beni che possono derivare dall’utilizzo degli impianti elettrici sono studiate nelle condizioni normali di utilizzo o comunque ragionevoli. I pericoli provocati dagli impianti elettrici sono essenzialmente costituiti da - effetti biologici pericolosi all’uomo (folgorazione) - temperature eccessive (incendi) la norma CEI 64-8 13 elenca le seguenti protezioni per garantire la sicurezza Protezione contro i contatti diretti Le persone devono essere protette contro i pericoli che possono derivare dal contatto con parti attive dell’impianto, mediante uno dei seguenti metodi: • impedendo che la corrente passi attraverso il corpo; • limitando la corrente che può attraversare il corpo ad un valore inferiore a quello patofisiologicamente pericoloso. dispense2.doc 39 Protezione contro i contatti diretti Le persone devono essere protette contro i pericoli che possono derivare dal contatto con masse in caso di guasto che provochi la mancanza dell’isolamento, mediante uno dei seguenti metodi: • impedendo che la corrente passi attraverso il corpo; • limitando la corrente che può attraversare il corpo ad un valore inferiore a quello patofisiologicamente pericoloso; • interrompendo automaticamente il circuito in un tempo determinato al verificarsi di un guasto suscettibile di provocare attraverso il corpo, in contatto con le masse, una corrente almeno uguale a quella pericolosa per il corpo umano. Protezione contro gli effetti termici I componenti elettrici, durante il servizio ordinario dell’impianto, devono essere tali da non provocare incendi né provocare ustioni a persone, purché in assenza di guasti. Protezione contro le sovracorrenti Le persone ed i beni devono essere protetti contro le conseguenze dannose di temperature troppo elevate o di sollecitazioni meccaniche dovute a sovracorrenti che si possano produrre nei conduttori attivi, mediante uno dei seguenti metodi: • interruzione automatica della sovracorrente • limitazione della sovracorrente massima Protezione contro le correnti di guasto I conduttori diversi dai conduttori attivi e qualsiasi altra parte destinati a portare correnti di guasto devono essere in grado di portare troppo elevate. Protezione contro le sovratensioni Le persone ed i beni devono essere protetti contro le conseguenze dannose di un guasto tra parti attive di circuiti alimentati con tensioni di valore differente. Le persone ed i beni devono essere protetti contro le conseguenze dannose di sovratensioni che si possono produrre per altre cause (come per es. per fenomeni atmosferici e sovratensioni di manovra). Protezione contro gli abbassamenti di tensione Quando un abbassamento di tensione, o la mancanza ed il successivo ripristino della tensione, possono comportare pericoli per le persone o per le cose, devono essere prese opportune precauzioni. 4.3 CLASSIFICAZIONE DEI LOCALI Poiché le caratteristiche e le protezioni occorrenti dipendono dalla specie di locale, vengono date le seguenti nuove definizioni dei locali. Locale di gruppo 2 Locale ad uso medico nel quale le parti applicate sono destinate ad essere utilizzate in operazioni chirurgiche, o interventi intracardiaci, oppure dove il paziente è sottoposto a trattamenti vitali per cui la mancanza dell’alimentazione può comportare pericolo per la vita. Locale di gruppo 1 Locale ad uso medico nel quale le parti applicate sono destinate ad essere utilizzate esternamente o anche invasivamente entro qualsiasi parte del corpo, ad eccezione della zona cardiaca. Locale di gruppo 0 Locale ad uso medico nel quale non si utilizzano apparecchi elettromedicali con parti applicate. Nei locali di gruppo 2 il paziente è soggetto al pericolo di microshock, oppure la mancanza dall’alimentazione elettrica ordinaria può comportare un pericolo per la vita del paziente. Come già detto il pericolo di microshock si manifesta quando la zona cardiaca del paziente è in diretto contatto elettrico con l’esterno per mezzo di elettrodi o cateteri pieni di liquido conduttore (ad es. liquido fisiologico) oppure dallo stesso operatore; sicché aumenta notevolmente il pericolo di fibrillazione ventricolare. In questo caso, il limite di pericolosità della corrente è di 10µA mentre per la persona in condizioni ordinarie il limite è di 10mA. In altri termini, nel microshock la corrente elettrica è mille volte più pericolosa che in condizioni ordinarie. dispense2.doc 40 Sono da ritenere di gruppo 2, ad esempio, i locali per anestesia, per chirurgia, per la preparazione alle operazioni, per risveglio postoperatorio, per l’applicazione di cateteri cardiaci, per cure intensive, per esami angiografici ed emodinamici. La sala parto, contrariamente a quanto ritenuto dalla vecchia norma non è più assimilata a sala chirurgica, sempre che non sia utilizzata per interventi chirurgici. I locali ad uso medico di gruppo 0 sono quelli nei quali non si usano apparecchi elettromedicali con parti applicate (*). Di fatto, nei locali di gruppo 0 non esiste un maggior rischio elettrico per il paziente, e infatti la norma non indica prescrizioni aggiuntive rispetto alle norme generali. In caso di dubbio sulla destinazione del locale non potranno essere più utilizzati apparecchi elettromedicali con parti applicate e ciò è molto difficile da affermare soprattutto in prospettiva futura. Tutti gli altri locali di uso medico che non siano di gruppo 2 o 0 sono di gruppo 1. Le misure di protezione da adottare sull’impianto elettrico sono uguali per i locali di uno stesso gruppo. 4.4 ZONA PAZIENTE Una grossa novità della nuova norma è l’introduzione della zona paziente definita come qualsiasi volume in cui un paziente con parti applicate può venire in contatto intenzionale, o non intenzionale, con altri apparecchi elettromedicali o con masse estranee, direttamente o per mezzo di altre persone in contatto con tali elementi. Le dimensioni convenzionali della zona paziente sono indicati in fig.3.4. Fig. 3.4 Zona paziente secondo la norma CEI 64-8 Capitolo 7.10 Da notare in proposito che, quando il paziente non ha un posto definito, la zona paziente diventa l’inviluppo delle singole zone relative all’insieme di tutte le possibili posizioni del paziente quando è in contatto con apparecchi elettromedicali alimentati dalla rete. Ne segue che la classificazione dei locali ad uso medico e le zone paziente, essendo legate all’uso dei locali, sono competenze della direzione sanitaria che deve quando meno sottoscrivere le scelte in base alle quali viene progettato l’impianto elettrico; deve essere inoltre consapevole che variando la destinazione d’uso di un locale gruppo 1 a gruppo 2, occorre adeguare l’impianto elettrico con tutte le conseguenze del caso. Va anche detto, che il progettista deve tenere conto dei possibili cambiamenti nel tempo delle esigenze cliniche. Ad esempio, in una camera di degenza la zona paziente fa capo al letto, poiché gli apparecchi elettromedicali vengono applicati al paziente quando è sul letto. Se c’è il testa-letto, il letto può essere spostato di poco ed è opportuno che il progettista tenga conto di quel poco ed è opportuno che il progettista tenga conto di quel poco nello stabilire la zona paziente. (*) Come vedremo più avanti per parte applicata si intende una parte, isolante o metallica, dell’apparecchio destinata in condizioni ordinarie ad essere portata in contatto con il paziente per ragioni funzionali. dispense2.doc 41 In un ambulatorio invece dove ci sono diversi apparecchi elettromedicali, è bene che il progettista consideri come zona paziente tutto il locale, altrimenti lo spostamento o l’introduzione di un nuovo apparecchio elettromedicale con parti applicate mette in crisi il sistema di protezione. Lo stesso dicasi tutte le volte che la posizione del letto del paziente nel locale non è fissa, o non è predeterminata in base all’attività clinica prevista. 4.5 SISTEMI DI DISTRIBUZIONE I sistemi di distribuzione dell’energia elettrica è la modalità di connessione fra generatore e utenze, i sistemi di distribuzione sono definiti in funzione del sistema di connessione dei conduttori attivi e del collegamento a terra. La generazione della BT (220U di fase e 380U concatenata) è quasi sempre ottenuta da trasformatori trifasi il cui secondario è a stella con centro stella a terra. Il conduttore distribuito del centro stella viene chiamato “neutro” indicato con N. Di seguito si riportano i sistemi di distribuzione previsti della Norma CEI 64-8. 4.5.1 Sistemi TN Il sistema TN ha un punto collegato direttamente a terra mentre le masse dell’impianto sono collegate a quel punto per mezzo del conduttore di protezione. Ai nostri scopi si distinguono 2 tipi di sistemi TN, secondo la disposizione dei conduttori di neutro e di protezione: TN-C: le funzioni di neutro e di protezione sono combinate in un solo conduttore (PEN) come riportato in fig. 4.1. TN-S: il conduttore di neutro e di protezione sono separati come riportato in fig. 4.2. Definendo come “anello di guasto” il percorso della corrente a seguito di un guasto, nel caso del sistema TN “anello di guasto” è costituito esclusivamente da elementi metallici come schematizzato in fig. 4.3 in cui Ιg è la corrente di guasto. Il valore di Ιg è generalmente pericoloso per cui occorre aprire rapidamente il circuito. I sistemi di distribuzione TN sono tipici delle grandi utenze (> 100 KW) alle quali l’Ente di erogazione dell’energia favorisce la media tensione generalmente a 15 KV. Gli ospedali appartengono sicuramente a questa categoria di utenti, o per essi è ammesso esclusivamente il sistema TN.S. Fig. 4.1 Sistema TN.C in cui il conduttore di neutro (N) coincide con il conduttore di protezione (PE) Fig.4.2 Sistema TN.S in cui il conduttore di neutro è separato dal conduttore di protezione. dispense2.doc 42 Fig. 4.3 Schema equivalente dell’anello di guasto (tratteggiato) e corrente di guasto (Ιg) nei sistemi TN. 4.5.2 Sistema TT Il sistema TT ha un punto collegato direttamente a terra e le masse dell’impianto collegate ad un impianto di terra elettricamente indipendente da quello del collegamento a terra del sistema di alimentazione, come riportato in fig.4.4. L’anello di guasto comprende la terra su una parte del suo percorso come schematizzato in fig. 4.4 in cui Ιg è la corrente di guasto. Il valore di Ιg è generalmente pericolosa per cui occorre aprire rapidamente il circuito. Fig. 4.4 Sistema di distribuzione TT I sistemi di distribuzione TT distribuiscono la tensione 220 V monofase e 380 V trifase e sono tipici delle piccole utenze (domestiche, commerciali, ecc.). 4.5.3 Sistema ΙT Nel sistema ΙT tutte le parti attive sono isolate da terra o meglio collegate a terra mediante una impedenza molto alta dovuta essenzialmente alle capacità parassite C, come riportato in fig.4.5. In caso di primo guasto, la corrente di guasto è molto piccola, generalmente non pericolosa per le persone e non necessita l’apertura del circuito. In caso di un secondo guasto a terra il sistema ΙT si degrada ai sistemi TT o TN visti precedentemente. Il sistema ΙT presenta le seguenti caratteristiche: - ha corrente di primo guasto molto piccola, generalmente non pericolosa; - consente, anche in presenza del primo guasto, di mantenere alimentate le utenze. La modalità più ricorrente per ottenere un sistema ΙT è il ricorso di un trasformatore in modo tale che l’utenza veda un generatore non riferito a terra come schematizzato in fig. 4.6. A tale trasformatore a cui è affidato il compito di realizzare un circuito isolato, si richiedono caratteristiche di affidabilità molto superiori ad un normale trasformatore. 4.5.4 Sistemi ΙT-M Nei locali di gruppo 2, ovvero con rischio di microshock, l’unico sistema di alimentazione previsto è il sistema ΙT ma con alcune peculiarità tali da essere denominato sistema ΙT-Medicale, ovvero sistema ΙT-M. dispense2.doc 43 Fig. 4.5 Sistema di distribuzione IT e relativo anello di guasto Fig.4.6 Sistema IT ottenuto mediante trasformatore di isolamento Infatti, il sistema elettrico ΙT-M è isolato da terra (Ι) le masse sono collegate a terra (T) e dunque è un sistema ΙT, ma un po’ particolare, perché il trasformatore deve essere di isolamento (fig.4.7), l’estensione dei circuiti alimentati dal trasformatore deve essere limitata ad un contenuto gruppo di utenze, occorre inoltre un dispositivo di controllo dell’isolamento continuativo inserito (Fig.4.9). Per il trasformatore di isolamento non esiste ancora una norma europea, tuttavia le principali caratteristiche sono: • Potenza massima di 10 KVA e minima di 0,5 KVA • Può essere mono o trifase ma la tensione massima al secondario è di 250V • Deve riportare in targa il simbolo di fig. 4.8 • È consigliato ma non obbligatorio un dispositivo di sorveglianza del sovraccarico e della sovratemperatura (termistore) • Necessita di un dispositivo di controllo dell’isolamento a meno che alimenti un solo apparecchio. • L’isolamento fra primario e secondario deve essere doppio o rinforzato oppure esservi uno schermo metallico collegato a terra • La resistenza di dispersione verso terra del circuito isolato (trasformatore d’isolamente + linea + apparecchi) deve essere superiore a 50 kΩ a cui corrisponde una corrente di circa 2 mA. Il dispositivo di controllo dell’isolamento, il cui schema di principio è riportato in fig.4.9, deve misurare la sola componente resistiva dell’impedenza e possedere i seguenti requisiti: • Impedenza interna di 100 kΩ • Tensione di prova non superiore a 25 Vcc (misura della sola componente resistiva dell’impedenza) • Corrente di prova non superiore a 1 mAcc anche in caso di guasto • Il dispositivo non può essere sconnesso • L’indicazione di perdita d’isolamento deve avvenire quando la resistenza d’isolamento scende sotto i 50 kΩ e deve azionare una luce gialla sempre accesa finché sussiste la perdita dell’isolamento e un segnalatore acustico tacitabile • Disporre di un pulsante di prova che verifica il buon funzionamento. Il sistema IT-M deve alimentare tutti i carichi elettrici (essenzialmente apparecchi biomedici) dell’intorno del paziente nei locali di gruppo 2 ad eccezione degli apparecchi di radiologici o altri apparecchi con potenza nominale superiore a 5kVA (alcuni laser chirurgici) per i quali è ritenuto sufficiente la protezione con interruttore differenziale di 30 mA. dispense2.doc 44 Potenza 3 kVa A (mm) 200 5 kVA 250 7,5 kVaE 250 10 kVA 300 B (mm) 125 C (mm) 330 D (mm) 110 E (mm) 85 Peso (kg) 21 150 380 110 115 38,5 160 380 110 125 43,5 180 380 110 150 49 Fig. 4.7 Schema costruttivo di un trasformatore di isolamento Fig.4.8 Simbolo del trasformatore d’isolamento ad uso medicale Fig.4.9 Schema di principio del dispositivo di controllo dell’isolamento 4.6 PROTEZIONE CONTRO I CONTATTI DIRETTI Si definisce contatto diretto il contatto con una parte di circuito ordinariamente sotto tensione, detta parte attiva come ad esempio un conduttore nudo, la virola di una lampadina, etc. dispense2.doc 45 I sistemi di protezione contro i contatti diretti consistono nell'insieme delle misure intese a proteggere le persone contro i pericoli risultanti dal contatto con parti attive. La protezione può essere di due tipologie, totale o parziale. La protezione parziale protegge solo contro il rischio di contatto accidentale, pertanto essa non esclude la possibilità di un contatto voluto di una persona con le parti in tensione, mentre la protezione totale la esclude, a meno di ricorrere a particolari "attrezzi". Le misure di protezione mediante isolamento delle parti attive e mediante involucri e barriere sono intese a fornire una protezione totale contro i contatti diretti, mentre le misure di protezione mediante ostacoli e mediante distanziamento sono intese a fornire una protezione parziale. Il grado di protezione è infatti classificato per mezzo di una sigla composta da "IP" seguito da due cifre, come riportato in fig.4.10. Il primo numero indica la protezione contro la penetrazione di corpi solidi e la norma nel dimensionare gli attrezzi di prova ha fatto riferimento a reali situazioni. Infatti il grado di protezione IP1x con sfera di prova di 50 mm di diametro simula il dorso della mano IP2x Con il cilindro di prova 90x12,5 mm simula un dito IP3x con cilindro di prova di 2,5 mm simula il giravite IP4x con cilindro di prova di 1 mm simula il filo IP4x e IP5x si riferisce a polvere standard La seconda cifra indica la penetrazione dell’acqua. Anche in questo caso il riferimento a circostanze reali è evidente. Infatti: IPx3 IPx5 IPx6 IPx7 IPx8 protetto contro la pioggia battuta dal vento getti d’acqua ondata immersione a bassa profondità (1m) sommersione ad alta profondità (10 m) Fig. 4.10 Gradi di protezione contro la penetrazione di corpi solidi e corpi liquidi dispense2.doc 46 4.7 PROTEZIONE CONTRO I CONTATTI INDIRETTI Può accadere che una parte metallica ordinariamente non in tensione, ad esempio l'involucro conduttore di un apparecchio elettrico, vada sotto tensione per un difetto di isolamento: questo caso viene chiamato contatto indiretto. Si dicono sistemi di protezione tutti quegli accorgimenti idonei ad evitare il contatto indiretto, ed a rendere gli apparecchi non pericolosi. E' consuetudine distinguere i vari sistemi di protezione in: - protezione passiva: non provoca l'interruzione del circuito e può essere realizzata ad esempio con doppio isolamento o adottando una bassissima tensione di sicurezza. protezione attiva: provoca l'interruzione del circuito. I dispositivi di protezione attiva sono raggruppati nelle seguenti due categorie: − Dispositivi a tempo inverso (interruttore magnetotermico e fusibile) − Interruttore differenziale Interruttore magnetotermico E’ il dispositivo più usato che apre il circuito quando la corrente supera un determinato valore. Concettualmente è realizzato con due dispositivi in serie e precisamente: − sensibile alle correnti poco superiori al valore nominale, mediante un bimetallo, detto a funzionamento “termico” − sensibile alle correnti molto superiori al valore normale (tipicamente il corto circuito) rilevate dal campo magnetico indotto in un toro di ferrite, detto a “funzionamento magnetico”. Lo schema costruttivo di un interruttore magnetotermico è riportato in fig. 4.11 nella quale: I = corrente da interrompere quando supera il valore prefissato 1 = contattore attraverso cui passa la corrente 2 = molla caricata alla chiusura del contattore 3 = dispositivo di sgancio della mella che se azionato comporta l’apertura del contattore 4 = bimetallo (comportamento termico) 5 = toro di ferrite (comportamento magnetico) 6 = avvolgimento che genera una ddp dipendente da I 7 = bobina che aziona lo sgancio della molla alimentata dalla ddp generata da “6” La caratteristica corrente di interruzione e tempo di intervento è riportato in fig. 4.12 nella quale è indicato l’intervallo in cui la caratteristica di tutti i dispositivi di determinata marca e modello vi rientrano. La norma di questi dispositivi (CEI 23-3) fissa delle porte in cui la caratteristica corente-tempo deve passare. Dette porte sono 2 per la parte termica e comune a tutti i dispositivi fino ad un certo limite di corrente (32 e 64A) e una sola per la parte magnetica che però può assumere tre valori contraddistinti con le lettere B, C, D. Fig. 4.11: Schema costruttivo di un interruttore magnetotermico In dettaglio i valori delle porte sono: dispense2.doc 47 1° porta: 2° porta: 3° porta: tempo di intervento 1 ora; corrente minima di intervento 1,13 della corrente normale (In); corrente massimo di intervento 1,45 In corrente di intervento 2,25 In; tempo minimo di intervento 1 s; tempo massimo di intervento 30 s tempo di intervento 0,1 s; Range di corrente di intervento Tipo B da 3 a 5 In Tipo C da 5 a 10 In Tipo D da 10 a 20 In Il ritardo dell’intervento magnetico è giustificato da alcuni carichi che presentano rilevanti correnti di spunto come ad esempio i trasformatori (corrente magnetizzante) le lampade alogene (bassa resistenza del filamento a freddo), ecc. Fig 4.12 Caratteristica di intervento di un interruttore magnetotermico I = corrente effettiva In = corrente nominale dell’interruttore Fusibile I/In Il fusibile è stato storicamente il primo dispositivo adattato per interrompere le correnti eccessive. Ancor oggi viene usato soprattutto per la peculiarità della sua caratteristica corrente-tempo che per valori molto alti di corrente agisce in tempi sensibilmente inferiori a quelli del magnetotermico. Anche per i fusibili vi sono quelli a intervento “ritardato”. La caratteristica tipica di un fusibile è riportata in figura 4.13 dove in sovrimpressione è riportata la caratteristica di un magnetotermico. dispense2.doc 48 Fig. 4.13 Caratteristica di intervento corrente-tempo del fusibile (1) e del magnetotermico (2) aventi la stessa corrente nominale In Interruttore differenziale L'interruttore differenziale è un dispositivo di interruzione della corrente elettrica, che agisce quando la differenza fra le correnti, che fluiscono nei conduttori di rete, supera un determinato valore. Gli interruttori differenziali oggi più diffusi agiscono per correnti differenziali di 30 mA, ed hanno tempi di intervento di 30 ms. Il dispositivo aumenta notevolmente la sicurezza di un impianto, in quanto limita a 30 mA la massima corrente che può fluire in un soggetto, nel caso di contatto diretto o indiretto. Per valutare l'eventuale pericolosità di questa corrente, si consideri la fig.4.14, su cui è stata disegnata la zona di intervento del dispositivo differenziale. Come si può vedere, le zone relative al maggior pericolo non sono mai raggiungibili. Lo schema di principio di un interruttore differenziale è rappresentato in fig.4.15. Esso è costituito da un toro di ferrite in cui passano i conduttori di fase. Se le correnti che percorrono ciascun conduttore sono esattamente uguali e di segno inverso, il campo magnetico indotto nel toro è nullo e nessuna tensione si creerà sull'avvolgimento. Se parte della corrente, che fluisce in un conduttore, si disperde e non ritorna attraverso l'altro conduttore, il campo magnetico indotto nel toro non sarà più nullo e si genererà una tensione ai capi dell'avvolgimento. Tale tensione azionerà un solenoide e, mediante un organo meccanico, si apriranno gli interruttori interrompendo quindi la corrente. Sono disponibili anche interruttori differenziali allo stato solido, aventi correnti differenziali di intervento di 5 mA. Lo schema di principio dei suddetti interruttori è riportato in fig.4.16. Fig.4.14 Curva di pericolosità della corrente a 50 Hz (IEC 479) (1) Assenza di reazioni nel corpo umano (2) Nessun effetto fisiologico pericoloso (3) Possibili effetti patofisiologici reversibili senza fibrillazione ventricolare (4) Probabile fibrillazione ventricolare A Caratteristica di un differenziale dispense2.doc 49 Fig.4.15 Schema di principio di un interruttore differenziale a funzionamento magnetomeccanico (≥30mA) Fig.4.16 Schema di principio di un interruttore differenziale di tipo elettronico (10 mA) I sistemi di protezione contro i contatti indiretti sono: a) Protezione mediante bassissima tensione Il concetto alla base di questo tipo di protezione è quello di utilizzare una tensione di per sé sicura. In questo caso la protezione è combinata contro i contatti diretti e indiretti. Da quanto già accennato le tensioni ritenute sicure nei casi ordinari sono di 50V efficaci in corrente alternata e di 120V in corrente continua. Nei locali ad uso medico i valori sicuri sono ridotti a metà. Se la bassissima tensione è ottenuta mediante trasformatore da una tensione più alta (tipicamente la rete a 220V) è necessario che il trasformatore sia realizzato con accorgimenti particolari tali da conferirgli una elevata affidabilità. In questo caso il trasformatore è chiamato “di sicurezza” ed è normato dalla norma europea CEI EN 61558.2-6 (CEI 96-7). Sono definiti vari sistemi a bassissima tensione e precisamente: SELV: bassissima tensione di sicurezza PELV: bassissima tensione di protezione FELV: bassissima tensione di funzionamento a seconda dell’utilizzo dei vari sistemi. dispense2.doc 50 La caratteristica essenziale di questi sistemi è che il circuito isolato è separato da qualsiasi altro circuito mediante: conduttori fisicamente lontani, con isolamento principale ed una guaina isolante, o con uno schermo guaina metallica messa a terra. b) Protezione mediante isolamento doppio o rinforzato Impedire qualsiasi contatto con parti attive è ottenuto ricoprendo in modo amovibile le parti sotto tensione da isolante tale da resistere alle normali sollecitazioni meccaniche, fisiche e chimiche. A questo isolamento si dà il nome di isolamento funzionale. Quando l’isolamento funzionale viene aumentato si parla di: isolamento doppio isolamento rinforzato quando è previsto in aggiunta all’isolante fondamentale un secondo isolamento di pari efficacia separato da quello fondamentale quando c’è un unico sistema di isolamento di dimensione maggiorata tale da offrire un grado di protezione contro i contatti elettrici equivalente al doppio dell’isolamento funzionale Il caso di guasto considerato è la perdita del solo isolamento funzionale, ma in questo caso la protezione al contatto indiretto è garantito dal secondo isolamento equivalente a quello funzionale. c) Protezione mediante interruzione automatica dell’alimentazione In questo caso per prevenire effetti pericolosi dell’energia elettrica sull’uomo, si interrompe l’alimentazione entro tempi prestabiliti. Il dispositivo di protezione deve interrompere automaticamente l’alimentazione al circuito in un tempo così piccolo da non produrre effetti fisiologici dannosi in una persona in contatto con parti ad una tensione di contatto superiore alla tensione di contatto limite convenzionale (50 o 25Vac) indicate dalle norme come UL. Le caratteristiche dell’interruzione dipende dal dispositivo usato e dal tipo di sistema di alimentazione. Sistema TN In questo caso la protezione è garantita dalla tempestività dell’interruzione. Il dispositivo di protezione deve soddisfare le seguenti due condizioni: − Corrente normale Ia che provoca l’interruzione del circuito inferiore alla corrente di guasto, ovvero Uo Ia ≤ ---------ZZ dove con Uo è indicata la tensione normale del circuito e ZZ l’impedenza dell’anello di guasto − Tempo massimo di intervento pari a Uo (V) 230 400 t (s) 0,4 0,2 In questo caso tutte le masse protette contro i contatti indiretti dello stesso dispositivo devono essere collegate allo stesso impianto di terra. Sistema TT Nel sistema TT un guasto tra una fase ed una massa provoca la circolazione di una corrente di guasto che dipende dall’impedenza dell’anello di guasto come riportato in fig. 4.17. L’impedenza dell’anello di guasto è essenzialmente costituita dalla resistenza RT che è verosimilmente la più alta e che è l’unica che genera la tensione di contatto e quindi determina la sicurezza del paziente. Deve essere soddisfatta la condizione UL RT ≤ --------Ia dove − UL è la tensione ritenuta sicura, 50 Vac nei casi normali ma 25 Vac nel caso di macroshock nei locali ad uso medico − Ia è la corrente che provoca il funzionamento automatico del dispositivo di protezione in ampere dispense2.doc 51 Fig.4.17 Protezione delò contatto indiretto nel sistema TT Il valore Ia varia enormemente in funzione dei dispositivi di protezione, che sono o dispositivi a tempo inverso (magnetotermici o fusibili) oppure Interruttori differenziali. Nel caso di dispositivi a tempo inverso Ia deve essere la corrente che ne provoca il funzionamento a 5 s. Questo valore è convenzionale, facilissimo da determinare nei casi pratici (tutti i costruttori di dispositivi forniscono le caratteristiche corrente-tempo) e tiene conto di tutti i molti parametri che influenzano la sicurezza dell’operatore. Il valore di 5 s non è da intendersi come tempo di intervento del dispositivo (che è generalmente molto inferiore) bensì come valore puramente convenzionale indicato dalla norma per determinare il valore di corrente per il quale la ragionevole sicurezza è garantita. Dispositivi a tempo inverso Effettuando una semplice verifica, ad esempio su un piccolo carico protetto con un interruttore magnetotermico con 32 A di In, dalla caratteristica tipo di fig.4.12 si vede che la corrente a 5s massima è di circa 200 A da cui 25 V RT ≤ ------- ≤ 0,125 Ω 200 A valore questo bassissimo e pressoché impossibile da rispettare nei casi reali. Ne segue che l’interruttore magnetotermico e anche il fusibile non sono praticamente sistemi idonei per proteggere dal contatto indiretto. Interruttore differenziale Nel caso si adotti un interruttore differenziale, la Ia diventa la corrente differenziale nominale di intervento del dispositivo, che la Norma CEI 64-8 prevede essere non superiore a 30 mA. L'utilizzo dell'interruttore differenziale permette quindi di realizzare un impianto di terra con una RT di valore superiore rispetto il caso precedente e quindi facilmente ottenibile. In questo caso il valore numerico di RT è: 25V RT ≤ ------- ≤ 830 Ω 30mA Tale valore è ottenibile praticamente con qualsiasi tipologia di dispersore di terra. Ne segue che l’interruttore differenziale è il dispositivo che protegge dal contatto indiretto praticamente in tutti i casi; da cui la generalizzata raccomandazione di usarlo. d) Sistema isolato Nei sistemi IT le parti attive sono isolate da terra o meglio “vedono” verso terra una alta impedenza. Nel caso di un singolo guasto a terra la corrente di guasto è quindi debole e non è necessario interrompere il circuito. La mancanza di interruzione dell’alimentazione dopo un primo guasto consente la continuità dell’esercizio in sicurezza, caratteristica questa particolarmente utile nelle alimentazioni di emergenza e nell’alimentazione degli apparecchi elettromedicali nei locali di gruppo 2. dispense2.doc 52 Solo in presenza di un secondo guasto il sistema si degrada ad un sistema del tipo TN o TT per cui occorre interrompere l’alimentazione. E’ necessario pertanto evitare il secondo guasto riparando tempestivamente il primo guasto appena si manifesta. Allo scopo di poter eliminare il primo guasto il più brevemente possibile si adotta il dispositivo di controllo dell’isolamento che segnala la presenza del primo guasto. Il sistema IT-M è l’unico sistema di protezione al contatto indiretto in caso di rischio di microshock e quindi previsto nei locali di gruppo 2 ove si prevede il contatto diretto cardiaco. In queste circostanze la tensione di contatto sicura, come già visto, è di 10 mV valore questo impossibile da garantire con un semplice sistema IT allorché di tipo medicale. E’ necessario proteggerci anche dalla differenza di potenziale del conduttore di protezione connesso a terra generata dalle correnti di guasto o di dispersione comunque o dovunque generate anche fuori dai locali di uso medico. Questo pericolo, potenzialmente mortale, si manifesta anche in assenza di guasti degli apparecchi elettromedicali connessi al paziente nei locali ad uso medico, come schematizzato in fig. 4.18 dove sono indicati due generici apparecchi di cui il paziente tocca, anche indirettamente mediante Z, gli involucri. La differenza di potenziale a cui è sottoposto il paziente è pari a R • I il cui valore masssimo, in totale ossequio alle norme viste precedentemente, può raggiungere nei locali ad uso medico ben 25 V, valore ovviamente incompatibile con la sicurezza del paziente. Anche se si osserva che il valore di 25V costituisce un valore limite, si può comunque osservare che la tensione di contatto per il paziente è realisticamente sempre molto superiore al valore di sicurezza di 10mV. Del resto non si può sperare di raggiungere detto valore sicuro diminuendo la R perché oltre un certo valore non è possibile scendere se non altro per le resistenze di contatto. L’abbattimento di tale tensione di contatto la si ottiene con il nodo equipotenziale schematizzato in fig. 4.19 in cui tutte le masse sono allo stesso potenziale anche se diverse da quello di terra. Si può notare che il potenziale di terra, nell’interno del paziente, dovuto ad una generica tubazione, è qui molto pericoloso, poiché potrebbe presentare una differenza di potenziale verso il nodo equipotenziale fino a 25V al massimo. La norma CEI 64-8 all’articolo 710.413.1.6.1 prescrive che in ciascun locale di gruppo 2 e 1 deve essere installato un nodo equipotenziale a cui siano collegate le seguenti parti situate, o che possono entrare, nella zona paziente: masse (conduttori di protezione); masse estranee (conduttori equipotenziali); schermi, se installati, contro le interferenze elettriche; eventuali griglie conduttrici nel pavimento (armature dei solai); l’eventuale schermo metallico del trasformatore di isolamento. La sezione nominale dei conduttori equipotenziali non deve essere inferiore a 6 mm2 in rame. La “massa” viene definita dalla norma come “parte conduttrice di un componente elettrico che può essere toccata e che non è in tensione in condizioni ordinarie, ma che può andare in tensione in condizioni di guasto. Nota: una parte conduttrice che può andare in tensione solo perché è in contatto con una massa non è da considerare una massa.” Il termine massa designa essenzialmente le parti conduttrici accessibili facenti parte dell’impianto elettrico e degli apparecchi utilizzatori separate dalle parti attive solo con isolamento principale. Il guasto si riferisce pertanto all’isolamento principale. Una parte metallica è considerata accessibile non solo quando è a portata di mano, ma anche quando può venire toccata dopo la rimozione di involucri o barriere senza l’uso di un attrezzo. Viene definita “massa estranea” la “parte conduttrice non facente parte dell’impianto elettrico in grado di introdurre un potenziale, generalmente il potenziale di terra.” Esempi di masse estranee che introducono il potenziale di terra sono: elementi metallici facenti parte di strutture di edifici; condutture metalliche di gas, acqua e per riscaldamento. Occorre valutare l’impedenza che le masse estranee presentano verso terra poiché senza questa valutazione tutti gli oggetti metallici sarebbero masse estranee se non altro per le capacità parassiti. La norma fissa i valori sotto i quali si configura la massa estranea. Essi sono: Caso normale: Resistenza (non impedenza capacitiva) ≤ 1.000 Ω Zootenia e cantieri in costruzione (ove i lavoratori possono sudare e dove il lavoro si può svolgere in ambiente umido): Resistenza ≤ 200 Ω Locali ad uso medico di gruppo 2 con rischio di microshock: Resistenza ≤ 0,5 MΩ. Questo valore nasce dalla considerazione che la massima tensione di contatto è 25V e la corrente di dispersione nel paziente ritenuta abbastanza sicura (primo guasto) degli apparecchi elettromedicali di tipo CF (contatto diretto cardiaco) è di 50 μA (fig.5.8) Locali ad uso medico di gruppo 1 con rischio di macroshock: Resistenza ≤ 200 Ω simile all’ambiente umido dispense2.doc 53 Fig. 4.18 Esempio di errata equalizzazione del potenziale Fig. 4.19 Esempio di corretta equalizzazione del potenziale La norma raccomanda di collegare i tavoli operatori, a posa fissa anche se non elettrici, al conduttore equipotenziale, in quanto ipotizza che essi possano venire in contatto con le armature di acciaio delle strutture di cemento armato. La norma prescrive, solo per i locali del gruppo 2, che la resistenza dei conduttori e delle connessioni, fra il nodo equipotenziale e le masse o masse estranee, non deve superare 0,2 Ω. Il nodo equipotenziale deve essere posto dentro o vicino al locale ad uso medico e deve essere collegato al conduttore principale di protezione, con un conduttore di sezione almeno equivalente a quella del conduttore di sezione più elevata collegato al nodo stesso. Le connessioni devono essere disposte in modo che esse siano chiaramente identificabili ed accessibili ed in grado di essere scollegate individualmente. dispense2.doc 54 Si può concludere che l’unico sistema di protezione contro i contatti indiretti consentito nei locali di gruppo 2 con rischio di microshock è il circuito isolato medicale (IT-M) abbinato al nodo equipotenziale mentre nei locali di gruppo 1 con rischio di macroshock il più usato sistema di protezione è l’interruttore differenziale a 30 mA abbinato al nodo equipotenziale. 4.8 PROTEZIONE CONTRO LE SOVRACCORRENTI La sovraccorrente, in un circuito correttamente progettato, è definita da una corrente superiore alla portata Iz di un conduttore. La portata Iz è quindi la massima corrente che un conduttore può trasportare in regime permanente, senza che la sua temperatura superi i valori massimi ammessi dal tipo di isolante impiegato. Infatti, il materiale isolante che riveste il conduttore è l'elemento debole che risente particolarmente della temperatura e che si deteriora se si superano i limiti fissati dal costruttore. Ogni materiale isolante ha una sua caratteristica temperatura di funzionamento che non deve essere superata in servizio ordinario per garantire al cavo una vita media che si intende, in linea di massima, compresa fra i 20 ed i 30 anni, tenendo conto degli inevitabili riscaldamenti anomali causati da guasti, durante il periodo di esercizio. Ricordiamo che la temperatura limite, di esercizio continuativo, per i materiali isolanti più comuni è di 70C per il cloruro di polivinile (PVC) e per il politene termoplastico, mentre è di 85 o 90C per le miscele a base di etilenpropilene (gomma). Un elemento particolarmente importante da tenere sempre presente è la temperatura ambientale alla quale il cavo si trova nella condizione di assenza di corrente. Appare evidente che tanto più elevata sarà la temperatura ambiente, quanto minore sarà la corrente che potrà attraversare il conduttore; al limite, se un conduttore con isolante in PVC si trovasse in un ambiente ad una temperatura di 70C, lo stesso conduttore non potrebbe essere utilizzato, in quanto anche una corrente di piccola entità farebbe superare al conduttore la temperatura limite e quindi lo porterebbe in una condizione di sovratemperatura. Qualora in un conduttore elettrico si superino le condizioni nominali di funzionamento, è necessario intervenire con i mezzi opportuni affinché si apra il circuito elettrico nei tempi adeguati, in modo da non far raggiungere all'isolante, ai collegamenti, ai terminali o all'ambiente esterno, temperature pericolose, tali da provocare situazioni che potrebbero evolvere in effetti dannosi per le persone e per le cose (incendi). Si parla di “sovraccarico” quando la corrente I è poco superiore a In; si parla di “corto circuito” quando la corrente I è molte volte il valore di In. Il sovraccarico interessa la parte termica degli interruttori magnetotermici mentre il corto circuito interessa la parte magnetica. a) Sovraccarico Per un corretto abbinamento fra dispositivo di protezione e circuito occorre che vengano rispettate le condizioni schematizzate in fig.4.20 in cui: Fig.4.20 Condizioni di corretto abbinamento fra dispositivo di protezione e circuito Ib è la corrente di impiego ovvero la massima corrente richiesta del carico. Tale corrente, nella maggior parte dei casi, è difficile da determinare, soprattutto negli impianti complessi ed è quindi necessaria una notevole preparazione tecnica ed un'esperienza professionale specifica. dispense2.doc 55 Iz - è la portata del cavo definita dal massimo valore di corrente che una conduttura può trasportare in regime permanente senza superare i limiti di temperatura massimi ammessi. Iz dipende dalla sezione del conduttore, dal tipo di isolante e dalla posa. Il valore di 1,45 Iz è stato definito in sede internazionale e rappresenta la massima sovraccaricabilità dei conduttori entro il tempo convenzionale di 1 ora senza deteriorarne gli isolanti. Oltre alle caratteristiche del circuito, è necessario conoscere anche le caratteristiche di funzionamento dei dispositivi di protezione definiti da: In è la corrente nominale (per i dispositivi di protezione regolabile la In sarà il valore della corrente regolata), definita da quel valore di corrente che l'apparecchio può portare continuativamente senza che le sue parti superino le temperature stabilite dalle specifiche norme If è la corrente convenzionale di intervento, definita da quel valore di corrente che determina l'intervento del dispositivo di protezione entro un intervallo di tempo convenzionale di 1 ora. Questi valori caratteristici sono forniti dai costruttori e rilevabili dalle documentazioni tecniche specifiche. Ovviamente la scelta delle caratteristiche delle protezioni, nonché del dispositivo più idoneo dovrà essere fatta dal progettista, valutando opportunamente tutti i parametri sia di funzionalità che di costo, sia di installazione che di esercizio. Analiticamente la condizione di corretto abbinamento fra circuito e dispositivo di protezione è: Ib ≤ In ≤ Iz (1) If ≤ 1,45 Iz (2) Nella condizione 1) si nota che la corrente Ib non dovrà superare la corrente nominale del dispositivo di protezione e quest'ultima non dovrà superare la portata del conduttore. Nella condizione 2) si nota che la corrente convenzionale If non dovrà superare il valore del 45% della portata del conduttore per il tempo convenzionale. b) Corto Circuito Ogni dispositivo di protezione contro i cortocircuiti deve rispondere alle due seguenti condizioni: • Il potere di interruzione non deve essere inferiore alla corrente di cortocircuito presunta nel punto di installazione • Tutte le correnti provocate da un cortocircuito che si presenti in un punto qualsiasi del circuito devono essere interrotte in un tempo non superiore a quello che porta i conduttori alla temperatura limite ammissibile. La norma indica, in prima approssimazione, questo tempo limite come: S √t = K --I dove t = durata in secondi S = sezione in mm2 I = corrente effettiva di cortocircuito in ampere, espressa in valore efficace; K = 115 per i conduttori in rame isolati con PVC; 143 per i conduttori in rame isolati con gomma etilenpropilenica e propilene reticolato La formula indicata suppone che il riscaldamento dei conduttori, durante il passaggio della corrente di cortocircuito, sia adiabatico. La formula è meglio rappresentata nel modo seguente: (I2 t) ≤ K2 S2 dove (I2 t) è l’integrale di Jopule per la durata del cortocircuito (in A2 s). dispense2.doc 56 (I2 Per i cortocircuiti di durata superiore ad alcuni periodi come nella maggior parte dei casi, il valore di t) si può ottenere assumendo per I il valore efficace in ampere della corrente di cortocircuito e per t il tempo di intervento del dispositivo per quella corrente di cortocircuito che è dell’ordine della frazione di secondi. La formula deve essere verificata per un cortocircuito che si produca in un punto qualsiasi della conduttura protetta. I valori della costante K sono stati determinati sulla base dei valori delle temperature massime ammesse durante il servizio ordinario e durante il cortocircuito per l’isolamento dei cavi. 4.9 COORDINAMENTO DELLE PROTEZIONI Un impianto è costituito da tanti rami ognuno protetto secondo lo schema monofilare di fig. 4.21. Il dispositivo A avrà ovviamente una corrente nominale INA maggiore della corrente nominale INB del dispositivo B. Nell’ipotesi che i dispositivi A e B siano interruttori magnetotermici le curve di intervento sono riportate in fig.4.22 dispense2.doc Fig.4.21 Esempio di più magnetotermici variamente posizionati Fig.4.22 Curva corrente-tempo degli interruttori magnetotermici A e B 57 Fig.4.23 Curva corrente-tempo nel caso di fusibile (B) e magnetotermico (A) Perciò con riferimento alla figura 4.22, un apparecchio di protezione B si dice selettivo rispetto al dispositivo A posto a monte, se per una gamma di sovracorrenti che si producono a valle di B, solo il dispositivo B interviene. Il problema fondamentale è quello perciò di coordinare due o più dispositivi di protezione posti l'uno a valle dell'altro, in modo da ottenere una certa selettività nell'intervento. Nel caso di sovraccarichi le protezioni sono sicuramente coordinate, mentre nel caso di cortocircuiti (correnti molto superiori della corrente nominale) il coordinamento è garantito purché la corrente di corto circuito sia inferiore alla corrente di intervento magnetico di A (IMA). Infatti per correnti di cortocircuito superiori a IMA non si può sapere quale magnetotermico intervenga. In questi casi può essere utile adottare anziché il magnetotermico B un fusibile di pari valore nominale la cui curva correntetempo è riportata in fig. 4.23. In questo caso il coordinamento delle protezioni è sempre garantito per qualsiasi valore di corrente di cortocircuito. 4.10 SORGENTI AUSILIARIE DI ENERGIA ELETTRICA 4.10.1 Problematiche In molti casi generali (sicurezza, servizi essenziali, etc) e in ambito sanitario, necessita la continuità di esercizio di alcuni apparecchi sia in caso di alcuni guasti che di black-out. Abbiamo già visto come l’alimentazione isolata (IT-M) garantisce il funzionamento in sicurezza di un apparecchio anche in caso di corto circuito verso terra. Per quanto riguarda la continuità di esercizio durante il black-out occorre disporre di sorgenti ausiliarie di energia elettrica. La scelta del tipo di sorgente ausiliaria dipende da: • • • Operatività delle utenze Tipologia della utenza Tipologie disponibili per le sorgenti ausiliarie a) Operatività delle utenze Le utenze da garantire in caso di blach-out si possono raggruppare in due classi: − Utenze di sicurezza dispense2.doc a cui è affidata la vita delle persone e in particolare del paziente. Alcune di queste utenze di sicurezza sono indicate da norme o leggi come ad esempio: la luce di fuga, i rilevatori d’incendio, ecc. Altre devono essere individuate dal gestore del processo congiuntamente con il progettista come ad esempio: l’illuminazione funzionale di alcuni locali critici (pronto soccorso, rianimazioni, ecc) l’alimentazione degli apparecchi vitali (di sala operatoria, come ventilatori polmonari, ecc) gli ascensori di emergenza (esempio fra pronto soccorso e sale operatorie, ecc). Per queste utenze il problema è di individuarle, in quanto la loro alimentazione in caso di blackout è un obbligo che non ammette sconti. L’autonomia di queste sorgenti è fissata dalla norma ed ha un valore tipico di 1 ora. Nel caso dei locali ad uso medico l’autonomia è elevata a 3 ore ma riconducibile a 1 ora se detto generatore è a suo volta alimentato da altro generatore ausiliario. 58 − Utenze preferenziali utenze a cui non è affidata la vita di persone ma che per libere considerazioni di opportunità economica o funzionale è vantaggioso garantire il funzionamento anche in caso di black-out. A questa categoria di utenze appartengono i frigoriferi, i centri di calcolo, ecc. Anche l’autonomia in questo caso è lasciata alla libera scelta dell’utente che lo stabilisce in funzione del risultato generale che vuole perseguire. Valori tipici in questi casi sono: 15 minuti per l’informatica qualora questo tempo sia sufficiente per effettuare il salvataggio della informazione parecchie ore nei casi in cui il black-out possa durare tanto. b) Tipologia delle utenze Ciascuna utenza, sia essa di sicurezza o preferenziale, deve essere valutata sia in termini di potenza elettrica richiesta sia in termini di massima interruzione accettabile in modo da poter individuare il più corretto generatore ausiliario. Ad esempio: − L’informatica è caratterizzata da modesti assorbimenti (unità di KVA) ma dal tollerare interruzioni brevissime (m s) − L’illuminazioni può assumere valori considerevoli di assorbimento e per evitare il panico delle persone tollera interruzioni molto superiori di quelle dell’informatica e dell’ordine delle frazioni di secondo − L’impianto di trattamento dell’aria assorbe considerevoli potenze (alcune decine di KVA) ma tollera interruzioni molto più lunghe senza generare situazioni di pericolo (minuti). c) Tipologie delle di sorgenti ausiliarie Le principali tipologie di sorgenti ausiliarie utilizzate in ambito sanitario sono: − UPS o gruppi di continuità statici che convertono l’energia elettrica accumulata su delle batterie in corrente alternata a tensione di rete (220 V, 380 V trifase). Questi dispositivi hanno tempi di intervento piccolissimi (ms) e sono idonei ad alimentare anche l’informatica. Sono i dispositivi più usati per garantire la continuità di esercizio nelle sale operatorie, nelle rianimazioni e in generale per tutte le utenze critiche. Le potenze fornite sono all’ordine fino a 15 KVA in monofase e 50KVA in trifase. − Batterie commutate da un relè normalmente chiuso ma tenuto aperto dalla tensione di rete. Quando viene a mancare la tensione di rete, il relè si disalimenta, il contatto si chiude e il carico viene alimentato dalla batteria (Fig. 4.24). Le batterie commutate si usano ormai quasi esclusivamente nelle lampade di emergenza alimentata in modo autonomo che presentano un tempo di intervento massimo fissato dalla norma di 0,5 s e una autonomia di 1 o 3 ore. Fig.4.24 Principio di funzionamento della sorgente ausiliaria a commutazione − Gruppo elettrogeno. E’ costituita da un motore diesel che fa ruotare un generatore elettrico. Il carico è chiuso sul generatore dopo che il motore è stato messo in moto e dopo aver raggiunto la velocità angolare di regime. I gruppi elettrogeni hanno un dispositivo di avviamento automatico e per facilitare la messa in moto, il motore è costantemente tenuto in riscaldamento. Il tempo di inserzione è fissato dalla norma in 15 s per le taglie piccole (≤ 500 KVA) e in 30 s per le taglie maggiori. Il generatore è quasi sempre trifase alla stessa tensione e frequenza di rete. 4.10.2 UPS Le configurazioni più comuni di UPS sono riportate in fig.4.25 dove la configurazione A è per le piccole potenze (<1KVA) e la configurazione B per le potenze maggiori. dispense2.doc 59 Fig. 4.25 Configurazioni tipiche degli UPS La caratteristica peculiare è che nella configurazione A è la batteria che alimenta sempre il carico e a sua volta è sempre tenuta sotto carica della rete. In questo caso il carico non “vede” mai il black-out. Nella configurazione B la batteria è sempre tenuta sotto carica ma il carico è normalmente alimentato dalla rete. Solo in caso di black-out la batteria alimenta il carico. La commutazione fra le due sorgenti è effettuata da una coppia di diodi controllati che garantiscono la commutazione in pochi ms. E’ da osservare che nella configurazione B l’elettronica di potenza e le batterie si attivano solo in caso di black-out, quindi per un tempo ridottissimo rispetto il tempo assoluto di funzionamento. Fig.4.26 Schema di principio di un UPS monofase In fig.4.26 è riportato lo schema di principio di un UPS. Si può osservare il carica batteria sempre inserito sulla rete, le batterie che forniscono l’energia durante il black-out e il circuito che trasforma la continua in alternata mediante un ponte di diodi controllati in cui se 1 sono conducenti, 2 sono interdetti e vice versa. La frequenza di commutazione è 100 Hz in modo che l’onda quadra generata sia a 50 Hz. Il trasformatore T porta la tensione sul secondario al valore nominale (tipicamente 220V) e il filtro CLC riduce le armoniche a un valore accettabile (tipicamente 3%) ottenendo quindi una sinusoide a 50 Hz. Questo tipo di UPS presenta l’inconveniente di aver bisogno di un ingombrante e costoso filtro per eliminare le armoniche dell’onda quadra per cui è poco usato se non per piccole potenze. Più diffusamente invece si adotta la costruzione della sinusoide mediante impulsi come riportato in fig.4.27. Ciascun impulso è facilmente ottenibile con l’OR dei “termine minimo” corrispondenti come mostrato in fig.4.28. Gli impulsi X1, X2, X3 comanderanno i diodi controllati come schematizzato in fig.4.29. La somma degli impulsi è effettuata attraverso il trasformatore. Si può notare che sul secondario del trasformatore vi è il segnale A+B+C (fig. 4.27), già molto simile ad una sinusoide per cui la filtrazione delle armoniche è molto facilitata. dispense2.doc 60 Per potenze maggiori, gli UPS sono trifasi. Per ottenere questa tensione si costruiscono sinusoidali sfasate di 120° come riportata in fig.4.30 che alimentano il primario di un trasformatore trifase T triangolo – stella (fig.4.31). Il secondario ha il centro stella a terra in quanto il sistema è TN.S, conseguentemente distribuisce sia il neutro (N) sia il conduttore di protezione (PE). Fig. 4.27 Costituzione della sinusoide mediante impulsi Fig. 4.28 Costituzione degli impulsi costituenti la sinusoide mediante OR dei termini minimi dispense2.doc 61 Fig. 4.29 Schema di principio del circuito per costituire la sinusoide per impulsi. Gli impulsi di A, B, C e di A+B+C sono riportati in fig. 4.26 Fig. 4.30 Generazione di tre sinusoidi sfasate di 120° 4.11 SINTESI DELLE PRESCRIZIONI IMPIANTISTICHE PREVISTE PER I LOCALI AD USO MEDICO Gruppo 2 − Locali ad uso medico in cui è presente il rischio di microshock. Appartengono a questo gruppo: le sale operatorie, i posti letto di terapia intensiva (coronarica, grandi ustionati, neonatologia, rianimazione, ecc.), le sale di cateterismo cardiaco, ecc. dispense2.doc 62 − − Valori tipici di sicurezza: correnti di 10μA; tensioni di contatto di 10 mV resistenza paziente 1 kΩ Protezione contro il contatto indiretto: L’unico sistema consentito è il circuito isolato IT-M e il nodo equipotenziale a cui sono connesse le masse e le masse estranee. La resistenza del conduttore di protezione deve essere inferiore di 0,2 Ω e la sezione del conduttore equipotenziale delle masse estranee deve essere almeno 6 mm2. La massa estranea presenta una resistenza verso terra inferiore o uguale a 0,5 MΩ. − Alimentazione di sicurezza per l’illuminazione funzionante (al 100%) e degli apparecchi vitali (apparecchio anestesia, monitor parametri vitali, ventilatori polmonari, pompe di infusione, ecc., ovvero tutti gli apparecchi che sostengono funzioni vitali o sono vitali per la cura del paziente. − Sorgente di energia ausiliaria: UPS (inserimento di pochi ms) con autonomia di una sola ora, perché alimentato con energia preferenziale (gruppo elettrogeno). Gruppo 1 − Locale ad uso medico in cui è presente il rischio di macroshock. Appartengono a questo gruppo: la sala parto (no taglio cesareo), le degenze, gli ambulatori che usano apparecchi elettromedicali, l’idroterapia, la radiodiagnostica (escluso coronarografie e angioplastiche) − Valori tipici di sicurezza sono: corrente di 10mA, tensione di contatto 25V, resistenza paziente 2,5kΩ. − Protezione contro i contatti indiretti: interruttore differenziale di 30mA e nodo equipotenziale a cui sono connesse le masse e le masse estranee. La massa estranea presenta una resistenza verso terra inferiore o uguale a 200Ω. − Alimentazione di sicurezza dell’illuminazione di fuga (5lx) e l’illuminazione funzionale ove richiesta (generalmente 50%). Generalmente non sono presenti apparecchi vitali. − Sorgente elettrica ausiliaria per l’illuminazione con tempi di intervento 0,5s (lampade di emergenza con batteria a bordo) o con alimentazione centralizzata da UPS. Gruppo 0 − Locale ad uso medico con rischio di macroshock in cui non è previsto l’uso di apparecchi elettromedicali − Valori tipici di sicurezza: corrente di 10mA, tensione di 25V, resistenza di 2,5kΩ − Protezione contro i contatti indiretti: interruttore differenziale e messa a terra delle masse − Alimentazione di sicurezza delle luci di fuga (5 lx) ALTRI CARICHI SICURI Alimentati da UPS (inserimento in ms) Informatica usata per la cura del paziente Altra illuminazione di emergenza Rivelatori antincendio (se di tipo informatico) Centrale telefonica Alimentati da gruppo elettrogeno (inserimento in 15 s) Ventilazione locali critici Sistemi antincendio (apertura finestra, aspirazione, autoclave e idranti, ecc.) Frigoriferi e congelatori biologici, frigoemoteche, ecc. CARICHI PREFERENZIALI sotto UPS Informatica di gestione sotto gruppo elettrogeno Illuminazione di conforto Centrale termica Centrale frigorifera Autoclavi per acqua calda e fredda Apparecchi di laboratorio Autoclavi a vapore per la sterilizzazione Frigoriferi e congelatori alimentari Cucina Porte elettrificate Letti elettrificati dispense2.doc 63 5. SORGENTI AUSILIARIE DI ENERGIA ELETTRICA 5.1 PROBLEMATICHE In molti casi (sicurezza, servizi essenziali, ecc.) e soprattutto in ambito sanitario, necessita la continuità di esercizio per alcune utenze anche in caso di black-out. Per garantire ciò occorre disporre di sorgenti ausiliarie di energia elettrica. La scelta del tipo di sorgente ausiliaria dipende da: • • • Operatività delle utenze Tipologia della utenza Tipologie disponibili per le sorgenti ausiliarie a) Operatività delle utenze Le utenze da garantire in caso di black-out possono essere raggruppate in due classi: − Utenze di sicurezza a cui è affidata la vita delle persone e in particolare del paziente. Alcune di queste utenze di sicurezza sono indicate da norme o leggi come ad esempio: la luce di fuga, i rilevatori d’incendio, ecc. Altre devono essere individuate dal gestore del processo congiuntamente con il progettista come ad esempio: l’illuminazione funzionale di alcuni locali critici (pronto soccorso, rianimazioni, ecc.) l’alimentazione degli apparecchi vitali (di sala operatoria, come ventilatori polmonari, ecc.) gli ascensori di emergenza (esempio fra pronto soccorso e sale operatorie, ecc.). Per queste utenze il problema è di individuarle, in quanto la loro alimentazione in caso di blackout è un obbligo che non ammette deroghe. − Utenze preferenziali utenze a cui non è affidata la vita di persone ma che per libere considerazioni di opportunità economica o funzionale è vantaggioso garantire il funzionamento anche in caso di black-out. A questa categoria di utenze appartengono i frigoriferi alimentari, i centri di calcolo, ecc. b) Tipologia delle utenze Ciascuna utenza, sia essa di sicurezza che preferenziale, deve essere valutata sia in termini di potenza elettrica richiesta sia in termini di massimo tempo di interruzione accettabile in modo da poter individuare il più corretto generatore ausiliario. Ad esempio: − L’informatica è caratterizzata da modesti assorbimenti (unità di kVA) ma tollera interruzioni brevissime (m s) − L’illuminazione può assumere valori considerevoli di assorbimento e per evitare il panico delle persone tollera interruzioni dell’ordine delle frazioni di secondo (tipicamente 0,5 s) − L’impianto di trattamento dell’aria assorbe considerevoli potenze (alcune decine di kVA) ma tollera interruzioni molto più lunghe senza generare situazioni di pericolo (decine di minuti). c) Tipologie delle di sorgenti ausiliarie Le principali tipologie di sorgenti ausiliarie utilizzate in ambito sanitario sono: − UPS o gruppi di continuità statici che convertono l’energia elettrica accumulata su delle batterie, in corrente alternata a tensione di rete (220 V, 380 V trifase). Questi dispositivi hanno tempi di intervento piccolissimi (ms) e sono idonei ad alimentare anche l’informatica. Sono i dispositivi più usati per garantire la continuità di esercizio nelle sale operatorie, nelle rianimazioni e in generale per tutte le utenze critiche. Le potenze fornite sono dell’ordine di 15 kVA in monofase e 60kVA in trifase. − Batterie commutate da un relè normalmente chiuso ma tenuto aperto dalla tensione di rete. Quando viene a mancare la tensione di rete, il relè si disalimenta, il contatto si chiude e il carico viene alimentato dalla batteria (Fig. 5.1). Le batterie commutate si usano ormai quasi esclusivamente nelle lampade di emergenza alimentata in modo autonomo che presentano un tempo di intervento massimo fissato dalla norma di 0,5 s e una autonomia di 1 o 3 ore. dispense3.doc 64 Fig.5.1 − Principio di funzionamento della sorgente ausiliaria a commutazione Gruppo elettrogeno. E’ costituito da un motore che fa ruotare un alternatore. Il carico è chiuso sul generatore dopo che il motore ha raggiunto la velocità angolare di regime. I gruppi elettrogeni hanno un dispositivo di avviamento automatico per la messa in moto e il motore è costantemente tenuto in riscaldamento. Il generatore è quasi sempre trifase alla stessa tensione e frequenza di rete. Solo per gruppi o insieme di gruppi elettrogeni di rilevante potenza viene generata la media tensione (15 kV). Per dimensionare correttamente i generatori ausiliari occorre tipizzare tutti i carichi in funzione della loro operatività, potenza richiesta e tempi di interruzione ammessi. A titolo di esempio nella tabella di fig.5.2 è riportata una tipica classificazione dei carichi nel caso di un ospedale. In condizioni normali tutti i carichi sono alimentati dalla rete ordinaria di alimentazione elettrica e solo in caso di black-out entra in funzione il gruppo elettrogeno e l’UPS. In fig.5.3 è riportato lo schema di principio dell’impianto elettrico di un ospedale. L’inserzione del gruppo elettrogeno è possibile solo dopo la separazione dei carichi dalla rete ordinaria; ciò avviene con contattori azionati elettricamente e meccanicamente, interconnessi per garantire la sequenza dell’apertura e della chiusura del circuito, normalmente sistemati in un quadro elettrico detto “di commutazione”. Il tempo necessario per mettere in funzione automaticamente il motore, regolarne la velocità al valore prefissato, sconnettere i carichi privilegiati dalla rete ordinaria e connetterli all’alternatore del gruppo elettrogeno, è fissato dalla norma CEI 64-8 in 15 s per i gruppi elettrogeni fino a 500kVA e 30 s per le potenze superiori. In questo intervallo di tempo sono possibili ulteriori tentativi di messa in moto automatica qualora il primo tentativo fallisse. Anche l’inserimento dell’UPS avviene solo dopo che il carico sia stato sconnesso, ma la commutazione non avviene mediante contattori ma mediante diodi controllati il cui tempo di commutazione è dell’ordine dei ms. Per quanto riguarda l’autonomia dei generatori ausiliari la norma la fissa solo esclusivamente per le utenze sicure, lasciando libero il gestore dell’impianto di fissarla per le utenze privilegiate seguendo criteri di pura opportunità, generalmente economica. Il razionale alla base della scelta dell’autonomia dei generatori ausiliari è la prevedibile durata del black-out. La norma CEI 64-8 fissa le seguenti autonomie dei generatori ausiliari: − Gruppo elettrogeno: 24 ore. Tale intervallo di tempo dovrebbe essere sufficiente a coprire la maggior parte dei black-out. Tuttavia fatti recenti hanno mostrato che possono verificarsi eccezionalmente black-out di durata maggiore. Per questi casi eccezionali è ipotizzabile che la Protezione Civile o chi per essa, abbia il tempo di rifornire di carburante il gruppo elettrogeno. Coerentemente al razionale sopra accennato, la norma consente di ridurre l’autonomia a una durata inferiore purché si dimostri senza ombra di dubbio che entro tale tempo sia possibile mettere in sicurezza il processo. − UPS dispense3.doc Il tempo ritenuto sufficiente per mettere in sicurezza le persone o più in generale un processo, è di 3 ore. Questo intervallo di tempo è sicuramente sufficiente per evacuare un edificio in caso di pericolo (esempio: incendio) oppure concludere una manovra medico-chirurgica o sospendere in sicurezza un intervento chirurgico. 65 In ambito sanitario la norma CEI 68-4 prevede per l’UPS di ridurre l’autonomia a 1 ora purché l’UPS stesso sia alimentato da un altro generatore ausiliario con autonomia di almeno 3 ore (tipicamente il gruppo elettrogeno). Il razionale di questa possibilità, che è molto vantaggiosa sul piano tecnico ed economico, come vedremo più avanti, appoggia sulla convinzione che in un’ora la quasi totalità dei processi sono messi in sicurezza ed inoltre in tale tempo si potrà mettere in funzione il gruppo elettrogeno anche con procedura manuale nella deprecata eventualità che non partisse in modo automatico. Come si può notare, se vengono seguite tutte le prescrizioni normative si ottiene un sistema molto affidabile, pur non potendosi escludere coincidenze multiple tutte sfavorevoli, la cui probabilità di insorgenza è senza dubbio molto remota e perciò accettabile. In casi particolari ove è manifesto che l’autonomia di 3 ore è eccessiva, la stessa norma consente l’autonomia di 1 ora (esempio le luci di sicurezza di piccoli ambienti a rischio ridotto) Per utenze non di sicurezza ma importanti sul piano funzionale come ad esempio l’informatica, è prevalso l’orientamento di garantire una autonomia di soli 15 minuti in quanto tale periodo è considerato più che sufficiente per la chiusura dei programmi di elaborazioni in corso e quindi per il salvataggio dei dati. I circuiti di sicurezza tuttavia devono presentare un grado di affidabilità maggiore rispetto gli altri circuiti. Ciò si ottiene adottando ad esempio cavi con isolanti particolarmente resistenti al fuoco, protetti meccanicamente dagli urti (esempio in canaline o tubazioni in ferro) e possibilmente separati fisicamente dagli altri circuiti in modo tale che un evento negativo (esempio: incendio, crollo, urto, ecc.) possa interessare al più un solo tipo di circuito alla volta. Dalle analisi congiunta delle figure 5.2. e 5.3 emerge che i generatori ausiliari alimentano sia utenze privilegiate che utenze sicure. La norma CEI 64-8 all’articolo 562.5 prevede questa eventualità purché: • • Tutte le utenze sicure non siano compromesse dall’alimentazione di altre utenze Un guasto relativo alle altre utenze non comporti l’interruzione di qualsiasi circuito di alimentazione delle utenze sicure. Ciò può essere facilmente garantito con l’opportuna taratura dei dispositivi a massima corrente (magnetotermici o fusibili) a protezione dei singoli circuiti. UTENZE DI SICUREZZA UTENZE PRIVILEGIATE • Illuminazione ausiliaria • Altre centrali tecnologiche • Apparecchi ed utenze non essenziali • Altri elevatori • Apparecchi radiologici • Alimentazione del gruppo elettrogeno RETE ORDINARIA GRUPPO ELETTROGENO • • • • • • • • • • • UPS • • Elevatori di emergenza Ventilazione locali critici Frigoriferi biologici Centrale rilevazione incendi Controllo e supervisione impianti Impianti antincendio Impianti indispensabili Apparecchi radiologici di sala operatoria o Pronto soccorso Alimentazione UPS Illuminazione di emergenza Illuminazione funzionale locali critici Apparecchi biomedici critici Informatica di sicurezza • Illuminazione integrativa • Ventilazione locali operativi • Centrale di trattamento dell’aria • Autoclavi • Elevatori di servizio • Informatica in genere • Apparecchi con informatica a bordo Fig. 5.2 Tipica classificazione dei carichi di un ospedale dispense3.doc UTENZE ORDINARIE POTENZA ORIENTATIVA 100% del totale 50% del totale 10% del totale 66 Fig.5.3. Fig. 5.3 Schema di principio di un impianto elettrico ospedaliero 5.2 UPS Le configurazioni più comuni di UPS sono riportate in fig.5.4 dove la configurazione A è per le piccole potenze (<1kVA) e la configurazione B per le potenze maggiori. Fig. 5.4 Configurazioni tipiche degli UPS La caratteristica peculiare è che nella configurazione A è la batteria che alimenta sempre il carico e a sua volta è sempre tenuta sotto carica della rete. In questo caso il carico non “vede” mai il black-out della rete. Nella configurazione B la batteria è sempre tenuta sotto carica ma il carico è normalmente alimentato dalla rete. Solo in caso di black-out, la batteria alimenta il carico. La commutazione fra le due sorgenti è effettuata da una coppia di diodi controllati che garantiscono la commutazione in pochi ms come già accennato. E’ da osservare che nella configurazione B l’elettronica di potenza e le batterie si attivano solo in caso di black-out, quindi per un tempo ridottissimo rispetto il tempo assoluto di alimentazione del carico. dispense3.doc 67 Fig.5.5 Schema di principio di un UPS monofase In fig.5.5 è riportato lo schema di principio di un UPS. Si può osservare il carica batteria sempre inserito sulla rete, le batterie che forniscono l’energia durante il black-out e il circuito che trasforma la continua in alternata mediante un ponte di diodi controllati in cui se 1 sono conducenti, 2 sono interdetti e vice versa. La frequenza di commutazione è 100 Hz in modo che l’onda quadra generata sia a 50 Hz. Il trasformatore T porta la tensione sul secondario al valore nominale (tipicamente 220V) e un filtro con capacità e induttanze riduce le armoniche ottenendo quindi una quasi sinusoide a 50 Hz. In fig. 5.6 è riportato lo schema di un filtro utilizzato per eliminare le armoniche dell’onda quadra di un UPS di tipo trifase che consente di contenere le armoniche entro il valore accettabile del 3%. Fig.5.6 Esempio di filtro per ridurre le armoniche negli UPS Questo tipo di UPS presenta l’inconveniente di aver bisogno quindi di un ingombrante e costoso filtro per eliminare le armoniche dell’onda quadra per cui è poco usato se non per piccole potenze. Più diffusamente invece si adotta la costruzione della sinusoide mediante impulsi come riportato in fig.5.7. Ciascun impulso è facilmente ottenibile con l’OR dei “termine minimo” corrispondenti come mostrato in fig.5.8. Gli impulsi X1, X2, X3 comanderanno i corrispondenti diodi controllati di fig. 5.9. Sempre dalla figura 5.9 si evince che la somma degli impulsi A, B, C è effettuata attraverso il trasformatore. Si può notare che sul secondario del trasformatore di fig.5.9 vi è il segnale A+B+C (coincidente con quello di fig.5.7), già molto simile ad una sinusoide per cui la filtrazione delle armoniche è molto facilitata. Per potenze maggiori, gli UPS sono trifasi. Per ottenere questo tipo di tensione, si costruiscono sinusoidali sfasate di 120° come riportata in fig.5.10 che alimentano il primario di un trasformatore trifase triangolo – stella (fig.5.11). Il secondario ha il centro stella a terra in quanto il sistema è TN-S, conseguentemente distribuisce sia il neutro (N) sia il conduttore di protezione (PE). dispense3.doc 68 Fig. 5.7 Costituzione della sinusoide mediante impulsi Fig. 5.8 Costituzione degli impulsi costituenti la sinusoide mediante OR dei termini minimi dispense3.doc 69 Fig. Fig. 5.9 Schema di principio del circuito per costituire la sinusoide per impulsi. Gli impulsi di A, B, C e di A+B+C sono riportati in fig. 5.7 Fig.5.10 Generazione di tre sinusoidi sfasate di 120° dispense3.doc 70 Fig. 5.11 Schema di principio di un UPS trifase dispense3.doc 71 5.3 BATTERIE Per batteria si intende un dispositivo elettrochimico ad azione reversibile che accumula, sotto forma di energia chimica, l’energia elettrica accumulata durante la fase di carica, per poterla erogare come energia elettrica nella fase di scarico. Poiché la batteria dell’attuale generazione tecnologica è molto lontana dall’ideale, vi sono diversi tipi di batteria, ciascuna delle quali ottimizzata sulla specifica applicazione. Le principali tipologie di batterie sono: • Batterie da avviamento • Batterie da trazione • Batterie stazionarie Le batterie di avviamento (SLI starting lighting and ignition) sono utilizzate essenzialmente per mettere in moto i motori a scoppio. Dal punto di vista elettrico la batteria è caratterizzata dal fornire una elevatissima corrente per un tempo molto breve e quindi avere una bassa resistenza interna. Devono essere tenute sempre cariche. Le batterie di trazione (motive power batteries) sono usate come sorgenti di energia per automezzi o carrelli industriali. La principale caratteristica di queste batterie è di doversi scaricare completamente in tempi lunghi ed avere un buon comportamento nei cicli di carica-scarica. Oggi sono disponibili batterie di trazione che garantiscono fino a 2.000 cicli completi di carica-scarica. Le batterie stazionarie (stand-by batteries) sono usate negli UPS. La caratteristica più significativa di queste batterie è l’affidabilità di servizio e la vita funzionale che deve essere almeno di 10 anni. Queste batterie sono caratterizzate da essere sempre sotto carica e dall’erogare energia solo sporadicamente (durante i black out energetici). Nel seguito sarà considerato solo quest’ultimo tipo di batteria. 5.3.1 Batterie al piombo a vaso aperto Le batterie stazionarie più usate sono quelle al piombo, essenzialmente costituite da un elettrodo di biossido di piombo per l’elettrodo positivo (anodo), un elettrodo di piombo spugnoso per l’elettrodo negativo (catodo), entrambi immersi in un elettrolita costituito da una soluzione diluita di acido solforico. Le reazioni elettrochimiche fondamentali e i potenziali degli elettrodi che caratterizzano questa reazione sono: all’elettrodo positivo PbO2 + 4H+ + 2 ePb2+ + SO42- Pb2+ + 2H2O PbSO4 Ec0 = +1,685 V all’elettrodo negativo Pb2+ + 2e- Pb Pb2+ + SO42- PbSO4 Ea0 = -0,356 V Il processo conclusivo sarà: scarica Pb + PbO2 + 4H+ + 2SO42- carica 2PbSO4 +2H2O E0 = +2,041 V dove Ea0 ed Ec0 sono i potenziali di equilibrio dell’anodo e del catodo rispettivamente dispense4.doc (1) 72 5.3.2 Scarica della batteria La tensione E0 non rappresenta però la tensione erogata dalla batteria durante il suo funzionamento, in quanto la tensione ai capi della batteria è influenzata dalle sovratensioni degli elettrodi e dalla resistenza interna. Infatti durante la scarica il biossido di piombo dell’elettrodo positivo come pure il piombo dell’elettrodo negativo si trasformano in solfato di piombo sottraendo all’elettrolito acido solforico. La diminuzione di concentrazione di acido nell’elettrolito riduce la quantità di elettricità erogata; ciò provoca una caduta di tensione, all’inizio lenta, poi più rapida fino a raggiuingere il limite minimo di tensione ammessa (detta tensione di fine scarica Vf ) che è funzione della corrente di scarica. I valori numerici della tensione durante la scarica e di Vf di una tipica batteria al piombo sono riportati in fig. 5.12 Fig.5.12 Tipiche caratteristiche di una batterie al piombo Quando la batteria si ricarica, la reazione procede da destra verso sinistra. Il solfato di piombo dell’elettrodo positivo si riconverte in biossido di piombo e il solfato di piombo dell’elettrodo negativo in piombo spugnoso. Si forma dell’acido solforico e contemporaneamente si consuma dell’acqua per cui la densità dell’elettrolito aumenta e ritorna ai valori iniziali. Uno dei parametri più significativi della batteria è la “capacità” definita come la quantità di elettricità fornita durante la scarica finché la tensione non scende al valore limite di Vf. L’unità di misura della capacità di una batteria è l’ampere per ora (Ah) che dipende sensibilmente dalla corrente di scarica e dal tempo di scarica. Per convenzione la capacità nominale delle batterie (detta C10) è riferita ad una scarica a corrente costante per 10 ore alla temperatura di 20C . Per scariche più veloci, come ad esempio quelle previste negli impianti ad uso medico, di 3 o 1 ora la capacità della batteria si riduce rispettivamente al 75% e al 50% come riportato in fig.5.13. Fig.5.13 Capacità di una batteria in funzione della durata della scarica In fig.5.14 è riportato l’andamento della corrente di scarica in funzione della durata della scarica riferita al valore nominale di corrente per scarica di 10 ore, I10 . dispense4.doc 73 Fig.5.14 Andamento della corrente di scarica in funzione della durata della scarica Un andamento tipico delle capacità della batteria in funzione della temperatura è riportato in fig.5.15. Come si vede per variazioni di temperatura abbastanza normali fra l’estate e l’inverno per locali non trattati, quali ad esempio i sottotetti nei quali normalmente vengono sistemati gli UPS, si possono creare variazioni di capacità dell’ordine del 30%. Si deve osservare che è molto sconveniente utilizzare le batterie attorno ai 40C, anche se in queste condizioni si hanno le maggiori capacità, perché a questa temperatura la vita delle batterie diminuisce sensibilmente come vedremo. Fig.5.15 Capacità della batteria funzione della temperatura in Un altro fenomeno rilevante per le batterie stazionarie è l’autoscarica, ovvero il fenomeno per cui la capacità della batteria diminuisce anche quando essa è lasciata a circuito aperto. Questo processo, dipende dal fatto che sia il piombo che il biossido di piombo sono termodinamicamente instabili in acido solforico. Per questo anche quando la batteria è in condizioni di circuito aperto, si verificano delle reazioni che causano una lenta liberazione di idrogeno ed ossigeno: PbO2 + H2SO4 Pb + H2SO4 PbSO4 + H2O + ½ O2 PbSO4 + H2 Entrambe queste reazioni sono lente per cui si ha una perdita dell’ordine dello 0,6% al giorno per una cella nuova completamente carica, ma raggiunge valori dell’ordine del 2,5% per batterie a fine vita operativa. Questo fenomeno non si verifica nell’uso normale delle batterie connesse all’UPS che, come visto, sono sempre tenute sotto carica, mentre diventa rilevante nell’immagazzinamento di batterie nuove. Infatti alcuni Costruttori indicano come tempo massimo oltre il quale la batteria deve essere ricaricata, se si vogliono evitare degradi irreversibili, addirittura 3 mesi. 5.3.3 Carica della batteria Durante la fase di carica della batteria al piombo, grazie alla corrente fornita da una sorgente esterna, la reazione (1) procede da destra a sinistra. La sorgente esterna deve essere a corrente continua. La reazione (1) non descrive però completamente il comportamento della cella durante la carica. Infatti, man mano che gli elettrodi si ricaricano, la corrente assorbita viene consumata nella decomposizione dell’acqua che perciò deve essere reintegrata. Così si ha: • Produzione di ossigeno all’elettrodo positivo 2H2O dispense4.doc O2 + 4H+ + 4e- 74 • Produzione di idrogeno all’elettrodo negativo 2H+ + 2e- H2 A causa di queste reazioni, che potremmo definire parassite rispetto al processo principale, la ricarica dell’accumulatore non ha rendimento unitario, cioè l’energia che bisogna somministrare sarà sempre più grande di quella che si riuscirà a immagazzinare e quindi a prelevare. Detto rendimento (detto anche “efficienza amperometrica” o il suo inverso chiamato “fattore di carica”) è dell’ordine dell’85%. Il rendimento peggiora con la profondità della scarica raggiunta, con la velocità della ricarica e anche se la batteria è stata tenuta parzialmente o completamente scarica. La produzione di idrogeno durante la ricarica della batteria comporta gravi inconvenienti in quanto l’idrogeno mescolato con l’aria dà origine a miscele esplosive. Per evitare ciò la norma CEI 21-6 prescrive nei locali batterie una portata d’aria v pari a: v = 0,05 NI (m3/h) Dove N è il numero di elementi, I è la massima corrente di carica espressa in A. La bontà della carica di una batteria dipende dalla qualità della corrente continua, in quanto componenti alternate o semplice ripple causano riscaldamento della cella e sensibili accorciamenti della vita operativa. Da queste considerazioni scaturisce che un carica batterie non può adottare un semplice ponte di diodi alimentato in monofase (fig.5.16 A) né l’utilizzo di filtri può essere sufficiente considerando le considerevoli potenze in gioco negli UPS di uso generale (>30 kVA). Il raddrizzatore più usato è il ponte trifase (detto anche esafase dal numero di sinusoidi) riportato in fig.5.16 B che presenta un ripple di circa ±5%. Meglio ancora è il ponte trifase stella–triangolo (detto anche dodecafase in quanto le sinusoidi sono 12 sfasate di 30° ciascuna) riportato in fig. 5.16 C che presenta un ripple di circa ±1,5%. Fig.5.16 Tipici raddrizzatori usati per caricare le batterie dispense4.doc 75 Durante la carica della batteria a corrente costante di 0,1 C10 si ha un aumento della tensione delle batterie dovuto all’aumento della densità dell’acido che cessa appena raggiunta la piena carica e si arriva alla stabilizzazione della densità dell’acido. L’aumento della tensione della batteria in carica, è caratterizzata da due fasi distinte come riportato in fig.5.17. La prima si ha fino al raggiungimento della tensione di sviluppo di gas che tipicamente vale 2,2 V/elemento. La seconda fase termina con il completamento della carica a cui corrisponde una tensione tipica di 2,7 V/elemento. Fig.5.17 Andamento tipico della tensione di carica della batteria La durata della carica dipende da vari fattori fra cui la carica residua e la corrente nonché dal metodo adottato nella carica. Il sistema più usato per caricare una batteria è a corrente costante (tipicamente 0,1 C10) fino al raggiungimento del 50% della carica e poi a tensione costante (tipicamente 2,23 V/elemento salvo quanto si dirà in seguito) come riportato in fig. 5.18. In queste condizioni la ricarica al 90% avviene dopo un tempo di circa 15 ore. Fig.5.18 Tipici andamenti della tensione e della corrente durante la carica Per ridurre il tempo di carica a circa la metà, sono stati individuati sistemi di carica rapida che prevedono due fasi e precisamente: • Corrente costante di 0,2-0,6 C10 fin tanto che la tensione non raggiunga il valore di 2,4 V/elemento • Tensione costante di 2,4 V/elemento fino alla totale ricarica della batteria (circa 10 ore partendo da batterie completamente scariche). Come si vedrà in seguito il valore di 2,4 V/elemento applicato anche oltre la totale ricarica della batteria comporta un rapido degrado irreversibile della batteria stessa per cui questo sistema, per la sua intrinseca criticità, è applicato solo quando risulta strettamente necessario. dispense4.doc 76 Una batteria al piombo completamente carica presenta una resistenza interna pari a: K Ri = (Ω) C10 in cui K varia da modello a modello di batteria, ma vale generalmente da 0,2 a 0,4; detta resistenza a batteria scarica aumenta tipicamente di 2,5 volte. 5.3.4 Carica di mantenimento Per carica di mantenimento si intende il trasferimento alla batteria di una determinata energia elettrica in modo tale da mantenere la batteria sempre carica compensando l’autoscarica. Il modo più usato per realizzare la carica di mantenimento di una batteria è quello della tensione costante che vale tipicamente: • 2,23 ± 1% V per acido di densità 1,25 g/cm3 a 20C • 2,19 ± 1% V per acido di densità 1,21 g/cm3 a 20C La corrente di mantenimento è tipicamente di 1 mA ogni Ah ma aumenta sensibilmente sia con la tensione di mantenimento, sia con la temperatura che con la vetustà delle batterie. Per quanto sopra detto emerge che la tensione di mantenimento delle batterie è un parametro critico a causa della variabilità del suo valore ottimale con la temperatura (inverno-estate) e per il fatto che una tensione di mantenimento inferiore al valore ottimale non garantisce la totale carica della batteria mentre un valore superiore comporta un degrado della batteria e l’accorciamento della vita operativa. Ciò nonostante la batterie al piombo qui considerate sono le più resistenti oggi disponibili, anche se presentano due rilevanti problemi e precisamente: • Produzione durante la carica di idrogeno • Necessità di una continua manutenzione per il rabbocco di acqua nell’elettrolito 5.3.5 Batterie a ricombinazione di gas (batterie ermetiche) Questo tipo di batterie, dette anche ermetiche, non producono gas e in particolare l’idrogeno, in quanto ricombinano l’idrogeno con l’ossigeno, producendo acqua che mantiene costante la concentrazione di acido nell’elettrolito. Il principio di funzionamento di queste batterie è uguale a quella al piombo a vaso aperto visto precedentemente con la variante che durante la carica si generano le seguenti reazioni: • Sull’elettrodo positivo si ha sviluppo di ossigeno secondo la relazione: H2O ½ O2 + 2H+ + 2e- L’ossigeno si diffonde attraverso un particolare dispositivo fino all’elettrodo negativo. • Sull’elettrodo negativo si genera la seguente reazione: Pb + ½ O2 PbO L’ossido di piombo reagisce con l’acido solforico secondo la reazione: Pb O + H2 SO4 PbSO2 + H2O Le batterie a ricombinazione di gas hanno eliminato gli inconvenienti tipici delle batterie a vaso aperto in quanto non producono idrogeno né hanno bisogno di riabboccare l’acqua (da cui il nome commerciale di “batterie senza manutenzione”) ma di contro risultano più delicate, con vita media inferiore ma soprattutto con tensioni di carica di mantenimento molto più dipendenti dalla temperatura rispetto a quelle a vaso aperto. dispense4.doc 77 Queste batterie che peraltro hanno ovunque sostituito quelle a vaso aperto negli UPS, presentano le seguenti caratteristiche. Capacità in funzione della temperatura La capacità delle batterie è molto dipendente dalla temperatura come riportato dalla fig.5.19. Inoltre l’autoscarica è dell’ordine del 2% al mese a 25C. Tensione a circuito aperto La tensione a circuito aperto varia molto più con la temperatura come riportato in fig.5.20. Tensione di mantenimento La tensione di mantenimento è molto dipendente con la temperatura, che limita praticamente il campo di utilizzo di questa battera da 10C a 40C. Nei moderni circuiti di carica delle batterie ermetiche, la tensione di mantenimento è regolata dalla temperatura ambiente rilevata da sensori di temperatura posti in vicinanza delle batterie. Vita operativa La vita operativa delle batterie ermetiche è molto condizionato dalla temperatura di esercizio come mostrato in fig.5.21. Fig.5.19 Capacità erogabile delle batterie ermetiche al piombo in funzione della temperatura /// Fig.5.20 Tensione della batteria a circuito aperto in funzione dello stato di carica Fig.5.21 Vita utile di una batteria in funzione della temperatura di esercizio dispense4.doc 78 5.3.6 Batterie al nichel cadmio Le batterie stazionarie al nichel-cadmio sono costituite da un elettrodo positivo di nichel e un elettrodo negativo di cadmio immersi in una soluzione acquosa di idrossido di potassio. Le principali prestazioni sono per le scariche veloci (esempio 15 minuti tipiche dell’informatica), presentano anche buona stabilità alla temperatura, un elevato numero di cicli scarica-carica, ma costi molto elevati. Per questi motivi non sono utilizzate negli UPS usati negli impianti elettrici dei locali ad uso medico. 5.3.7 Confronto fra le varie batterie Volendo effettuare un confronto tecnico fra i vari tipi di batterie qui citati, si consideri ad esempio il caso di un UPS da 20 kVA con autonomia di 1 ora. Per tener conto dei vari fattori che riducono la capacità di una batteria (temperatura, vetustà, ecc.), è prudente prevedere un blocco batterie che fornisca in 1 ora almeno 22 kW. In tabella di fig.5.22 è riportato il confronto fra le varie batterie. Come si può notare la batteria al piombo ermetica, nonostante gli inconvenienti visti, presenta il miglior compromesso fra qualità e prezzo. Parametro Potenza richiesta Energia richiesta Tempo di scarica Tensione all'UPS Tensione per elemento Elementi necessari Peso Volume Densità energia in peso Densità energia in volume Vita Cicli Temperature Produzione gas Ventilazione locale batterie Necessità di manutenzione Costo orientativo Unità misura Batteria Pb vaso aperto Batteria Pb ermetica Batteria nichel cadmio kWh kW ore V V N° kg dm3 Wh/kg Wh/l anni N° C 22 22 1 220 2 110 2.200 1.100 10 20 15 400 -20 ; +40 si 550 si 7.000 22 22 1 220 2 110 1.400 550 16 39 10 400 +10 ; +40 no 0 no 5.500 22 22 1 220 1,3 164 2.000 1.150 11 19 10 2.000 -40 ; +40 no 0 no 24.000 m3/h euro Fig.5.22 Confronto fra i vari tipi di batterie stazionarie 5.3.8 Esempio di dimensionamento batterie Si supponga di dover dimensionare le batterie per un UPS da 20 kVA con autonomia di 1 ora, dalle cui specifiche si desume che la tensione alle batterie deve essere 220 V ±15% in corrente continua. Disponendo delle batterie di fig. 5.23 il blocco batterie sarà caratterizzato da un serie-parallelo caratterizzato da: - n° batterie per ramo serie - n° rami in parallelo come schematizzato in fig. 5.24 Dalla fig.5.12 emerge che a fine scarica di 1h la tensione alla cella è di 1,7 V mentre la tensione della batteria completamente carica è di 2,05 V. Per poter rispettare i dati di targa dell’UPS (220V±15% in c.c.) ci vorranno un numero di elementi compreso fra 110 e 123. dispense4.doc 79 Disponendo di batterie con tensione normale 12 ; 6 e 4 V (rispettivamente di 6 ; 3 e 2 celle ciascuna) il numero di batterie costituenti ciascun ramo serie dovrà essere: Tensione batteria N° batterie per ramo serie 19÷20 37÷41 55÷61 12 V 6V 4V Il numero di rami dipende dalla energia elettrica totale che deve essere erogata. Poiché l’UPS deve erogare 20 kVA per 1 ora, tenendo conto della variazione della carica con la temperatura e l’effetto dell’età della batteria è ragionevole maggiorare questo valore ad almeno 22 kWh. Questa energia si raggiungerà mettendo in parallelo più rami serie. Utilizzando i dati di targa delle batterie si costruisce la tabella di fig. 5.25 sulla quale si dovrà scegliere la soluzione più vantaggiosa. La scelta si basa sulle seguenti considerazioni riferite a ciascuna batteria: 12 SLA 25 Non vantaggiosa perché: • numero elevato di batterie • maggior peso 12 SLA 37 Non vantaggiosa perché: • numero elevato di batterie • maggior peso 12 SLA 35 Vantaggiosa 6 SLA 75 Non vantaggiosa perché: • numero eccessivo di batterie 6 SLA 100 Non vantaggiosa perché: • numero eccessivo di batterie • maggior peso • potenza nominale eccessiva 4 SLA 125 Non vantaggiosa perché: • poco affidabile poiché in caso di interruzione di una cella, l’UPS va fuori uso 4 SLA 150 Non vantaggiosa perché: • poco affidabile poiché in caso di interruzione di una cella, l’UPS va fuori uso Modello 12 SLA 25 12 SLA 37 12 SLA 50 6 SLA 75 6 SLA 100 4 SLA 125 4 SLA 150 Tensione V 12 12 12 6 6 4 4 Capacità (Ah) C3 C1 C10 25 20 17,5 37 30 26 50 40 365 75 60 52 100 80 70 125 100 87,5 150 120 105 Dimensioni mm Peso kg 214x123x165 288x173x202 288x173x202 271x173x202 271x173x202 271x173x202 271x173x202 11 16 20 15,5 19,5 16,5 19 Fig.5.23: Specifiche tipiche delle batterie del mercato dispense4.doc 80 Fig.5.24 Tipica configurazione di un gruppo di batterie serie-parallelo Dati di targa Modello 12 SLA 25 12 SLA 37 12 SLA 50 6 SLA 75 6 SLA 100 4 SLA 125 4 SLA 150 Tensio Ah Wh Cos energia per ramo ne V a C1 a C1 to (Wh) € min max 12 17,5 210 68 3.990 4.200 12 26 312 79 5.928 6.240 12 35 420 95 7.980 8.400 6 52 312 78 11.544 12.792 6 70 420 87 15.540 17.220 4 87,5 350 76 19.250 21.350 4 105 420 84 23.100 25.620 Dati contestualizzati N° rami teorici mim 5,5 3,7 2,8 1,9 1,4 1,1 1,0 max 5,2 3,5 2,6 1,7 1,3 1,0 0,9 N° N° Rami reali Batterie totali 6 4 3 2 2 1 1 114 76 57 74 74 61 55 Peso kg kWh nominali 1.254 1.216 1.140 1.147 1.443 1.007 1.045 23,9 23,7 23,9 23,1 31,1 21,4 23,1 Fig. 5.25 Elementi tipici delle batterie su cui operare la scelta progettuale 5.4 GRUPPO ELETTROGENO Il gruppo elettrogeno è una macchina che serve alla produzione di energia elettrica formata da un motore e un alternatore. Il motore genera la rotazione dell’asse dell’alternatore e questo produce energia elettrica. I vari componenti del gruppo elettrogeno (motore, alternatore, batteria di accensione, quadro elettrico, ecc.) sono sistemati attraverso dei tamponi antivibranti su una struttura metallica che conferisce al sistema la dovuta compattezza. Una fotografia di gruppo elettrogeno è riportata in fig.5.26. Il motore è alimentato per la prima fase di funzionamento dal carburante di un piccolo serbatoio a bordo del gruppo stesso (che garantisce generalmente una autonomia di mezz’ora), il quale a sua volta è alimentato da un serbatorio esterno doi dimensioni dipendenti dall’autonomia richiesta. I gruppi elettrogeni sono utilizzati nelle seguenti circostanze: - Assenza di linee elettriche - Integrazione alla rete quando la richiesta di energia elettrica è superiore alla fornitura contrattuale. - Generazione ausiliaria in caso di black-out - Cogenerazione dispense4.doc 81 L’utilizzo dei gruppi elettrogeni in assenza di linee elettriche è tipico dei luoghi isolati (esempio rifugi alpini, imbarcazioni, ecc.) L’utilizzo quale integrazione alla rete eletttica (peak shoving) avviene quando la fornitura dell’energia elettrica è insufficiente a garantire tutto il fabbisogno. In questi casi si genera l’energia mancante con un gruppo elettrogeno. Questa soluzione è giustificata solo in particolarissimi casi, comunque quasi mai in ambito sanitario. L’utilizzo del gruppo elettrogeno quale generatore elettrico ausiliario in caso di black-out, è l’impiego più tipico e ricorrente in ambito sanitario. La cogenerazione consiste nell’utilizzazione del gruppo elettrogeno non solo per l’energia elettrica prodotta ma anche per il calore. In qualche caso e per gli Ospedali di grandi dimensioni la cogenerazione è economicamente vantaggiosa rispetto al normale approvvigionamento energetico. In seguito si considererà il gruppo elettrogeno quale generatore ausiliario in caso di black-out e si accennerà alla cogenerazione. Fig.5.26 Tipico gruppo elettrogeno del mercato 5.4.1 Il motore La fonte di potenza attiva convertita dall’alternatore in energia elettrica è fornita da motori endotermici o da turbine. Le turbine sono macchine generalmente di rilevante potenza, di buon rendimento, che si prestano particolarmente all’uso continuo, usate quindi tipicamente nella cogenerazione. Solo recentemente sono disponibili delle “micro-turbine” a partire da 40 kW da usarsi però sempre in modo continuo. Per i generatori ausiliari in ambito sanitario, il motore più usato è il motore diesel, mentre il motore a benzina è utilizzato solo per piccole potenze (< 5kVA). L’evoluzione dei motori diesel per gruppi elettrogeni ha avuto la stessa evoluzione dei motori automobilistici e attualmente la soluzione più vantaggiosa è quella a iniezione controllata chiamati anche “Common Rail”. Il sistema di iniezione Common Rail consente di regolare elettronicamente la quantità di combustibile iniettata, di regolare l’anticipo di iniezione e la pressione di iniezione in funzione delle condizioni di funzionamento del motore. I vantaggi del motore Common Rail rispetto a un tradizionale motore diesel sono: - Consumo di carburante inferiore anche del 30 % - Minori emissioni di CO2 stimati nel 20% rispetto ai motori a benzina - Minor produzione di rumore - Possibilità di regolare la pressione dell’iniezione indipendentemente dalla velocità del motore e dal carico - Possibilità di sovralimentazione del motore aumentando la quantità di aria e carburante immesso nei cilindri, che a parità di cilindrata sviluppa maggiori potenze dispense4.doc 82 Nei gruppi elettrogeni la velocità di rotazione del motore deve essere rigorosamente costante in quanto la tolleranza ammessa sulla frequenza dell’energia elettrica prodotta è dell’ordine del 1-2%. La velocità angolare è fissata dalla relazione: f • 60 n= p in cui n = velocità angolare espressa in “giri al minuto” f = frequenza espressa in Hz p = coppie di poli dell’alternatore Si evince che per frequenze di 50 Hz la massima rotazione possibile è di 3.000 giri al minuto. La configurazione tipica è costituita da alternatori a due poli e conseguentemente la velocità angolare è di 1.500 giri al minuto. Solo per grandi potenze (1.000 kVA) e utilizzi marini si utilizzano motori più lenti come ad esempio con velocità di 500 giri al minuto con diametri dei cilindri di 400-600 mm o addirittura ancora più lenti fino a 100 giri al minuto, in genere a due tempi, per potenze fino a 40 MVA. Poiché il numero dei giri del motore dipende dal carico, il motore dei gruppi elettrogeni deve essere continuamente regolato in modo da mantenere costante la velocità di rotazione a prescindere dal carico. Da quanto accennato emerge che i motori tipo Common Rail sono di gran lunga più adatti dei tradizionali motori diesel ad essere usati nei gruppi elettrogeni in quanto garantiscono tolleranze sulla velocità di 3-5 volte migliore rispetto ai tradizionali motori diesel. Un’altra caratteristica peculiare dei motori dei gruppi elettrogeni usati quali alimentatori ausiliari è la partenza automatica di alta affidabilità in caso di black-out energetico. Ciò è garantito mediante le seguenti soluzioni: - Mantenimento dell’olio del motore ad una temperatura predeterminata (circa 30C) - Dispositivo automatico con alimentazione elettrica autonoma che effettua tutte le manovre necessarie per accendere il motore e ripetere l’accensione in caso di fallimento del precedente tentativo. - Segnalazione a distanza in luogo presidiato dell’avvenuta messa in funzione del motore affinché si possa procedere in modo manuale qualora l’avviamento automatico fallisse. 5.4.2 L’alternatore L’alternatore è una macchina elettrica che genera energia elettrica alternata trasformando l’energia meccanica ricevuta all’asse dal motore. Fig.5.27 Schematizzazione di un alternatore dispense4.doc 83 Per comprendere il principio di funzionamento di un alternatore si consideri la fig.5.27. Il rotore è costituito da un nucleo di ferro su cui è sistemato l’avvolgimento A, chiamato anche “di eccitazione” in modo tale da generare un campo magnetico fisso alimentato in corrente continua attraverso una coppia di contatti striscianti (spazzola e anello) La rotazione dell’asse provoca una variazione di flusso magnetico negli avvolgimenti dello statore B e conseguentemente per la legge “Faraday Lentz” si genera su di esso una forza elettomagnetica “e” secondo la relazione: δΦ e= δt dove con Φ si indica il flusso magnetico e con t il tempo. A vuoto l’avvolgimento dello statore non è percorso da corrente per cui il solo campo presente è quello induttore. Fissato il numero dei giri, il fattore che regola la tensione di uscita dipende dalla corrente di eccitazione secondo la relazione di fig. 5.28. Fig. 5.28 Caratteristica a vuoto dell’alternatore Nel primo tratto la tensione cresce con andamento rettilineo, mentre poi, a causa della saturazione del ferro inizia a flettersi in modo che per ampie variazioni dell’eccitazione corrispondono contenute variazioni della tensione. Generalmente si sfrutta questa caratteristica posizionando il punto di lavoro P un po’ oltre il ginocchio della curva. A carico il comportamento dell’alternatore dipende sia dalla corrente erogata che dal cos φ; infatti: - per carichi ohmici il campo prodotto dalla corrente del carico produce una coppia frenante che deve essere vinta dal motore; - Per carichi puramente induttivi il campo magnetico prodotto dal carico risulta allineato ma opposto al campo dell’indotto, riducendone quindi il valore (effetto smagnetizzante) e conseguentemente riducendo la tensione in uscita; - Per carichi puramente capacitivi l’effetto è opposto con presenza di una eccessiva magnetizzazione. Nei casi reali, ove non solo vi è la sovrapposizione dei casi sopra visti ma anche la variabilità del carico nel tempo, per poter mantenere la tensione d’uscita costante entro i limiti tipici del ±5% occorre una continua regolazione dell’eccitazione in corrente continua. 5.4.3 Alternatori Brushless Sono gli alternatori che oggi si usano nei gruppi elettrogeni in quanto hanno eliminato i contatti striscianti che richiedevano parecchia manutenzione. Questi alternatori sono essenzialmente costituiti da due macchine elettriche solidali sullo stesso albero come schematizzato in Fig.5.29 dispense4.doc 84 Fig. 5.29 Schema di principio di un alternatore Brushless Uno è l’alternatore classico B e l’altro è un generatore di corrente alternata A che dopo un raddrizzatore produce la corrente continua che alimenta l’avvolgimento di eccitazione dell’alternatore B. La macchina elettrica A ha sul rotore 3 avvolgimenti a stella che, tagliando il flusso magnetico fisso prodotto dal relativo avvolgimento sullo statore, generano una corrente trifase che raddrizzata da un ponte di diodi trifase alimenta l’avvolgimento di eccitazione dell’alternatore B in corrente continua. La resistenza R, detta di shunt, serve a provocare un rapido abbassamento della corrente durante la diseccitazione e ciò per dissipare l’energia magnetica accumulata sull’avvolgimento di eccitazione B. I valori di R vanno da 2 a 5 volte l’impedenza dell’avvolgimento di eccitazione B e pur dissipando sempre potenza è comunque necessaria. L’alternatore abbisogna, come già accennato, di un sistema di regolazione, oggi a microprocessore, che garantisca la costanza della tensione di uscita in funzione del carico e dello sfasamento come schematizzato in fig. 5.30. L’alimentazione del sistema di regolazione è generalmente garantita da un avvolgimento ausiliario che genera corrente alternata, solidale allo statore della macchina B. Fig.5.30 Schema a blocchi di un alternatore brushless dispense4.doc 85 5.4.4 Gruppo elettrogeno I gruppi elettrogeni utilizzati come generatori ausiliari per strutture sanitarie hanno potenze che variano generalmente da 100 a 800 kVA. In tabella di fig.5.31 sono riportate le principali caratteristiche di alcuni modelli presenti sul mercato. Un aspetto particolarmente critico dei gruppi elettrogeni è costituito dal rumore prodotto durante il loro funzionamento. Una recente normativa (direttiva europea 2000/14/CE recepita in Italia dal Dlgs 262/2002) prevede che per gruppi elettrogeni di potenza compresa fra 10 kW e 400 kW il rumore massimo prodotto vada rispettivamente da 98,3 a 99,6 dB mentre dal 2006 detto rumore dovrà essere ulteriormente ridotto di 2 dB. Consumo Potenza Cilindrata gasolio kVA motore cos φ = 0,8 cm3 l/h l/kVA ECO POWER GENERATOR 83 3.983 COELMO 100 5.900 23,1 0,23 C.T.M. 100 4.700 28,0 0,28 VFM 184 8.200 57,0 0,31 IVECO 200 5.900 35,0 0,18 IVECO 250 7.800 55,0 0,22 CTM 315 14.000 56,0 0,18 PERKINS 385 12.170 83,4 0,22 CTM 400 21.930 72,0 0,18 VFM 500 15.200 110,0 0,22 COMMINS 580 30.480 153,0 0,26 PERKINS 630 26.110 135,0 0,21 Peso Marca kg 1.050 1.330 2.150 1.746 1.600 2.050 3.943 3.365 5.000 3.500 6.552 2.356 kg/kVA 12,7 13,3 21,5 9,5 8,0 8,2 12,5 8,7 12,5 7,0 11,3 3,8 Fig.5.31 Principali caratteristiche di alcuni modelli di gruppi elettrogeni presenti sul mercato Un altro aspetto interessante dei gruppi elettrogeni (che giustifica dal punto di vista tecnico-ecologico la cogenerazione) è il rendimento del sistema. Il rendimento degli alternatori a spazzole per potenze dell’ordine delle centinaia di kVA è dell’ordine del 90% mentre a parità di potenza per gli alternatori Brushless il rendimento non supera l’82-84%. Il rendimento dei motori è molto più basso e influenzato dai parametri di funzionamento. Il rendimento, infatti, è dell’ordine del 30-35% per i motori a benzina e dell’ordine del 38-40% per i diesel, grazie al maggior rapporto di compressione e al minor potere calorico del gasolio. Per un gruppo elettrogeno il rendimento elettrico è quindi circa 31-34%. L’energia non trasformata in elettricità è calore che però in ambito sanitario potrebbe essere proficuamente utilizzato come per l’appunto effettuato nei sistemi di cogenerazione. dispense4.doc 86 Nei sistemi di cogenerazione il bilancio energetico è il seguente: Tipo di energia Energia elettrica Calore a bassa temperatura(60C) di raffreddamento Calore di raffreddamento ad alta temperatura(90C) Calore dei gas di scarico (400C) Calore disperso Utilizzo Energia elettrica Acqua sanitaria (45C) Riscaldamento (70C) Produzione vapore (132C) nessuno Stima 31-34% 10-12% 12-16% 32-35% 4-7% Come si vede è possibile utilizzare circa il 95% dell’energia ottenuta dalla combustione del gasolio. In termini ecologici il bilancio è molto vantaggioso; basti pensare che l’energia elettrica distribuita dalla rete è prodotta per la maggior parte dalle centrali termoelettriche che a causa dell’inquinamento sono situate in zone lontane dai centri abitati. Tale distanza rende praticamente impossibile l’utilizzo del calore nei possibili luoghi di utilizzo (centri abitati) per cui esso viene disperso nell’ambiente (in atmosfera o nei fiumi o nel mare attraverso l’acqua di raffreddamento) provocando anche danni all’ecosistema, nonostante la normativa vigente prescriva il massimo ΔC ammissibile). Resta il fatto che la maggior parte dell’energia elettrica che è distribuita dalla rete è prodotta con un rendimento che al massimo raggiunge il 40%. Per quanto riguarda l’immissione in atmosfera del CO2 occorre osservare che per produrre il calore utile si dovrà comunque bruciare dell’altro combustibile in caldaie che hanno un rendimento dell’85% circa. Volendo confrontare il bilancio energetico fra l’utilizzo della cogenerazione e il metodo tradizionale, per generare ad esempio 35 kW elettrici e 60 kW termici si ottiene: Cogenerazione Fabbisogno totale di energia totale Calore disperso nell’ambiente CO2 prodotto con gasolio (1) 100 kW 5 kW 82 kg/h Sistema tradizionale Produzione di 35 kW elettrici con rendimento 40% 87 kW Produzione di 60 kW termici con rendimento 85% 70 kW ____________________________________________________________________ Fabbisogno di energia totale 157 kW Calore disperso nell’ambiente 62 kW CO2 prodotto con metano (2) 92 kg/h (1) La combustione di 1kg gasolio produce 3,27 kg CO2 (2) La combustione di 1kg metano produce 2,35 kg CO2 dispense4.doc 87 6. APPARECCHI ELETTROMEDICALI 6.1 DEFINIZIONE DI APPARECCHIO Gli apparecchi di uso medico rientrano in due direttive europee e precisamente: • Dispositivi medici (93/42/CE) recepita in Italia con il Dlgs 46/1997 • Dispositivi medico-diagnostici in vitro (98/79/CE) recepita in Italia con il Dlgs 332/2000 Per quanto riguarda gli apparecchi vengono definite le seguenti tiopologie: a) Apparecchio biomedico Si intende per apparecchio biomedico, l’apparecchio usato per la diagnosi, terapia, riabilitazione e più in generale per la cura del paziente, e rientra nella direttiva dei dispositivi medici. Un sottinsieme di questi apparecchi è chiamato “apparecchio elettromedicale” normato dalla norma generale europea CEI 62-5 (traduzione della norma europea EN 60601-1) e dalle norme particolari CEI 62-XX. La norma CEI 62-5 definisce apparecchio elettromedicale come quell’ “Apparecchio elettrico, munito di non più di una connessione a una particolare rete di alimentazione destinato alla diagnosi, al trattamento o alla sorveglianza del paziente sotto la supervisione di un medico, e che entra in contatto fisico o elettrico col paziente e/o trasferisce energia verso o dal paziente e/o rivela un determinato trasferimento di energia verso o dal paziente. L’apparecchio comprende quegli accessori, definiti dal construttore, che sono necessari per permettere l’uso normale dell’apparecchio” come ad esempio cavi, trasduttori, manuale d’uso, ecc.) Alcuni esempi di: • Apparecchio elettromedicale − Elettrocardiografo (connesso al paziente) − Elettrobisturi (connessa al paziente) − Monitor pH in vivo (connesso al paziente) − Lampada scialitica (trasferisce energia al paziente) − Tavolo operatorio elettrificato (contatto fisico e apparecchio elettrico) Le varie parti di un apparecchio elettromedicale, così come definite dalla norma CEI 62-5 sono riportate in fig.6.1 • Apparecchio biomedico non elettromedicale − Tavolo operatorio meccanico (non elettrico) − Sviluppatrice pellicole radiologiche (non è in contatto con il paziente) − Autoclave a vapore per sterilizzazione (non è in contatto con il paziente) b) Apparecchio medico-diagnostico in vitro Sono tutti gli apparecchi usati in laboratorio per la determinazione di parametri biologici (esami del sangue, delle urine, ecc.; esami istologici, citologici, ecc.). Gli apparecchi elettrici di questa categoria sono normati dalla norma generale europea CEI 66-5. Esempi di questi apparecchi sono: − Apparecchi analitici di laboratorio − Frigoriferi biologici (conservazione di campioni) − Centrifughe 6.2 CLASSIFICAZIONE Secondo la norma CEI 62-5 la sicurezza degli apparecchi elettromedicali riguarda la protezione contro i contatti diretti o indiretti con il corpo del paziente, dell'operatore o di terzi. Suddette protezioni devono essere ottenute mediante una combinazione dei seguenti provvedimenti: - Impedire il contatto mediante involucri, ripari o montaggi inaccessibili; - Ridurre le tensioni o le correnti presenti in parti delle apparecchiature che possono venire toccate. Tutti gli apparecchi vengono classificati in tre classi (I, II, Alimentazione Interna) secondo la modalità di protezione adottata. - Apparecchio classe I E' definito come l'apparecchio nel quale la protezione contro i contatti diretti ed indiretti non consiste soltanto nell'isolamento fondamentale, ma anche in una misura supplementare di sicurezza consistente nel collegamento delle parti conduttrici al conduttore di protezione del cablaggio fisso dell'impianto in modo tale che le parti conduttrici accessibili non possano trovarsi sotto tensione per un cedimento dell'isolamento fondamentale. Lo schema di principio di un apparecchio di classe I è riportato in fig.6.2. dispense5.doc 88 Fig.6.1 Varie parti che compongono un apparecchio elettromedicale - Apparecchio classe II E' definito come l'apparecchio nel quale la protezione contro i contatti diretti ed indiretti non consiste soltanto nell'isolamento fondamentale, ma anche in misure supplementari di sicurezza quali il doppio isolamento o l'isolamento rinforzato. Queste misure non prevedono la messa a terra di protezione e non dipendono dalle condizioni di installazione. Lo schema di principio di un apparecchio di classe II è riportato in fig.6.3. - Apparecchio con sorgente elettrica interna Un apparecchio può essere riconosciuto come tale soltanto se non esiste connessione esterna alla sorgente elettrica interna, oppure se la connessione elettrica alla sorgente interna, come ad esempio una batteria ricaricabile, può avvenire solamente dopo la separazione fisica della sorgente elettrica interna e di un eventuale dispositivo di ricarica dell'apparecchio. Se queste prescrizioni non possono essere rispettate, l'apparecchio deve essere classificato di classe I, II. Lo schema di principio di un apparecchio di questa classe è mostrato in fig.6.4. A prescindere dalla classe dell'apparecchio, vengono identificati tre gradi di protezione, individuati con il tipo: - Apparecchio di tipo B. Apparecchio di Classe I o III, od apparecchio munito di sorgente elettrica interna, avente un grado adeguato di protezione contro i contatti diretti e indiretti con particolare riguardo per: • le correnti di dispersione ammissibili; • l'affidabilità del collegamento a terra (se esistente). Questi apparecchi sono adatti per applicazioni esterne ed interne al paziente, come ad esempio nella registrazione dell'ECG o nel cateterismo uretrale, esclusa l'applicazione cardiaca diretta. - Apparecchio di tipo BF. Apparecchio di tipo B avente una parte applicata isolata di tipo F (flottante). - Apparecchio di tipo CF. Apparecchio di Classe I o II, od apparecchio munito di sorgente elettrica interna, avente un alto grado di protezione contro i contatti diretti e indiretti con particolare riguardo per le correnti di dispersione ammissibili, ed avente una parte applicata isolata di tipo F (flottante). Un apparecchio di tipo CF è specificatamente adatto per applicazione cardiaca diretta. Per essi sono richiesti livelli di sicurezza diversi, secondo che si possano verificare situazioni di macroshock o di microshock. Gli apparecchi di tipo B e BF sono adatti per configurazioni di misura che comportano contatto esterno od interno del paziente, cuore escluso, mentre il tipo CF è adatto per applicazioni cardiache dirette. I vari tipi e gradi di protezione sono caratterizzati, dal punto di vista elettrico, rispettivamente dal grado di isolamento elettrico e dalla corrente di dispersione; ad essi sono dati dei valori numerici, secondo ciascun caso, precisando contemporaneamente le modalità di misura. Gli apparecchi si considerano sicuri quando superano favorevolmente tutte le prove previste. dispense5.doc 89 Fig. 6.2 Schema di principio di un apparecchio con tipo di protezione di classe I (da CEI 62.5) Fig.6.3 Schema di principio di un apparecchio con tipo di protezione in classe II (da CEI 62-5) dispense5.doc 90 Fig. 6.4 Schema di principio di un apparecchio con sorgente elettrica interna (1) apparecchio (4) sorgente elettrica interna (5) parte applicata (Da CEI 62-5; con modifiche) 6.3 TIPI DI PROTEZIONE I tipi di protezione previsti nelle apparecchiature elettromedicali sono individuati dalla classe. Per ciascuna di esse sono definite le tensioni di isolamento riportate in fig.6.5. La misura dell'isolamento elettrico (e della corrente di dispersione che verrà discussa in seguito), deve iniziare subito dopo un trattamento di umidità, a cui le apparecchiature sono sottoposte, che dura complessivamente 24 ore. Il trattamento consiste nell'esposizione dell'apparecchio per 12 ore in un ambiente a 40C e con 90% di umidità relativa, in modo tale che si verifichino, ad opera dell'umidità , eventuali cambiamenti nella qualità dell'isolante. nelle successive 12 ore l'apparecchio viene lasciato a temperatura ambiente, per fare asciugare la condensa provocata dal trattamento precedente. Dopo questo trattamento, si eseguono le prove di isolamento, a tensioni prestabilite per ciascuna classe, applicate in punti particolari dell'apparecchio. In generale si distinguono i seguenti tipi di isolamento: - Isolamento fondamentale per fornire la protezione fondamentale contro i pericoli elettrici (art.2.3.2 CEI 62-5) - Isolamento supplementare, indipendente da quello fondamentale, allo scopo di protezione contro i contatti diretti/indiretti in caso di cedimento dell'isolamento fondamentale (art.2.3.8 CEI 62-5), è generalmente maggiore o uguale dell'isolamento fondamentale - Isolamento rinforzato: è un isolamento pari all'isolamento fondamentale più l'isolamento supplementare e può essere tecnologicamente realizzato o con due isolanti separati oppure con uno solo maggiorato nelle dimensioni. La Norma CEI 62-5 per ciascuna classe di tensione di esercizio fornisce i valori nel caso di isolamento fondamentale, supplementare, rinforzato. In generale per la protezione contro i contatti indiretti esistono due strade: 1) isolamento fondamentale + terra di protezione 2) isolamento rinforzato. L'Appendice E della CEI 62-5 riporta le modalità di prova della tensione applicata sui vari apparecchi. La sintesi dei più significativi punti di misura con le relative tensioni di prova è riportata in Fig.6.5, che si riferisce alle seguenti tensioni di esercizio: - App. Classe I: 220 V - App. Classe II: 220 V - App. alimentazione interna: 50 V Fig.6.5 Sintesi dei più significativi punti di misura 1 = Apparecchio elettromedicale 2 = Involucro preventivamente messo a terra 3 = Involucro non connesso alla terra di protezione 4 = Parte applicata alla rete 5 = Parte applicata al paziente dispense5.doc 91 Si noti che: − l'apparecchio AI pone modestissimi problemi di isolamento, − l'apparecchio di classe I ha livelli usuali di isolamento, − l’apparecchio di classe II ha livelli inusuali di solamento che riguarderanno essenzialmente il trasformatore e l'interruttore di accensione. 6.4 GRADO DI PROTEZIONE Il grado di protezione di un apparecchio elettromedicale, individuato dal tipo, è determinata dalla corrente di dispersione massima che può fluire verso terra dalle parti più significative dell’apparecchio. Le norme prevedono diversi tipi di corrente di dispersione, tuttavia in questa sede si considereranno solo le seguenti tre: - Corrente di dispersione verso terra. Corrente fluente dalla parte collegata alla rete verso il conduttore di protezione attraverso o attorno l'isolamento - Corrente di dispersione sull'involucro. Corrente fluente nell'involucro o parte dell'involucro verso terra o verso un'altra parte dell'involucro, attraverso un collegamento conduttore esterno diverso dal conduttore di protezione. - Corrente di dispersione nel paziente. Corrente fluente dalla parte applicata al paziente verso terra (esclusa ogni corrente funzionale nel paziente), o fluente dal paziente verso terra attraverso una parte applicata isolata (flottante) a causa del verificarsi non intenzionale sul paziente di una tensione dovuta ad una sorgente esterna. La configurazione di misura è riportata in fig.6.6 Fig.6.6 Punti di misura delle correnti di dispersione. MD è lo strumento di misura Lo strumento di misura MD è costituito dalla rete riportata in fig.6.7 e simula il paziente. Infatti l’impedenza che vede il circuito è 1kΩ (R2) mentre le reti R1 e C1, che danno luogo alla risposta in frequenza di fig.6.7, è speculare all’andamento della soglia di fibrillazione sull’uomo di fig.????. Così facendo la corrente misurata dal voltmetro dell’MD è normalizzata con la frequenza, nel senso che le correnti di soglia di fibrillazione presentano lo stesso valore numerico al variare della frequenza, semplificando molto la misura. I valori di corrente di dispersione devono essere inferiori a quelli indicati in fig.6.8 e sono definiti sia in condizione di normale funzionamento (N.C.) sia in condizione di primo guasto (S.F.C). Le condizioni di primo guasto sono: - interruzione di un conduttore di alimentazione per volta; - interruzione del conduttore di protezione; - applicazione di una tensione pari al 110% della massima tensione nominale di rete tra ogni parte applicata flottante e la terra; Le misure di corrente di dispersione devono essere eseguite dopo che l'apparecchio ha subito il trattamento d'umidità, visto nel paragrafo precedente e l’alimentazione dell'apparecchio deve essere pari a 1,1 volte (+ 10%) la massima tensione di rete assegnata. dispense5.doc 92 6.5 RESISTENZA DEL CONDUTTORE DI PROTEZIONE La Norma CEI 62-5 art.18 afferma che le parti accessibili degli apparecchi di Classe I devono essere connesse mediante un'impedenza sufficientemente bassa al morsetto di terra di protezione dell’impianto di alimentazione. In fig.6.9 è riportato schematicamente quanto prescrive la norma. Fig.6.7 Strumento di misura MD delle correnti di dispersione (da CEI 62-5) Fig.6.8 Valori ammissibili permanenti delle correnti di dispersione e delle correnti ausiliarie nel paziente, espressi in mA (Da CEI 62-5) dispense5.doc 93 Fig.6.9 Valore massimo di resistenza di protezione ammesso per gli apparecchi elettromedicali Per rendersi conto dell’importanza della resistenza di protezione si considerino i casi pericolosi che verranno discussi in seguito. 6.6 SITUAZIONI PERICOLOSE Per rendersi conto dell’utilità delle varie prescrizioni normative si prendano in considerazione alcune situazioni fra le più frequentemente riscontrate: • Fig.6.10 Rappresenta un paziente con collegamento cardiaco diretto connesso correttamente con due apparecchi elettromedicali. Collegamento cardiaco diretto con apparecchi tipo CF, unico consentito, altro collegamento con apparecchio di tipo B. Il paziente è in sicurezza in quanto nel collegamento con rischio di microshock la corrente di dispersione dell’apparecchio non supera i 10 μA mentre nel collegamento con rischio di macroshock la corrente di dispersione non supera i 100 μA. • Fig.6.11 Il paziente con collegamento diretto cardiaco e quindi con rischio di microshock, non può venire in contatto con l’involucro (corrente di dispersioen di 100 μA anche negli apparecchi di tipo CF, vedere fig.6.8). Il paziente in questo caso correrebbe un rischio gravissimo anche se l’impianto elettrico e l’apparecchio elettromedicale rispondono a tutti i requisiti di sicurezza. • Fig.6.12 Anche in questo caso il paziente è in pericolo soprattutto se l’operatore non presenta una bassa resistenza verso terra (zoccoli di plastica) Si può notare che il paziente con collegamento diretto cardiaco può essere in pericolo a causa di comportamenti irragionevoli anche con impianto e apparecchio rispondenti ai requisiti di sicurezza. Per pazienti senza collegamento diretto cardiaco, ovvero con rischio di marcoshock, il pericolo nasce solo in seguito a guasti. • Fig.6.13 Si noti che con il 1° guasto il paziente è in sicurezza. I valori previsti dalla norma per la resistenza in parallelo al paziente RT sono tali da offrire le più ampie garanzie di sicurezza. E’ però evidente che la sicurezza peggiora se la resistenza di protezione RT aumenta con l’uso di prolunghe, adattatori o simili. In caso di 2° guasto, ovvero di interruzione della resistenza di protezione RT il paziente si trova connesso alla rete. In questa condizione neppure l’organi di protezione interverrà per cui il paziente si trova in una situazione di grandissimo pericolo (morte quasi certa). Questa eventualità è possibile solo con due guasti contemporanei (corto circuito fase-involucro e interruzione conduttore di protezione) e non può verificarsi se si adempiono le prescrizioni normative. • Fig.6.14 Con l’uso di apparecchi flottanti (BF o CF) il paziente è in sicurezza anche in presenza di 2° guasto mentre l’operatore in contatto con l’involucro è in pericolo. dispense5.doc 94 Fig.6.10 Rischio di microshock. Caso previsto dalla norma CEI 62-5. Le correnti di dispersioen nel paziente sono conformi a quelle indicate in fig.6.8. Paziente in sicurezza. Fig.6.11 Rischio di microshock. Caso non previsto dalla norma CEI 62-5. E’ irragionevole che il collegamento diretto cadiaco venga in contatto con l’involucro. Nonostante l’apparecchio sia di tipo CF e soddisfi i valori di fig.6.8, il paziente è in pericolo grave. ≈ 70 μA Fig.6.12 Rischio di microshock. Attraverso l’operatore potrebbe passare nel paziente una corrente pericolosa. Non è operativamente giustificato che l’operatore tocchi il collegamento diretto cardiaco del paziente e contemporaneamente un involucro dell’apparecchio. dispense5.doc 95 Fig.6.13 Rischio di macroshock. Il 1° guasto fase-involucro provoca una corrente di guasto che fa intervenire gli organi di protezione, inoltre, essendo RT << R il paziente è in sicurezza. Con il 2° guasto il paziente è in grave pericolo. Fig.6.14 Rischio di macroshock. Al 1° guasto sia l’operatore che il paziente sono in sicurezza. Al 2° guasto solo il paziente è in sicurezza, mentre l’operatore è in pericolo. dispense5.doc 96 7. DEFINIZIONI Si riportano di seguito le più importati definizioni estratte dalle Norme CEI relative agli argomenti qui considerati. - IMPIANTI Protezione contro i contatti diretti Le persone devono essere protette contro i pericoli che possono derivare dal contatto con parti attive dell'impianto. Questa protezione può essere ottenuta mediante uno dei seguenti metodi: - impedendo che la corrente passi attraverso il corpo; - limitando la corrente che può attraversare il corpo ad un valore inferiore a quello patofisiologicamente pericoloso Protezione contro i contatti indiretti Le persone devono essere protette contro i pericoli che possono derivare dal contatto con messe in caso di guasto che provochi la mancanza dell'isolamento. Questa protezione può essere ottenuta mediante uno dei seguenti metodi: - impedendo che la corrente passi attraverso il corpo; - limitando la corrente che può attraversare il corpo ad un valore inferiore a quello patofisiologicamente pericoloso; - interrompendo automaticamente il circuito in un tempo determinato al verificarsi di un guasto suscettibile di provocare attraverso il corpo, in contatto con le masse, una corrente almeno uguale a quella pericolosa per il corpo umano. Nota - Con riferimento alla protezione contro i contatti indiretti, l'utilizzo di collegamenti equipotenziali costituisce un principio fondamentale di sicurezza. Protezione contro gli effetti termici L'impianto elettrico deve essere realizzato in modo che non ci sia, in servizio ordinario, pericolo di innesco dei materiali infiammabili a causa di temperature elevate o di archi elettrici. Inoltre, non ci deve essere rischio che le persone possano venire ustionate. Protezione contro le sovracorrenti Le persone ed i beni devono essere protetti contro le conseguenze dannose di temperature troppo elevate o di sollecitazioni meccaniche dovute a sovracorrenti che si possano produrre nei conduttori attivi. Protezione contro le correnti di guasto I conduttori diversi dai conduttori attivi e qualsiasi altra parte destinati a portare correnti di guasto devono essere in grado di portare queste correnti senza raggiungere temperature troppo elevate. Protezione contro le sovratensioni Le persone ed i beni devono essere protetti contro le conseguenze dannose di un guasto tra parti attive di circuiti alimentati con tensioni di valore differente. Le persone ed i beni devono essere protetti contro le conseguenze dannose di sovratensioni che si possano produrre per altre cause (come per es. per fenomeni atmosferici e sovratensioni di manovra). Protezione contro gli abbassamenti di tensione Quando un abbassamento di tensione, o la mancanza ed il successivo ripristino della tensione, possono comportare pericoli per le persone o per le cose, devono essere prese opportune precauzioni. Impianto elettrico Insieme di componenti elettrici elettricamente associati al fine di soddisfare a scopi specifici e aventi caratteristiche coordinate. Fanno parte dell'impianto elettrico tutti i componenti elettrici non alimentati tramite prese a spina; fanno parte dell'impianto elettrico anche gli apparecchi utilizzatori fissi tramite prese a spina destinate unicamente alla loro alimentazione. Conduttore di neutro Conduttore collegato al punto di neutro del sistema ed in grado di contribuire alla trasmissione dell'energia elettrica. dispense5.doc 97 Alimentazione dei servizi di sicurezza Sistema elettrico inteso a garantire l'alimentazione di apparecchi utilizzatori o di parti dell'impianto necessari per la sicurezza delle persone. Il sistema include la sorgente, i circuiti e gli altri componenti elettrici. Alimentazione di riserva Sistema elettrico inteso a garantire l'alimentazione di apparecchi utilizzatori o di parti dell'impianto per motivi diversi dalla sicurezza delle persone. Massa Parte conduttrice di un componente elettrico che può essere toccata e che non è in tensione in condizioni ordinarie, ma che può andare in tensione in condizioni di guasto. Massa estranea Parte conduttrice non facente parte dell'impianto elettrico in grado di introdurre un potenziale, generalmente il potenziale di terra. Parte attiva Conduttore o parte conduttrice in tensione nel servizio ordinario, compreso il conduttore di neutro, ma escluso, per convenzione, il conduttore PEN. Shock elettrico Effetto patofisiologico risultante dal passaggio di una corrente elettrica attraverso il corpo umano. Contatto diretto Contatto di persone con parti attive. Contatto indiretto Contatto di persone con una massa in tensione per un guasto. Corrente pericolosa (per il corpo umano) Corrente che passa attraverso il corpo umano avente caratteristiche tali da causare effetti patofisiologici. Corrente di dispersione verso terra Corrente che, in assenza di guasto, fluisce verso terra o verso le masse. Corrente differenziale Somma algebrica dei valori istantanei delle correnti che percorrono tutti i conduttori attivi di un circuito in un punto dell'impianto. Isolamento principale Isolamento delle parti attive utilizzato per la protezione base contro i contatti diretti e indiretti. Isolamento supplementare Isolamento indipendente previsto in aggiunta all'isolamento principale per assicurare la protezione contro i contatti elettrici in caso di guasto dell'isolamento principale. Doppio isolamento Isolamento comprendente sia l'isolamento principale sia l'isolamento supplementare. Isolamento forzato Sistema unico di isolamento applicato alle parti attive, in grado di assicurare un grado di protezione contro i contatti elettrici al doppio isolamento, nelle condizioni specificate nelle relative Norme. Conduttore di protezione (PE) Conduttore prescritto per alcune misure di protezione contro i contatti indiretti per il collegamento di alcune delle seguenti parti: dispense5.doc 98 - masse; - masse estranee; - collettore (o nodo) principale di terra; - dispersore; - punto di terra della sorgente o neutro artificiale. Nota - Il simbolo PEN risulta dalla combinazione del simbolo PE per il conduttore di protezione e del simbolo N per il conduttore di neutro. Conduttore di terra Conduttore di protezione che collega il collettore (o nodo) principale di terra al dispersore od i dispersori tra loro. Collegamento equipotenziale Collegamento elettrico che mette diverse masse e masse estranee al medesimo potenziale. Impianto di terra Insieme dei dispersori, dei conduttori di terra, dei collettori (o nodi) di terra e dei conduttori di protezione ed equipotenziali, destinato a realizzare la messa a terra di protezione e/o di funzionamento. Terra Il terreno come conduttore il cui potenziale elettrico in ogni punto è convenzionalmente considerato uguale a zero. Portata (in regime permanente) (di una conduttura) Massimo valore della corrente che può fluire in una conduttura, in regime permanente ed in determinate condizioni, senza che la sua temperatura superi un valore specificato. Sovracorrente Ogni corrente che supera il valore nominale. Per le condutture, il valore nominale è la portata. Corrente di sovraccarico (di un circuito) Sovracorrente che si verifica in un circuito elettricamente sano. Corrente di cortocircuito (franco) Sovracorrente che si verifica in seguito a un guasto di impedenza trascurabile fra due punti fra i quali esiste tensione in condizioni ordinarie di esercizio. Corrente di guasto Corrente che si stabilisce a seguito di un cedimento dell'isolamento o quando l'isolamento è cortocircuitato. Conduttore equipotenziale per il collegamento di masse estranee Conduttore che collega fra di loro e all'eventuale nodo o anello equipotenziale le masse estranee. Nodo od anello equipotenziale del locale Elemento dell'impianto nel quale confluiscono i conduttori, di protezione e/o equipotenziali. Egualizzazione del potenziale Provvedimento protettivo che mediante un collegamento elettrico tra le masse e/o le masse estranee accessibili in un locale, o in un gruppo di locali, fa sì che le stesse assumano il medesimo potenziale. Detto provvedimento deve essere completato con il collegamento al conduttore di protezione (PE di Fig.1). - APPARECCHI Parte conduttrice accessibile Parte conduttrice di un apparecchio che può essere toccata (vedi 2.1.22) senza l'uso di un utensile. dispense5.doc 99 Documentazione annessa Documentazione annessa all'apparecchio o ad un accessorio, che contiene tutte le informazioni importanti per l'utilizzatore, l'operatore, l'installatore o montatore dell'apparecchio riguardanti particolarmente la sicurezza. Parte applicata Complesso di tutte le parti dell'apparecchio, compresi i conduttori collegati al paziente, che vengono intenzionalmente messe in contatto con il paziente sotto esame o cura. Per alcuni tipi di apparecchi, le Norme Particolari possono considerare le parti in contatto con l'operatore come parti applicate. Per alcuni apparecchi, una parte applicata di tipo F si estende, vista dalla parte del paziente verso l'apparecchio, fino al/ai punto/i dove l'isolamento e/o impedenza di protezione sono realizzati come prescritto. Involucro Superficie esterna dell'apparecchio comprendente: - tutte le parti metalliche accessibili, pomoli, maniglie e simili; - gli alberi accessibili, e - ai fini delle prove, un foglio metallico di dimensioni specificate, a contatto con parti della superficie esterna di materiale a bassa conduttività o di materiale isolante. Sorgente elettrica interna Sorgente incorporata nell'apparecchio e destinata a fornire l'energia elettrica necessaria per far funzionare l'apparecchio stesso. Parte collegata alla rete Complesso di tutte le parti dell'apparecchio destinate per avere un collegamento conduttore con la rete di alimentazione. Nel contesto della presente Norma il conduttore di protezione non viene considerato come facente parte della parte collegata alla rete. Apparecchiatura d'alimentazione Apparecchiatura che fornisce energia elettrica ad una o più parti dell'apparecchio. Parte accessibile Parte dell'apparecchio che può essere toccata senza l'uso di un utensile. Apparecchio elettromedicale Apparecchio elettrico, munito di non più di una connessione a una particolare rete di alimentazione destinato alla diagnosi, al trattamento o alla sorveglianza del paziente sotto la supervisione di un medico, e che entra in contatto fisico o elettrico col paziente e/o trasferisce energia verso o dal paziente e/o rivela un determinato trasferimento di energia verso o dal paziente. Distanza in aria Il minor percorso tra due parti conduttrici, misurato in aria. Isolamento fondamentale Isolamento di cui sono munite le parti sotto tensione per fornire la protezione fondamentale contro i pericoli elettrici. Distanza superficiale Il minor percorso tra due parti conduttrici, misurato lungo la superficie del materiale isolante. Corrente di dispersione verso terra Corrente fluente dalla parte collegata alla rete verso il conduttore di protezione attraverso o lungo l'isolamento. Corrente di dispersione sull'involucro Corrente fluente dall'involucro o parte dell'involucro, escluse le parti applicate, accessibile all'operatore o al paziente in uso ordinario, attraverso un collegamento conduttore esterno diverso dal conduttore di protezione verso terra o un'altra parte dell'involucro. dispense5.doc 100 Corrente di dispersione Corrente che non è funzionale. Si definiscono le seguenti correnti di dispersione: corrente di dispersione verso terra, corrente di dispersione sull'involucro e corrente di dispersione nel paziente. Corrente di dispersione nel paziente Corrente fluente dalla parte applicata al paziente verso terra, o fluente dal paziente verso terra attraverso una parte applicata di tipo F a causa del verificarsi non intenzionale sul paziente di una tensione dovuta ad una sorgente esterna. dispense5.doc Prof. Silvano Dubini LABORATORIO DI ESAMI INDICE 1. PREMESSA .............................................................................................................4 2. ASPETTI CLINICI ....................................................................................................5 3. ASPETTI ORGANIZZATIVI .....................................................................................7 4 3.1 Prelievo del sangue...........................................................................................7 3.2 Tipologie di laboratorio ......................................................................................9 3.3 Evoluzione tecnologica del laboratorio ............................................................10 METODICHE DI LAVORO .....................................................................................13 4.1 Chimica clinica ................................................................................................13 4.1.1 Biochimica................................................................................................13 4.1.1.1 Fotometria ad assorbimento luminoso........................................................................................................14 4.1.1.2 Fotometria end-point e cinetica enzimatica ................................................................................................16 4.1.1.3 Schemi realizzativi per fotometria ad assorbimento ...................................................................................18 4.1.1.4 Realizzazzione della sorgente luminosa .....................................................................................................19 4.1.1.5 Realizzazzione del monocromatore............................................................................................................21 4.1.1.6 Realizzazione dei rivelatori ........................................................................................................................21 4.1.2 Elettroliti ...................................................................................................24 4.1.2.1 La fotometria a fiamma ..............................................................................................................................24 4.1.2.2 Sensore a elettrodo specifico ......................................................................................................................25 4.1.3 pH ematico, pO2 e pCO2 .........................................................................28 4.1.4 Proteine....................................................................................................28 4.1.4.1 4.1.5 Ormoni e farmaci......................................................................................31 4.1.5.1 Gascromatografo ........................................................................................................................................33 4.1.5.2 Sensore a ioni e sensore a cattura di elettroni .............................................................................................35 4.1.5.3 HPLC .........................................................................................................................................................37 4.1.6 4.1.6.1 4.2 Elettroforesi................................................................................................................................................29 Urine ........................................................................................................38 Chimica secca.............................................................................................................................................38 Ematologia ......................................................................................................40 4.2.1 Elementi figurati del sangue .....................................................................40 4.2.1.1 Conteggio manuale dei corpuscoli ematici.................................................................................................42 4.2.1.2 Conteggio automatico con macchina di Coulter.........................................................................................43 4.2.1.3 Conteggio automatico con metodo di misura TOA ....................................................................................47 2 4.2.2 4.2.2.1 4.3 Antigeni ed anticorpi.................................................................................53 4.3.1.1 Sistema di misura RIA (RadioImmunoAssay) ...........................................................................................55 4.3.1.2 Tecniche di biologia molecolare.................................................................................................................59 4.3.2 Gruppi sanguigni ......................................................................................62 microbiologia ...................................................................................................64 4.4.1 Batteri.......................................................................................................64 4.4.2 I miceti......................................................................................................67 4.4.3 Parassiti ...................................................................................................68 4.4.4 Virus.........................................................................................................69 4.5 5 La misura della coagulazione .....................................................................................................................51 Immunologia....................................................................................................53 4.3.1 4.4 Coagulazione ...........................................................................................49 citologia e istologia ..........................................................................................71 4.5.1 Cellula e tessuto.......................................................................................71 4.5.2 Citogenetica .............................................................................................72 AUTOMAZIONE.....................................................................................................73 5.1 Realizzazzione degli strumenti di prelievo liquidi ............................................73 5.2 Tecnica SMA per automatizzazione fotometria (multianalizzatore seriale) .....76 5.3 Realizzazzione di fotometria a profilo variabile ...............................................81 3 1. PREMESSA Il seguente rapporto vuole introdurre i partecipanti al corso alle problematiche del laboratorio di analisi. Le brevi informazioni fornite sono propedeutiche allo svolgimento della ricerca e servono per porre sullo stesso piano di conoscenza di base tutti i discenti a prescindere dalla loro estrazione culturale. 4 2. ASPETTI CLINICI In un laboratorio clinico vengono effettuate indagini sia per restringere progressivamente le ipotesi diagnostiche iniziali formulate dal medico clinico (fino ad ottenere una diagnosi il più possibile sicura), sia per avere un supporto oggettivo al giudizio prognostico che al monitoraggio del decorso della malattia e delle terapie approntate. Tali indagini vengono condotte prevalentemente su campioni prelevati dal paziente, costituiti da liquidi biologici o talvolta da parti di tessuto prelevate per biopsia. I liquidi biologici possono suddividersi essenzialmente in: sangue (sangue intero, plasma e siero), urina e, in minor misura, liquido cerebrospinale, liquido amniotico, liquido seminale, feci, escreato, succhi gastrico e duodenale, ecc. I campioni così definiti vengono sottoposti a trattamenti ed analisi di varia natura: fisici (come ad esempio la centrifugazione), chimici (come ad esempio l'aggiunta di sostanze e reagenti), microscopici (sia a fresco che dopo colorazione) e biologici (reazioni immunologiche, ecc.). Le informazioni diagnostiche oggi ottenibili con le indagini di laboratorio, sono schematizzate in Tab.1. • Stato funzionale di organi e sistemi • Natura ed entità delle lesioni cellulari e tessutali • Costituenti biochimici normali e patologici • Risposta immunitaria dell'organismo • Agenti infettivi e reazioni generali • Presenza e quantificazione di sostanze introdotte nell'organismo a scopo terapeutico o tossico Tabella 1 Informazioni diagnostiche ottenibili con le indagini di laboratorio. (Rif.2) E' comunque opportuno sottolineare che i parametri di valutazione clinica dipendono dalle diverse fasi della malattia. Le indagini di laboratorio vengono svolte in tutte le fasi della malattia, latenti, palesi e nell'evolversi di uno "stato morboso", con risultati alquanto diversi. 5 Per seguire l'andamento della malattia, dalla fase iniziale, che per lo più si sottrae all'indagine clinica, alla fase di conclusione del processo, si può utilizzare la schematizzazione di fig.2 in cui sono riportati in ascissa i tempi (t) di sviluppo della malattia ed in ordinata la fasi dello sviluppo stesso relativamente alla comparsa dei segni clinici (sC) e di laboratorio (sL). L'andamento della malattia disegna una curva (appunto definita "curva dell'andamento della malattia"), il cui primo tratto (A-B) è definibile come "intervallo delle non conoscenze", perché‚ in questo tratto, dal presunto momento dell'inizio della malattia (A) fino al tempo tL) della comparsa dei primi segni di laboratorio (sL), poche sono le possibilità di indagini per ottenere elementi diagnostici utili. Nel grafico la curva percorre poi il tratto B-C, che va dal momento (tL) della comparsa dei primi segni di laboratorio fino al momento (tC) della comparsa dei segni clinici (sC). Questo intervallo è chiamato anche "α" o "intervallo clinicamente muto" o "intervallo occulto" e rappresenta oggi giorno l'ambito di maggior impegno per la diagnostica di laboratorio, in quanto le manifestazioni cliniche non sono percettibili dal soggetto mentre è possibile dimostrare alterazioni biochimiche o strutturali con significato diagnostico presuntivo o assoluto. Infine troviamo il tratto C-D che è definibile "dell'evidenza clinica", perché‚ sono presenti in varia misura segni clinici e la malattia, nella maggioranza dei casi, è di tutta evidenza. Il tratto delle "non conoscenze" va sempre più riducendosi di pari passo con l'accrescersi delle conoscenze di base e con lo sviluppo tecnologico. D C Sviluppo sC sL B ∝ A tL Tempo tC Fig. 2 Diagramma detto "curva dell'andamento della malattia". (Rif.2) 6 3. ASPETTI ORGANIZZATIVI 3.1 Prelievo del sangue Il prelievo del campione rappresenta un punto fondamentale dell'impegno del laboratorio. Il primo requisito per assicurare l'affidabilità del risultato è rappresentato da un corretto prelievo. Per la maggior parte degli esami di laboratorio occorre che il paziente sia a digiuno da un certo numero di ore per evitare l'interferenza con il metabolismo del cibo. A seconda dell'esame che deve essere eseguito e della tecnica impiegata si può ricorrere al prelievo di sangue venoso o al prelievo di sangue capillare o periferico. Solo in casi particolari (determinazione dei gas nel sangue) si ricorre al prelievo di sangue arterioso. Il prelievo del sangue venoso, con il quale vengono eseguiti gli esami più comuni (glicemia, azotemia, ecc.) viene effettuato generalmente dalle vene della regione anteriore del gomito dopo aver prodotto una modesta stasi stringendo il braccio con un laccio di gomma. E' opportuno che la stasi così prodotta non sia prolungata e, in certi casi, è necessario procedere al prelievo senza stasi. L'uso di siringhe di vetro è ormai abbandonato e per il prelievo si impiegano siringhe di plastica "a perdere" o aghi collegati a provette in cui è stato praticato il vuoto (vacutainer di fig.3) così che il sangue viene aspirato direttamente nella provetta non appena l'ago penetra in vena. In questo sistema, sempre più diffuso per la sua praticità e sicurezza microbiologica, l'ago, provvisto di una valvola, è montato su un supporto cilindrico di materiale plastico idoneo per essere facilmente manipolato. Fig. 3 Vacutainer 7 Una volta che l'ago è penetrato correttamente nel vaso si introduce nel supporto la provetta tappata e la si spinge verso il fondo in modo che l'estremità dell'ago sporgente nel supporto attraversi il tappo di gomma rimuovendo durante il passaggio la valvola che chiude l'estremità dell'ago. In questo modo, appena l'ago entra in vena, il sangue viene aspirato nella provetta. Togliendo la provetta la valvola arresta la fuoriuscita del sangue, consentendo così di riempire successivamente diverse provette. I campioni di sangue così prelevati vengono poi preparati per l'esecuzione delle varie tipologie di esame. Molte indagini di laboratorio vengono effettuate sul plasma che necessita di una preparazione particolare. Il sangue viene prelevato in una provetta contenente sostanze "anticoagulanti" che, con meccanismi diversi, impediscono la coagulazione. Quindi viene centrifugato per ottenere la separazione della parte corpuscolare dal plasma. Il plasma così preparato viene inserito in provette ordinate in appositi contenitori che vanno agli strumenti di misura. L'identificazione delle provette oggi è superata con l’etichettatura con codice a barre più o meno automatica, ma fino a poco tempo fa rappresentava un punto critico. Infatti il campionamento si basava sul principio dell'ordine progressivo occupato in un contenitore che ovviamente era soggetto a molti "errori umani". Attualmente l’etichettatura e la standardizzazione delle provette sotto vuoto utilizzate (incentrata sul colore del tappo) hanno pressoché eliminato l’inconveniente. Inoltre sono stati oggetto di standardizzazione gli additivi anticoagulanti utilizzati, in modo da garantire, se necessaria, un'azione ottimale (Tab.4). Colore tappo Utilizzazione Grigio Plasma o sangue intero sodio Giallo Prelievo sterile Verde Plasma o sangue intero Rosso Siero Blu Plasma o sangue intero Additivo anticoagulante Ossalato di potassio e floruro di sodio Test eseguibile Glucosio -----------------------Eparinato di litio Emogasanalisi -----------------------Sodio citrato Esami coagulativi (PT, PIT, fibrinogeno), VES Emocromocitometrico, piastrine, reticolociti, Lavanda Plasma o sangue intero EDTA (K3) tipizzazione, linfocitaria, emoglobinepatologiche, enzimi eritrocitari Tabella 4 Provette per un tipo di sistema chiuso di prelievo sottovuoto: colori dei tappi per un'agevole identificazione dell'uso e dell'additivo contenuto. (Rif.2) 8 Anche l'identificazione del paziente è un punto cruciale delle fasi inerenti il prelievo del campione. Alcuni studi hanno dimostrato che l'8% degli errori nell'attribuzione del nome, dell'età, del sesso del paziente e della sua anagrafica in genere, possono passare inosservati anche dopo approfondite procedure di controllo. Per questo motivo va posta una grande attenzione, al momento dell'accettazione del paziente, nella verifica completa di tutti i dati anagrafici. In particolare è necessario utilizzare i sistemi che permettono di evitare problemi derivanti da omonimia, analogie nella data di nascita, ecc. Qualsiasi sia il sistema di accettazione (manuale o automatico) è necessario che tutti i dati essenziali del paziente compaiano sulle etichette da applicare ai contenitori di liquido da analizzare. Tali notizie, infatti, non solo garantiscono una limitazione degli errori di attribuzione del campione, ma possono anche essere utili al personale incaricato dell'analisi. Attualmente l'adozione di sistemi computerizzati consente che all'identificazione di un paziente si accompagni un sistema di archiviazione aggiornabile e tale da permettere il richiamo di dati precedenti, per confronti, per controlli di plausibilità e per la creazione di basi di dati orientati per patologie. Attualmente si tende a preparare in laboratorio e fornire (generalmente via software) in vari Reparti etichette prestampate con codice a barre (barcode) per l'identificazione automatica del campione. Tuttavia, benché‚ la computerizzazione riduca gli errori di identificazione, è sempre necessario insistere sul fatto che il personale deve eseguire attenti controlli per verificare la correttezza delle modalità d'identificazione e per riconoscere gli eventuali errori detti "errore di campionamento". Il metodo oggi più diffuso per verificare un dato anomalo è la ripetizione dello stesso esame con ovvio e per qualche verso inaccettabile aumento di costo oltre ad un maggior disagio per il paziente. 3.2 Tipologie di laboratorio Il laboratorio clinico può essere suddiviso in tre diverse tipologie: Laboratorio di Analisi Cliniche, Centro Trasfusionale e Anatomia Patologica, nelle quali vengono svolte metodiche diverse, come riportato in tabella 5. 9 METODICHE LABORATORIO CENTRO ANATOMIA ANALISI TRASFUSIONALE PATOLOGICA Chimica clinica X Ematologia X Immunologia X Microbiologia X X (1) Citoistologia X (1) Nel Centro Trasfusionale vengono effettuati dosaggi immunologici generalmente diversi rispetto al Laboratorio di Analisi. Tabella 5 La "X" indica la tipologia di laboratorio dove viene svolta la metodica indicata. Il Laboratorio di Analisi ha come indirizzo principale quello di eseguire esami clinici, mentre nel Centro Trasfusionale prevale la raccolta, la tipizzazione, la conservazione e la distribuzione del sangue umano e dei suoi derivati, sul quale vengono effettuati diversi tipi di esami immunologici necessari per la tipizzazione e per garantire la sicurezza delle trasfusioni sanguigne. Infine il laboratorio di Anatomia Patologica svolge soprattutto una attività di raccolta di campioni, e attività di analisi prevalentemente di tipo morfologico. 3.3 Evoluzione tecnologica del laboratorio Negli ultimi anni si è assistito ad un notevole aumento di domanda degli esami di laboratori sia di tipo qualitativo che di tipo quantitativo. Esiste un aspetto negativo di questo fenomeno, noto come "consumismo tecnologico", costituito da una spinta all'utilizzo di esami di laboratorio non sempre giustificato. Sono anche aumentate in modo differenziato le diverse tipologie di esame. Tale fenomeno può essere così riassunto: • enorme incremento del numero di esami immunologici, seguito da un rilevante incremento del numero di esami chimico clinici ed ematologici • stazionarietà del numero di esami microbiologici e citoistologici 10 • aumento della domanda di esami che non può essere risolto con un incremento delle risorse (personale, ampliamento del laboratorio, ecc.) ma necessita di una risposta tecnologica basata sull'automazione e sull'informatizzazione con una notevole riduzione dei costi • esigenza a contenere i costi. A tale proposito per verificare l'effettivo vantaggio dell'automazione è necessario osservare la curva dei costi dell'automazione riportata in fig.6. Costo esami Fig. 6 Curva dei costi dell'automazione. La curva evidenzia un punto detto massa critica al di sotto del quale l'automazione stessa non risulta vantaggiosa. Per farsi una idea delle dimensioni operative di un laboratorio si consideri che: • un laboratorio di piccole dimensioni effettua circa 500.000-1.000.000 esami/anno (1.700 esami/giorno) • un laboratorio medio 2.000.000 esami/anno (7.000 esami/giorno); • un grosso laboratorio esegue circa 7.000.000 esami/anno (20.000) esami/giorno). 11 Poiché su uno stesso campione vengono eseguiti circa 10 esami, il numero di pazienti trattati giornalmente è: piccolo laboratorio: 170 pazienti/giorno medio laboratorio: 700 pazienti/giorno grande laboratorio 2000 pazienti/giorno L'elevato numero di campioni che affluiscono ai laboratori e l'introduzione di nuovi test diagnosticamente efficaci è in continua evoluzione perciò una gestione informatizzata del laboratorio stesso comporta la presenza in laboratorio di strumentazioni e di sistemi analitici sempre più automatizzati e integrati con il sistema informativo di gestione. Infatti la strumentazione di un moderno laboratorio si avvale delle risorse della meccanizzazione, dell'automazione e della computerizzazione. Nel panorama generale di continua innovazione del laboratorio, è utile verificare il diverso grado di innovazione raggiunto nelle metodiche di laboratorio. In Tab.7 viene riportato il grado di innovazione per ognuna delle metodiche. METODICA GRADO DI INNOVAZIONE Chimica clinica Moderato Ematologia Moderato Immunologia Elevato Microbiologia Medio Citologia Basso Tabella.7 Grado di innovazione per ognuna delle metodiche Un altro parametro fondamentale per i sistemi di misura utilizzati nei laboratori è l'affidabilità. Essa è l'obiettivo principale sul quale si dirige l'innovazione tecnologica. L'affidabilità di un sistema di misura è spesso molto più importante che non la precisione della misura stessa. 12 4 METODICHE DI LAVORO Di seguito si daranno brevi cenni sulle metodiche e sui parametri biologici misurati per ciascuna metodica riportata in tab. 7. 4.1 Chimica clinica Le indagini chimico cliniche costituiscono una parte molto vasta di tutta l'attività del laboratorio e si basano sullo studio delle caratteristiche fisiche (tipo di reazione con la luce; resistenza al mezzo ecc.) e chimiche (attività chimica con altre sostanze) dei diversi componenti presenti nei campioni biologici (sangue, urina ecc.). Va tenuto presente che l'analisi chimica e chimico-fisica dei costituenti, qualitativa e quantitativa (si parla in quest'ultimo caso di misurazione) riveste in chimica clinica aspetti del tutto particolari, perché l'oggetto di studio è l'organismo umano e le finalità della ricerca sono la diagnosi e la terapia. La fase più delicata dell'analisi, quella dell'interpretazione dei risultati, deve infatti tenere conto che sui test di chimica clinica hanno peso le influenze più disparate, che sono del tutto inconsuete per la chimica analitica: fattori genetici, variazioni fisiologiche a breve e lungo termine, pregressa somministrazione di farmaci e di droghe, ecc. Le componenti altamente specializzate della chimica clinica sono molto importanti per l'elevato grado di sofisticazione analitica che richiedono e per il grande interesse diagnostico. Le misure chimico-fisiche dei costituenti in esame eseguite con metodiche diverse, consentono una identificazione o una quantizzazione (o entrambe) degli stessi. Di seguito sono riportate le metodiche caratteristiche della chimica-fisica e le loro applicazioni in laboratorio. I principi di funzionamento verranno illustrati nei capitoli successivi. 4.1.1 Biochimica La misura della concentrazione della maggior parte dei comuni costituenti presenti nei fluidi biologici quali, l'urea, il glucosio, le proteine totali, il colesterolo, i trigliceridi, gli enzimi ecc., viene effettuata con l'utilizzo della fotometria ad assorbimento. Tale metodica si basa sulla misura dell'assorbimento ottico presentato in modo selettivo da molte sostanze in soluzione. 13 La misura fotometrica del dosaggio dei diversi costituenti può essere eseguita con due diverse modalità: misura end point e cinetiche enzimatiche. Nell'end point occorre aspettare un determinato tempo (dipendente dalla reazione fra reattivo e sostanza incognita necessaria per qualsiasi lettura fotometrica ad assorbimento) prima di eseguire la misura; mentre nella cinetica enzimatica viene misurata la velocità di reazione, ma, rispetto all'end point, impone l'esecuzione di più misure in tempi prefissati, ciò porta a vincoli notevoli per l'evoluzione di sistemi automatici basati sulla cinetica enzimatica. 4.1.1.1 Fotometria ad assorbimento luminoso La misura della fotometria ad assorbimento luminoso usa la legge di Lambert-Beer composta da due leggi quella di Lambert e quella di Beer, una analizza l'assorbimento dell'energia luminosa in funzione delle dimensioni della provetta e l'altra in funzione della concentrazione di una certa sostanza disciolta in soluzione. La legge di Lambert-Beer è stata studiata tramite due esperimenti che hanno permesso di analizzare la quantità di luce assorbita al variare della grandezza della provetta d e della concentrazione C delle soluzioni usate. Nei due esperimenti si è prima variata la grandezza d della provetta lasciando inalterata la concentrazione, poi lasciando la stessa provetta si è variata la concentrazione della sostanza contenuta, supponendo ogni volta la prima provetta identica alla seconda. Nella figura seguente lo schema dell'esperimento. 14 La sorgente di luce I0 passando attraverso la prima provetta subisce la stessa attenuazione che I1 subisce passando attraverso la seconda provetta, permettendo così infine di formulare una legge finale che consentisse di conoscere l'assorbimento al variare dei parametri C e d: I = I 0 ⋅ e − K ⋅ d ⋅C Dalla legge precedente di può ricavare il seguente risultato: log I0 = K ⋅d ⋅C I Il fattore K varia il proprio valore al variare della lunghezza d'onda della sorgente di luce I0 e della sostanza in soluzione, come rappresentato nel grafico seguente, dove vi è una famiglia di curve una per ogni sostanza, al variare della lunghezza d'onda. Dal grafico si nota che le curve si sovrappongono e che per una certa lunghezza d'onda si possono avere più sostanze che danno un contributo non trascurabile al valore di K. PROBLEMA: Nel caso si abbia una sola sostanza disciolta in una soluzione allora si avrebbe il contributo al valore K solo di una curva visto che le altre sostanze sono assenti, ma nel caso del siero si hanno moltissime sostanze insieme e quindi sarebbe impossibile distinguere il contributo di una sostanza dall'altra. 15 La soluzione al problema presentato nel riquadro è stata quello dell'uso di particolari tipi di reagenti. I reagenti usati sono composti chimici che in presenza di una particolare sostanza da analizzare formano un prodotto che ha una curva di K molto stretta intorno ad un certo valore preciso della lunghezza d'onda, hanno cioè un picco in corrispondenza di un certo lambda preciso. Le lunghezza d'onda per cui si hanno i picchi dei reagenti sono tali che il contributo delle curve relative alle altre sostanze sia trascurabile avendo quindi come unico contributo significativo quello relativo al prodotto ottenuto dal reagente, permettendo così di potere misurare con precisione la concentrazione del prodotto ottenuto dalla reazione del reagente e della sostanza desiderata. Esiste quindi un reagente per ogni sostanza di cui si desidera conoscere la concentrazione. I reagenti possono essere di due tipi: • Monoreattivi: se per ottenere il prodotto finale è sufficiente mischiare il reagente direttamente con la soluzione. • Plurireattivi: se per ottenere il prodotto finale bisogna ottenere prima più prodotti intermedi, avendo quindi più passaggi ( da notare che per potere ottenere un prodotto intermedio bisognava aspettare che fosse finita la reazione precedente e quindi che si fosse ottenuto il prodotto precedente, avendo così un processo molto lento). I primi reagenti erano di tipo plurireattivo, ma oggi sono praticamente tutti monoreattivi risultando tali tipi di reagenti di più semplice e veloce utilizzo. La distanza d viene mantenuta costante usano nelle misure sempre la stessa provetta divenendo cioè le dimensioni della provetta standard. 4.1.1.2 Fotometria end-point e cinetica enzimatica La fotometria end-point usa il principio di assorbimento dell'energia luminosa e quindi usa la legge di Lambeer-Beer per la determinazione della concentrazione di una certa sostanza. 16 Il nome stesso della fotometria ne descrive il funzionamento, cioè le misure di concentrazione vengono eseguite a fine reazione, cioè quando la reazione tra reattivo e siero è terminata. Quando il reattivo viene inserito nel siero la reazione impiega un certo tempo (qualche minuto) per avvenire e successivamente, a reazione avvenuta è possibile fare una misura. Dopo la reazione va ricordato che la misura deve essere effettuata entro un certo tempo (qualche decina di minuti), altrimenti il prodotto ottenuto comincia a degradarsi e la misura fotometrica risulta imprecisa. Le misure di cinetica enzimatica avvengono sempre usando il principio di assorbimento ma le misure non vengono effettuate solo a fine reazione, ma vengono effettuate durante il corso di tutta la reazione, ed in particolare i valori di misura usati sono quelli in zona lineare. Quello che si vuole misurare è il valore della derivata nel tratto lineare, cioè in quel tratto in cui la derivata si presenta circa costante. Il primo problema è quello di determinare quando si è in zona lineare, questo è determinabile andando a controllare quando per un certo numero di misure effettuate l'incremento è circa costante. Una volta individuato il tratto di zona lineare basta andare a determinare il valore della derivata prima nella zona lineare (prendendo ad esempio il valore di due punti nella zona lineare e andando a calcolarne il coefficiente angolare della retta passante tra i due punti). La velocità della reazione dipende dai seguenti parametri: Cx concentrazione catalizzatore parametro da misurare Cs concentrazione solvente parametro noto PH acidità della soluzione mantenuta costante tramite soluzioni tampone T temperatura tenuta fissa e nota tramite termostatazione Mantenendo costanti alciuni parametri e misurandone altri tra cui la velocità è possibile risalire al valore di Cx. 17 Quando la pendenza del grafico nella zona lineare è troppo ripida, la velocità di campionamento può risultare non sufficiente.e quindi la concentrazione è troppo elevata e va diluita (in genere con acqua distillata, provando più diluizioni successive, normalmente provando fino a 3 volte). 4.1.1.3 Schemi realizzativi per fotometria ad assorbimento La fotometria ad assorbimento sia nel caso di end-point che di cinetica enzimatica rispetta il seguente schema di principio. Nello schema si notano i seguenti elementi: • Sorgente: è una sorgente di luce che emetta negli spettri interessati • Monocromatore: permette di selezionare lo spettro desiderato fra tutti quelli generati dalla sorgente • Cuvetta: è il contenitore contenente il prodotto ottenuto usando un certo tipo di reattivo • Rivelatore: è un sensore che permette di trasformare la radiazione ricevuta in segnale elettrico • Amplificatore logaritmico: è un amplificatore che permette di compensare il logaritmo di I0/ I1 ottenendo I0/ I1 • OUT: uscita segnale elettrico direttamente proporzionale a I0/ I1 Vi è un problema che porta ad adottare a volte anche un'altra soluzione derivata dallo schema precedente con qualche modifica. Il problema è quello della misura della luce emessa dalla sorgente utile per una eventuale taratura fatta con una soluzione a concentrazione nota, in quanto la luce 18 trasmessa alla cuvetta può andare incontro a dei cambiamenti dovuti a varie cause (monocromatore sporco, filamento della sorgente consumato, …). Per potere effettuare sia la misura tradizionale sia la misura di I0 senza dovere togliere la provetta dal proprio alloggiamento si usa il sistema a doppio raggio, in cui compaiono una serie di specchietti riflettenti come nello schema seguente. Nello schema si possono notare i seguenti elementi aggiunti: • SF: specchi fissi, sono specchi fissi posizionati a 45° usati per dirigere il raggio • SM: specchio mobile, è uno specchio in grado di assumere due posizioni permettendo di fare misure fotometriche facendo passare il raggio attraverso la cuvetta o di misurare I0 senza attraversare la cuvetta Il tratteggio rappresenta il persorso del raggio nel caso di specchio mobie abbassato e quindi di misura con cuvetta, mentre quello continuo riflesso dagli specchi fissi rappresenta il percorso del raggio luminoso con lo specchio mobile alzato e quindi in posizione di misura di I0. Tramite cicli alternati è possibile alternare a misure di concentrazione misure di I0 e quindi avere il valore attuale di I0 per ogni misura effettuata. 4.1.1.4 Realizzazzione della sorgente luminosa La sorgente luminosa usata nelle misure è in genere una lampada ad incandescenza che ha la proprietà di generare uno spettro molto ampio di luce. La caratteristica principale della sorgente luminosa è quella che dovrebbe fornire un'intensità luminosa costante in maniera da non provocare variazioni di I0. La stabilità della radiazione luminosa emessa dipende da diversi fattori: • Corrente di alimentazione della lampada di incandescenza 19 • Dimensioni fisiche del filamento (sezione, lunghezza) • Scambi energetici con l'esterno Per ogni fattore di variazione è stata trovata una soluzione: • La corrente di alimentazione della lampada ad incandescenza può essere mantenuta costante in maniera molto precisa dagli attuali stabilizzatori • Le dimensioni fisiche del filamento non rimangono costanti con il passare del tempo, la dimensione della sezione si degrada e diminuisce, ma è un fenomeno lento, per cui si può benissimo eliminare l'inconveniente tramite la taratura. • Gli scambi energetici con l'esterno o possono essere ridotti tramite isolamento termico oppure si può rendere il loro effetto poco influente tramite l'aumento della massa termica del filamento. L'aumento della massa termica avviene mettendo una massa metallica intorno al filamento (massa isolata elettricamente ma non termicamente dal filamento). Tale massa metallica è completamente chiusa intorno al filamento (tranne un forellino da cui esce la radiazione luminosa) ed è dipinta di colore nero (in maniera da assorbire radiazione). Lo svantaggio della massa termica è quello che il tempo per raggiungere la temperatura di regime aumenta. La radiazione ideale dal punto spettrale sarebbe la luce solare, che viene detta luce bianca, in quanto contiene tutte le frequenze e viene assimilata equivalentemente alla radiazione emessa da un corpo nero a 8000°C. Le lampade conosciute non riescono a generare uno spettro ampio quanto quello della luce solare, ma ogni tipologia di lampade genera uno spettro non costante e incentrato intorno ad una certa banda. • Lampada ad idrogeno • Lampada ad incandescenza visibile, infrarosso vicino • Lampada ai vapori di mercurio nel giallo ultravioletto Per cercare di coprire tutto lo spettro di interesse si usano in genere una combinazione di lampade. 20 La luce usata dalle apparecchiature fotometriche inoltre viene detta fredda, in quando la componente radiante dell'infrarosso che renderebbe una luce capace di scaldare viene eliminata da un filtro interno al bulbo della lampada come nella figura sopra. 4.1.1.5 Realizzazzione del monocromatore Il monocromatore è quel componente che da una radiazione luminosa ad ampio spettro seleziona una radiazione di una certa lunghezza d'onda ben precisa. Le tecnologie realizzative sono diverse e usano principi diversi per potere selezionare una lunghezza d'onda tra le altre presenti nella radiazione di ingresso. • Monocromatore a prisma: questo monocromatore usa un prisma per scindere la luce nelle varie radiazioni da cui è composta. È il monocromatore pìu semplice, ma presenta il difetto di non essere selettivo, in quanto il lobo presenta una larghezza eccessiva. • Monocromatore a piastra: è un monocromatore che sfrutta la differente velocità di propagazione della luce in un materiale a seconda della lunghezza d'onda. Rispetto il moncromatore a prisma quello a piastra è molto più selettivo ed ha una larghezza del lobo di circa 1nm. • Monocromatore a diffusione: questo monocromatore sfrutta la diffusione della luce ed in particolare le sorgenti Huygens, per cui oggetti di dimensioni paragonabili alla lunghezza di diffusione diventano sorgenti loro stessi di luce.. 4.1.1.6 Realizzazione dei rivelatori I rivelatori sono i sensori atti a rivelare la luce e a trasformarla in segnale elettrico. I sensori usati possono essere di diversi tipi, a seconda della tecnologia usata, anche se i più usati sono di due tipi: 21 • Sensore a tubo a vuoto (fotomoltiplicatore): è un dispositivo che sfrutta la tecnologia dei tubi a vuoto (valvole) per rilevare una radiazione luminosa ed amplificarla. Lo schema del tubo a vuoto è il seguente: Quando una radiazione luminosa colpisce il catodo si formano elettroni che attratti dall'anodo vanno a colpirlo ed esso a sua volta rilascia altri elettroni in quantità maggiore di quanti lo hanno colpito. Gli elettroni passano da un'anodo all'altro e arrivando all'ultimo anodo sono sufficienti a formare una corrente elettrica fornendo così un segnale elettrico. Il fotomoltiplicatore ha uno schema di connessione particolare in cui si deve alimentare il catodo con una tensione elevata di 1000-2000V e gli anodi con un'opportuna corrente di polarizzazzione ottenuta tramite resistenze, come nello schema sottostante. 22 Il segnale elettrico viene prelevato attraverso la capacità di disaccoppiamento C che ha il compito di bloccare la corrente di polarizzazzione degli anodi. Alcuni svantaggii del fotomoltiplicatore sono quello di avere una certa dimensione non trascurabile e che richiede tensioni molto maggiori di quelle richieste per l'elettronica digitale a fronte però del fatto che il fotomoltiplicatore non ha fonti di rumore caratteristiche dei semiconduttori. • Sensore a semiconduttore (fotodiodi, fototransistor, fotoresistenze): questa tipologia di sensori usa materiali semiconduttori (silicio, germanio) per trasformare una radiazione luminosa in segnale elettrico. Questo tipo di sensori è piccolo, leggero, robusto e più pratico da usare dei fotomoltiplicatori, ma presenta lo svantaggio di avere fonti di rumore caratteristiche di questo tipo di sensore (per questa ragione spesso li si raffredda, riducendo il rumore). 23 4.1.2 Elettroliti I liquidi dell'organismo umano sono costituiti da soluzioni il cui solvente è l'acqua nella quale sono contenute le varie sostanze organiche ed inorganiche (soluti). Queste soluzioni permettono il passaggio di corrente elettrica se poste in un campo elettrico. I soluti di tali soluzioni, che in acqua si dissociano in ioni positivi e negativi liberi di migrare, si chiamano elettroliti. Tra gli elettroliti, assumono notevole importanza gli ioni sodio (Na+) potassio (K+) e cloro (Cl-). Non si conoscono processi metabolici che non siano dipendenti o interessati dagli elettroliti; fra le altre funzioni, vanno ricordati il mantenimento della pressione osmotica, della compartimentazione molecolare dell'acqua nei vari distretti organici, del pH, delle funzioni muscolare e cardiaca. Le alterazioni degli elettroliti sono pertanto o causa o conseguenza di una grande varietà di disordini metabolici. I risultati delle loro determinazioni sono interpretati generalmente come una definizione di stato di equilibrio, piuttosto che una indicazione di una specifica patologia. La misura di questi elettroliti veniva eseguita con l'utilizzo della fotometria ad assorbimento atomico o ad emissione atomica (fotometro a fiamma) nella quale viene sfruttata la capacità di un atomo o di eccitarsi tramite l'energia di una fiamma o allo stato fondamentale di assorbire energia sotto forma di radiazione luminosa, per passare ad uno stato eccitato. La fotometria a fiamma è stata oggi superata dall'uso di elettrodi ione-specifici. 4.1.2.1 La fotometria a fiamma La fotometria a fiamma differisce in diversi aspetti dalla fotometria tradizionale in quanto si basa sulla misura dello spettro di emissione. La sorgente non è più una lampada ad incandescenza ma è un sistema in cui non si misura più l'assorbimento della luce da parte della sostanza contenuta in una cuvetta, ma si spruzza la sostanza su una fiamma e, tramite un monocromatore posizionato prima del rilevatore, se ne misura lo spettro emesso, come in figura seguente. 24 Dalla misura della radiazione emessa, effettuata col rivelatore, è possibile risalire alla concentrazione della sostanza. Dalla figura si nota che il monocromatore è un disco con tre filtri: • Filtro per selezionare la lunghezza d'onda emessa da sodio. • Filtro per selezionare la lunghezza d'onda emessa dal potassio. • Filtro per selezionare la lunghezza d'onda di un’altra sostanza (ad esempio il Litio, che non è èpresente nell’organismo), inserita nel campione da misurare e usata per tarare l'apparecchiatura. L’uso dei ter filtri si rende necessario in qunto, a causa della non costanza della fiamma, potrei avere errori di misura; è possibile ridurre tali errori facendo opportuni calcoli basati sul rapporto fra le misure delle singole lunghezza d’onda. La fiamma viene generata bruciando un gas, in genere l'idrogeno. L'uso del monocromatore è necessario al fine di filtrare tutte le frequenze generate dalla fiamma che oltre a generare la luce la cui lunghezza d'onda viene misurata genera anche radiazioni spurie. 4.1.2.2 Sensore a elettrodo specifico Questa tecnica è stata sviluppata per la misura specifica di sodio, potassio e metalli pesanti. Il suo principio di funzionamento è basato sulla legge di Nerst: E = ( Eb − Ea) − k ⋅ lg Ca Cb 25 I vari termini della formula di Nerst (riferiti all'esempio precedente) hanno il significato di: E = potenziale rilevato ai capi dei due elettrodi Eb = potenziale caratteristico elettrodo metallico B Ea = potenziale caratteristico elettrodo metallico A K = costante di proporzionalità (RT/nF) Ca = concentrazione soluzione vista da elettrodo A Cb = concentrazione soluzione vista da elettrodo B Se i due elettrodi vengono realizzati con lo stesso metallo, nel caso della figura precedente il potenziale E è nullo, in quanto Ea=Eb e Ca=Cb. Se invece della provetta precedente si avesse la situazione rappresentata dalla figura sottostante si potrebbero fare misure della concentrazione di una certa sostanza. 26 La cuvetta di misura è divisa in due sezioni separate da una membrana semipermeabile che, ad esempio, lasci passare solo le particelle di Cloro (Cl-). Secondo le leggi della chimica il movimento delle particelle tende ad avvenire dalla zona a più alta concentrazione a quella a concentrazione minore. Quindi le soluzioni dei due elettrodi tendono ad assumere un certo equilibrio, ed il passaggio di ioni Cloro cesserà quando si sarà raggiunto un certo equilibrio elettrodinamico, cioè quando gli ioni, essendo portatori di carica elettrica, generano un differenza di potenziale che si oppone ad una ulteriore migrazione attraverso l'interfaccia (membrana) dovuta alla differenza di concentrazione. All’equilibrio misuro la differenza di potenziale raggiunta e, usando la legge di Nerst, posso risalire alla concentrazione incognita che voglio misurare. I problemi di questa metodica sono: • La misura varia al variare della temperatura. • La qualità della misura si degrada con l'usura della membrana e l’invecchiamento degli elettrodi. Questa tecnica viene usata in diversi settori, ad esempio: • analisi PH ematico • misura della concentrazione parziale di anidride carbonica 27 4.1.3 pH ematico, pO2 e pCO2 La determinazione del pH ematico e delle pressioni parziali dell'ossigeno e dell'anidride carbonica nel sangue viene chiamata emogasanalisi. Questi esami sono molto importanti clinicamente in quanto determinano lo stato dell'equilibrio acido-base nel paziente. Tali meccanismi suddivisi schematicamente in ematici, respiratori e renali, agiscono coordinatamente e con meccanismi interdipendenti. L’emogasanalisi richiede risposte immediate per cui è effettuata non in laboratorio ma presso il paziente. L’applicazione più tipica dell’emogasanalizzatore è nelle terapie intensive per pazienti critici e nel laboratorio di fisiopatologia respiratoria su pazienti non critici. Sebbene l’apparecchio sia utilizzato fuori dal laboratorio esso deve essere “gestito” dal laboratorio per quanto riguarda la taratura, la manutenzione preventiva, le prove prestazionali di qualità, ecc. Oggi tali apparecchi, sempre più numerosi, e che misurano sempre più analiti, vengono chiamati “point in care”. 4.1.4 Proteine Le proteine rappresentano la classe di composti biochimici più strettamente correlati con la vita animale. Il loro nome sottolinea il ruolo primario nella materia vivente e nei fenomeni vitali dal punto di vista chimico. Le proteine sono sostanze organiche complesse contenenti almeno quattro elementi fondamentali (carbonio, idrogeno, ossigeno ed azoto) ai quali si associano spesso lo zolfo, il fosforo ed altri e sono caratterizzate da un peso molecolare molto elevato (da 10.000 a diversi milioni di Dalton). Esse sono costituite dall'unione di composti organici quaternari detti amminoacidi legati fra loro da un legame chimico detto legame peptidico. In tal modo si vengono a formare lunghe catene polipeptidiche caratterizzate dalla sequenza degli amminoacidi che le costituiscono, a seconda del numero e della qualità con la serie di amminoacidi si formano un numero estremamente grande di proteine diverse. Dalla complessità del mondo proteico appare evidente che la diagnostica di laboratorio delle proteine presenta numerose possibilità di studio analitico, ciascuna delle quali, pur 28 con indirizzi diversi e con diversissimi livelli di approfondimento, ha un suo significato ed una precisa utilità diagnostica. La determinazione del contenuto proteico totale viene effettuata essenzialmente con metodi fisici rifrattometrici, densimetrici e spettrofotometro nell'UV. Invece per la suddivisione delle proteine plasmatiche (e delle proteine presenti negli altri liquidi biologici) nelle varie frazioni, sicuramente più importanti per un laboratorio di analisi chimiche, vengono utilizzate soprattutto tecniche che si basano sulla diversa migrabilità in campi elettrici su diversi substrati (elettroforesi). La suddivisione delle cinque principali frazioni proteiche (albumina, alfa-1-globulina, alfa-2-globulina, beta-globulina, gamma-globulina) del siero, viene effettuata con l'elettroforesi in acetato di cellulosa, con successiva determinazione densitometrica. Esistono inoltre tecniche con potere risolutivo superiore (es: elettroforesi su gel di agarosio) con le quali si possono distinguere 8-9 frazioni proteiche. Un supporto per applicazioni particolari è costituito infine dal gel di poliacrilamide utilizzato nella isoelettrofocalizzazione. In questa tecnica il mezzo di supporto possiede un gradiente di pH stabile e le singole molecole proteiche migrano fino a raggiungere la zona in cui il pH è uguale al loro punto isoelettrico. In questa zona la carica netta della proteina si avvicina a zero e la migrazione cessa. In questo modo l'elettroforesi delle proteine del plasma fornisce oltre venti frazioni. Al frazionamento per elettroforesi si può affiancare un altro criterio molto più selettivo che si basa sulle proprietà immunologiche delle proteine. Su questo criterio si fonda ad esempio la nefelometria, tecnica che si basa su una particolare applicazione della fotometria. La nefelometria viene impiegata in particolare per il dosaggio quantitativo di proteine specifiche (immunoglobuline, ceruloplasmina ecc.). 4.1.4.1 Elettroforesi Il nome elettroforesi indica separazione elettrica e viene usata nell'ambito di misure di concentrazione e di tipizzazzione delle proteine contenute nel sangue. Il principio si basa sul fenomeno per cui ogni frazione proteica ha un carica elettrica diversa e specifica. 29 Sottoponendo il sangue un campo elettrico, tramite una differenza di potenziale si avrà una migrazione delle proteine, dovuta al fatto che sono cariche elettricamente. Cambiando la carica da proteina a proteina cambierà anche la forza da cui verranno sospinte le proteine stesse per cui dopo un po’ di tempo si avranno che ciascuna proteina sarà migrata percorrendo un certo tratto, diverso da proteina a proteina. Inoltre la diversa distanza percorsa dipenderà anche dalla grandezza delle proteine, che a seconda delle dimensioni fisiche opporranno più o meno resistenza all'avanzamento. La migrazione delle proteine, avviene su una lastra di materiale conduttore con resistenza elevata (cella di migrazione) a cui viene applicata una differenza di potenziale, ed in seguito facendola scorrere a velocità costante la si analizza con metodi fotometrici, come in figura sottostante. Lo strato della cella di migrazione su cui viene depositato il sangue deve avere la caratteristica di diffondere poco il campione in analisi, altrimenti le misure saranno sfalsate. Il tracciato che si ottiene dalla misura effettuata viene detto tracciato elettroforetico, ed assume la forma seguente. 30 Ogni picco del tracciato elettroforetico corrisponde al passaggio di una proteina sotto il sistema fotometrico, quindi ogni picco rivela la presenza di una proteina. Per determinare la concentrazione delle varie frazioni è sufficiente fare il calcolo delle aree sottese a ciascun picco. Sistemi automatizzati riescono a distinguere casi patologici da casi normali, sollevando il medico dal gravoso compito di osservare tutti i tracciati. 4.1.5 Ormoni e farmaci Gli ormoni sono i prodotti di secrezione delle ghiandole le quali versano gli ormoni stessi direttamente nel sangue. In questo modo essi vanno a svolgere azioni metaboliche specifiche a livello delle cellule di ben determinate strutture periferiche chiamati organi bersaglio. Da un punto di vista chimico queste sostanze sono molto diverse e si suddividono in ormoni steroidei se determinati da un solo amminoacido e in ormoni polipeptidici in tutti gli altri casi. La maggior parte degli ormoni ha comunque una struttura di tipo polipeptidico, le loro molecole sono infatti costituite da una sequenza di amminoacidi. In laboratorio gli ormoni vengono rilevati anche con metodi basati sulla cromatografia, gli stessi metodi che servono per la determinazione di alcuni farmaci e droghe di abuso. 31 La determinazione dei farmaci e dei loro metaboliti nei liquidi e nei tessuti costituisce un settore di analisi di laboratorio di grande interesse scientifico, che in questi ultimi anni ha avuto un eccezionale sviluppo. Per molte decine di anni nella cura dei malati la dose ottimale di un farmaco è stata ricercata e stabilita attraverso tentativi ed errori. Al paziente veniva somministrata una dose fissa di un farmaco e se non si avevano effetti positivi la dose veniva aumentata fino all'ottenimento del risultato o fino alla comparsa dei segni clinici di tossicità, nel qual caso il farmaco veniva sospeso; se un farmaco risultava inefficace, se ne provava un altro e così via fino ad esaurimento del repertorio. Per molti farmaci, e il loro numero è in progressivo confortante aumento, questo modo empirico di procedere è stato abbandonato perché‚ la pratica laboratoristica del monitoraggio dei livelli plasmatici dei farmaci consente una precisa individualizzazione della terapia. Questo è possibile perché‚ sono diventate chiare le relazioni esistenti fra la concentrazione di un farmaco in un sistema biologico e la sua attività farmacologica. La tecnica cromatografica può essere rappresentata come un insieme di sistemi analitici versatili per la separazione, identificazione e il dosaggio quantitativo di una grande varietà di analiti, rappresentati soprattutto da ormoni e farmaci e droghe da abuso. La separazione cromatografica si basa sulle differenze tra la velocità di trasporto dei vari analiti sciolti in una fase mobile (liquido o gassosa) che attraversa un'appropriata fase stazionaria (solida o liquida). Le due tecniche cromatografiche più utilizzate in laboratorio sono la gascromatografia e l'HPLC (cromatografia liquida ad elevata risoluzione). Nella gascromatografia i componenti in forma volatile presenti in una fase mobile gassosa vengono separati nel passaggio attraverso la fase stazionaria (generalmente liquida) costituita dal materiale di riempimento delle colonne. L'HPLC , invece, è un particolare tipo di cromatografia liquida in cui la fase mobile è liquida (solvente che corre lungo la colonna) mentre la fase stazionaria è solida. 32 4.1.5.1 Gascromatografo La gascromatografia è un metodo fisico di separazione dei vari componenti di un miscuglio basato sulla proprietà di determinate sostanze di adsorbirne altre e di rilasciarle dopo un certo tempo. Si distinguono due fasi: • Fase fissa o stazionaria: è costituita da un letto stazionario (una qualsiasi forma in cui possa essere impiegata la fase stazionaria, costituita dal riempimento di una colonna o da uno strato) attraverso il quale si muove, percolando, la fase mobile; in generale la fase fissa è un liquido o un solido. • Fase mobile: fase gassosa inerte rispetto al campione ed alla fase fissa, che serve a trasportare il campione senza interagire con il sistema di rivelazione del campione stesso. Il processo gascromatografico è il risultato di una serie ripetuta di azioni di adsorbimento e desorbimento durante il movimento dei componenti di un campione attraverso il letto stazionario, in cui la separazione è dovuta alla differenza dei coefficienti di distribuzione dei singoli componenti del campione fra le due fasi. In pratica si raggiunge il risultato voluto facendo in modo che un vettore, sostanza che non interagisce né con la fase fissa né con quella mobile, trasporti il campione lungo un percorso (ad esempio un tubo in cui le pareti sono rivestite della fase fissa), durante il quale le varie componenti vengono adsorbite e rilasciate dalla fase fissa più o meno frequentemente a seconda della natura del componente stesso; alla fine del percorso si ottiene che usciranno per primi i componenti che hanno avuto un numero minore di adsorbimenti, mentre progressivamente usciranno quelli che, a causa di un numero maggiore di adsorbimenti, cioè di “soste” lungo il percorso, hanno impiegato più tempo. Bisogna sottolineare che l’adsorbimento di una molecola è un processo casuale con distribuzione normale, per cui, basandosi anche sui principi della Teoria delle Code, si può affermare che la probabilità che una molecola sia adsorbita dipende in buona parte dalla lunghezza del percorso compiuto; se fisso l’attenzione ad una certa distanza dall’inizio osserverò una certa distribuzione della sostanza A, una della sostanza B, etc. È importante che queste distribuzioni non si sovrappongano molto l’una con l’altra se si desidera avere una buona selettività (cioè la capacità di distinguere A da B): tale scopo 33 si raggiunge con lunghezze di questi percorsi che arrivano anche alle centinaia di metri (vedi anche le considerazioni alla fine del paragrafo). Lo schema risultante dell'apparato di misura è quello seguente. Dallo schema precedente si denotano i seguenti elementi: • Contenitore gas eluente: contiene un gas che riporta in soluzione, con opportuno solvente, le sostanze adsorbite da un mezzo adsorbente • Colonna cromatografica: è una colonna formata da più elementi (piatti teorici) • Piatti teorici: nome dei singoli elementi che compongono la colonna cromatografica, nome derivato dalla somiglianza funzionale con i piatti delle colonne di rettifica • Scarico: è lo scarico da cui escono le sostanze usate nella misura • Rb: sono resistenze sensibili alla conducibilità termica dei gas • Ra: resistenze variabili destinate ad azzerare (equilibrare) il ponte • V: generatore di tensione in continua • A: amplificatore differenziale • OUT: uscita segnale elettrico misurato L'azzeramento dell'apparato di misura si ottiene facendo circolare sono il gas eluente, ottenendo quindi il bilanciamento del ponte. 34 Quando si inietta la sostanza da analizzare il ponte si bilancia in funzione della conducibilità termica dei vari gas, infatti su una resistenza Rb passa il gas eluente nella sua condizione iniziale, mentre sull'altra Rb passa il gas al termine del suo cammino ormai frazionato e con conducibilità termica diversa da prima (frazionamento ad opera della colonna cromatografica): il valore di Rb dipende dalla sua temperatura di esercizio, che a sua volta dipende dalla quantità di gas con cui scambia calore e dal coefficiente termico del gas stesso (NB: resistività di un materiale = ρ= ρ(T)). Questo tipo di rivelatore è detto anche “a filo caldo”. Nel segnale di uscita posso riconoscere la presenza dei vari gas perché ho tarato lo strumento su una serie di segnali di riferimento. Rimangono da notare alcuni punti: • L'apparato di misura deve essere a temperatura costante, quindi si realizza l'apparecchiatura con una grande massa termica e la si stabilizza in temperatura. • La colonna cromatografica è composta in genere da piatti sottili ed è molto lunga, ma non potendola fare lineare la si realizza arrotolata con un raggio di curvatura molto più grande del diametro del tubo (che in genere è di 2-3 decimi di mm), infatti, supponendo un moto lineare in un tubo, il moto lo si può considerare lineare anche se il tubo viene avvolto in una matassa, con l'unica accortezza che il raggio di curvatura della matassa sia molto maggiore del diametro del tubo, come nella figura sottostante. 4.1.5.2 Sensore a ioni e sensore a cattura di elettroni Il sensore a ioni è un tipo di sensore, usato anche nell'industria, il cui principio si basa sulla ionizzazione degli atomi. Lo schema di principio è raffigurato nella figura seguente. 35 La fiamma ha il compito di ionizzare gli atomi scindendoli in un elettrone libero e in uno ione positivo. Lo ione sarà attratto dal polo negativo generando una corrente che sarà misurata dalla resistenza R e sarà proporzionale alnumero di elettroni che passano, cioè alla concentrazione della sostanza incognita da misurare. La fiamma viene alimentata da gas combustibile in cui confluisce anche la sostanza incognita. Questa tecnica è utile per misurare per esempio sodio e potassio. In generale lo posso usare solo con alcuni tipi di fase mobile (ad esempio lo posso usare se la fase mobile non è infiammabile); è comunque indicato con sostanze da rivelare che si adattano bene a questa tipologia di rivelatore. Altra tecnica è quella del sensore a cattura di elettroni. Questa tecnica, molto selettiva, differisce dal sensore a ioni in quanto per ionizzare non viene usata una fiamma, ma bensì una sostanza radioattiva. 36 Il sistema di misura presenta il seguente schema. Nel tubo di flusso vi passa il gas incognito, che viene ionizzato passando nell'alloggiamento della sostanza radioattiva (generando quindi ioni positivi ed elettroni). Gli elettroni generatosi vengono attirati dal polo positivo e genera una corrente che viene misurata tramite R ed amplificata da A. Il problema principale di questo dispositivo è nella presenza della sorgente radioattiva, che deve essere a decadimento lungo per evitare che debba essere sostituita spesso, ma che, per lo stesso motivo, risulta difficile da gestire. 4.1.5.3 HPLC In questo apparecchio la fase mobile è un liquido, mentre la fase fissa è un solido costituito da cristalli che si presenta in forma di grani che riempiono una colonna. È un apparecchio critico con la temperatura e deve essere termostatato in modo molto efficace e difficile da gestire. È importante che il flusso del liquido di trasporto sia costante: poiché il flusso è proporzionale alla differenza di pressione, a temp. e sezione del tubo costanti, è possibile assicurare questa caratteristica ad esempio prelevando una “piccola quantità” di liquido da un serbatoio di grandi dimensioni mentre l’altra estremità del tubo è alla pressione atmosferica. In generale l’uso di un tipo di apparecchio o di un altro non è casuale, ma è legato alla sostanza da rivelare, in quanto il tipo di sostanza condiziona contemporaneamente sia la scelta della fase mobile, che non deve interagire, che quella del rivelatore, che deve essere sensibile alla frazione da rivelare ma non alla fase mobile. 37 4.1.6 Urine Le urine rappresentano l'altro liquido biologico insieme al sangue, sul quale vengono effettuate analisi quantitative e qualitative di sicuro interesse diagnostico. L'urina è il liquido fisiologico prodotto dall'attività funzionale dei reni ed emesso periodicamente nella quantità giornaliera di circa 1000-1800 cm3. La composizione chimica dell'urina è estremamente variabile, contiene sostanze inorganiche (cloro, zolfo, sodio, potassio, calcio ecc.) e sostanze organiche (urea, acido urico, creatinina, pigmenti urinari ecc.). Attraverso l'urina si eliminano gran parte dei prodotti finali del metabolismo e molte delle sostanze introdotte a scopo terapeutico nell'organismo. L'esame delle urine è di fondamentale importanza per la diagnosi di numerose malattie ed è in grado di fornire dati importanti non solo sullo stato funzionale del rene ma anche sullo stato funzionale di molti altri organi. La misura dei vari analiti nelle urine è effettuata con fotometria a secco ovvero attraverso barrette su cui sono posti tutti i reattivi degli analiti da ricercare; dette barrette sono immerse nel campione di urina e dopo il tempo di reazione (alcune decine di secondi) ciascuna zona di misura è letta per fotometrica. 4.1.6.1 Chimica secca La chimica secca si differenzia dalle metodologie precedentemente analizzate, in quanto i reattivi sono in forma solida o sono liofilizzati (privati della parte liquida), permettendo di ottenere apparati di misura più compatti e semplici nel loro utilizzo. Lo schema di misura tipico di un elemento di misura di chimica secca è il seguente. 38 Su un supporto si trova il materiale assorbente che ha il compito di assorbire una quantità ben precisa di campione. Sotto il materiale assorbente si trova il reattivo secco che a contatto con la parte di campione assorbita reagisce con il reattivo stesso formando una soluzione. Il supporto presenta sulla facciata inferiore una superficie specchiante che permette di effettuare con metodo fotometrico (a riflessione) le misure desiderate. 39 4.2 Ematologia Nel settore ematologico di un laboratorio clinico vengono diagnosticate le eventuali alterazioni delle cellule sanguigne e dei processi di coagulazione e di emostasi. Il campione ematologico è per larga parte rappresentato dal sangue intero. La diagnostica ematologica di laboratorio comprende la determinazione del numero e lo studio della forma della struttura chimica e della funzionalità dei differenti tipi di cellule che compongono il sangue sia a livello periferico che midollare; lo studio dell'attività proliferativa delle cellule degli organi emopoietici; La determinazione di taluni costituenti biochimici del siero in parte di origine metabolica generale, in parte intimamente connessi con gli elementi cellulari sanguigni. La diagnostica della coagulazione e dell'emostasi comprende lo studio dei fattori della coagulazione, dello stato della parete vascolare e delle piastrine. In questo settore del laboratorio i metodi e la strumentazione (limitati fino a pochi anni fa al solo microscopio) si sono fatti talmente sofisticati per complessità e livelli di automazione, da raggiungere quelli della chimica clinica. 4.2.1 Elementi figurati del sangue Il sangue, mezzo di trasporto delle varie sostanze in tutto il corpo, può essere considerato un particolare tipo di tessuto corporeo costituito da cellule libere (elementi figurati) e da una sostanza fluida (plasma) che rappresenta oltre la metà del volume totale di sangue. Gli elementi figurati appartengono a tre categorie: globuli rossi (o emazie o eritrociti); globuli bianchi o leucociti; piastrine o trombociti. La percentuale in volume degli elementi figurati (46%) costituisce il cosiddetto valore ematocrito del sangue normale. Nel sangue periferico i globuli rossi sono presenti nella quantità media di 5.000.000/mm3 nell'uomo e di 4.500.000/mm3 nella donna. I globuli rossi sono ricchi di un pigmento contenente ferro, ovvero l'emoglobina che conferisce al sangue il caratteristico colore rosso. I globuli bianchi o leucociti sono meno numerosi dei globuli rossi. Il rapporto è di 1 a 600 per cui il numero medio nell'uomo adulto normale è di 6.500 - 7000/mm3. 40 Essi si suddividono in tre categorie principali: granulociti, linfociti e monociti con funzioni diverse. I granulociti a seconda della loro affinità per i vari coloranti istologici si suddividono in neutrofili, eosinofili e basofili. La composizione percentuale secondo queste categorie costituisce la formula leucocitaria che, mediamente è così suddivisa: granulociti neutrofili 66%, granulociti eosinofili 1,5%, granulociti basofili 0,5%, linfociti 26%, monociti 6%. Le piastrine o trombociti, sono piccoli elementi anucleati di forma irregolare. Hanno una dimensione molto inferiore dai globuli rossi (1-3 æm) e il loro numero è di 300.000/mm3 di sangue. Le piastrine hanno un ruolo fondamentale nella regolazione dell'emostasi cioè di quei meccanismi che si oppongono alla fuoriuscita del sangue dal letto vascolare. Il complesso di dati ematologici di base necessari per effettuare un'indagine ematologica viene definito esame emocromocitometrico. Tale esame comprende: il dosaggio dell'emoglobina, il valore ematocrito (volume eritrocitario in una quantità di sangue totale conosciuta), il conteggio degli eritrociti, il volume eritrocitario medio (MCV), il conteggio dei leucociti con il numero assoluto delle popolazioni (e principali) e quello delle piastrine L’esame microscopico evidenzia la morfologia, il corredo enzimatico, le resistenze globulari, la struttura molecolare dell'emoglobina e della membrana eritrocitaria, ecc. Per le piastrine l'approfondimento, oltre alla morfologia, dovrà comprendere prove funzionali ed indagini sulle proteine di membrana. Per i leucociti, oltre alla microscopia con particolari colorazioni, possono essere attuati lo studio citochimico, prove di funzionalità cellulare, e la tipizzazione immunologica (essenzialmente dei linfociti), insieme alla determinazione delle sotto popolazioni in cui possono essere suddivisi i linfociti di notevole significato clinico per diverse patologie. La tecnica utilizzata per la determinazione delle sotto popolazioni linfocitarie insieme alla tipizzazione immunologica dei linfociti è rappresentata dalla citometria a flusso (citofluorimetro) in cui le cellule da analizzare sono portate in sospensione ed analizzate mentre fluiscono di fronte ad una sorgente di luce propriamente collimata (preferibilmente una luce laser). 41 4.2.1.1 Conteggio manuale dei corpuscoli ematici Il primo tipo di conteggio effettuato sui corpuscoli ematici è stato quelle manuale con ausilio del microscopio ottico. La misura manuale iniziava depositando una goccia di sangue su una apposito vetrino (con dei rialzi laterali), come nella figura seguente. In seguito si posava un altro vetrino sopra il precedente vetrino base e il sangue finiva per occupare quasi tutta la superficie del vetrino, come in figura seguente. Conoscendo l'altezza h dei rialzi del vetrino base e la superficie occupata dal campione di sangue è possibile sapere il volume occupato dal campione di sangue in analisi. Il conteggio avveniva contando tipicamente 100 corpuscoli e prendendo nota della loro tipologia. Il problema era che con 100 corpuscoli di alcune tipologie ve ne potevano essere 3-4, quindi dal punto di vista statistico l'errore poteva essere grande. Si poteva pensare di ridurre l’errore ripetendo la misura oppure contarne di più, ma non era conveniente in quanto sarebbe stato troppo lento l'esecuzione dell'esame; per questo motivo vennero condotti studi su metodi di realizzare l'esame con macchine a conteggio automatico. 42 4.2.1.2 Conteggio automatico con macchina di Coulter Il conteggio automatico dei corpuscoli ematici rappresentò un passo in avanti in queste attività di laboratorio, col risultato che i tempi di esecuzione dell'esame diminuirono enormemente, così come l'errore commesso. Lo scopritore della prima tipologia di macchina per conteggio automatico fu Coulter che brevettò e produsse lui stesso il dispositivo. Il principio di funzionamento è quello che i globuli (bianche e rossi) presentano una resistenza elettrica abbastanza elevata rispetto a certe tipologie di soluzioni che presentano invece una resistenza elettrica notevolmente più bassa. Lo schema di principio della macchina di Coulter risulta quello nella figura seguente. Il campione di sangue viene messo nel contenitore 1 e poi nei contenitori vengono create le pressioni P1 e P2 in maniera che il sangue venga spinto a passare dal contenitore 1 al contenitore 2 per differenza di pressione. Il sangue che viene messo nel contenitore 1 non è puro, ma è miscelato insieme ad una sostanza a resistenza elettrica molto più bassa della resistenza elettrica dei globuli. Quando un globulo passa dal contenitore 1 al contenitore 2 la resistenza tra i due elettrodi aumenta in quanto si viene ad avere uno schema elettrico equivalente come quello nella figura seguente. 43 Le resistenze R1 ed R3 sono resistenze della soluzione in cui sono immersi i corpuscoli ematici, mentre R2 è la resistenza elettrica del globulo. Risultando R2 molto maggiore di (R1+R3), al passare del globulo la resistenza totale Rtot=R1+R2+R3 ha un brusco aumento indicando così il passaggio di un globulo. Per la misura della resistenza si usa una configurazione a ponte, come nello schema seguente. Le resistenza Ra sono uguali e fisse ed Rb è variabile in maniera da bilanciare il ponte rendendo l'uscita OUT il più possibile prossima a 0. Rtot è la resistenza totale del capillare in cui passano i globuli (misurata attraverso gli elettrodi). Quando nel capillare passa un globulo OUT assume la seguente forma. 44 Dal grafico si vede che quando il globulo passa attraverso il capillare, OUT assume un certo valore "a" dipendente dal volume del globulo e dalla sezione del capillare. Mentre la durata dell'impulso "d" dipende dalla lunghezza del capillare. Il valore "a" dal punto di vista del rapporto SNR è meglio che sia il più grande possibile, anche se per averlo grande si dovrebbe restringere il capillare fino a farci passare un solo globulo in maniera da fare toccare al globulo stesso le pareti; ciò porterebbe ad intasare con molta facilità il capillare, e quindi la sezione del capillare stesso è un compromesso tra le esigenze di alto valore di SNR e bassa probabilità di intasamento (anche se oggi il tubo si è praticamente ridotto ad un foro in una membrana). Volendo determinare anche il volume del globulo tramite la misura di "a" è necessario che nel capillare ci passi un solo globulo alla volta, visto che essendo i globuli di dimensione molto variabile non sarebbe possibile distinguere se un valore molto grande di "a" sia dovuto ad un globulo molto grosso o a due globuli piccoli. Per fare si che il capillare sia attraversato da un solo globulo alla volta si usa diluire il sangue da analizzare con una quantità di soluzione tale da rendere statisticamente improbabile l'attraversamento contemporaneo di due globuli. Il problema di avere un flusso costante si riduce ad avere ΔP=P1-P2 costante, in quanto ΔP è proporzionale al flusso attraverso il capillare. Il flusso costante permette di avere la durata "d" di OUT costante per ogni impulso dovuto al passaggio di un globulo. Se si vuole contare un tipo preciso di corpuscolo (globulo bianco, rosso o piastrine), è possibile usare delle sostanze che hanno la proprietà di lisare (rompere, spaccare, fare a pezzetini) determinati componenti corpuscolari del sangue. 45 Le sostanze usate sono principalmente di due tipi: quella capace di lisare i globuli bianchi e quella capace di lisare i globuli rossi. A seconda delle misure che si vogliono fare si usano le seguenti combinazioni di sostanze: • Conteggio globuli bianchi: si lisano i globuli rossi • Conteggio globuli rossi: si lisano i globuli bianchi • Conteggio piastrine: si lisano sia i globuli bianchi che quelli rossi (anche se le piastrine sono più piccole dei globuli comunque sono sempre più grandi dei pezzetti dei globuli lisati). Per eseguire invece la misura della formula leucocitaria è necessario fare delle modifiche allo schema principale di misura, in quanto non è possibile distinguere la tipologia dei globuli bianchi dalla semplice misura di resistenza effettuata in continua. Viene allora introdotto un sistema di misura in alternata, che permette di trovare 3 funzioni discriminanti, cioè tre funzioni attraverso la cui combinazione è possibile determinare la percentuale delle tipologie di globuli bianchi presenti. Le combinazioni di tipologie di globuli bianchi, attraverso le tre funzioni discriminanti danno luogo a risultati simili a quello della figura seguente. Il grafico è in 3 dimensioni, dipendendo da tre funzioni discriminanti dove le linee tratteggiate rappresentano lo soglie. 46 Ciascuna popolazione di globuli bianchi è rappresentata da una nuvola di valori, situata tra ben precise soglie. Quando una nuvola di valori supera una soglia allora il sistema automaticamente riconosce una forma patologica e la segnala al medico. Versioni successive della macchina di Coulter, hanno apportato come modifica la riduzione della lunghezza del capillare fino a farlo diventare semplicemente un foro (eliminando problema dell'occlusione del capillare), come visibile da figura sottostante. 4.2.1.3 Conteggio automatico con metodo di misura TOA Questo metodo di misura, è stato inventato dai giapponesi, con l'idea di risolvere i problemi di cui erano affette le prime versioni delle macchine di Coulter. Il principio di funzionamento non è più elettrico ma ottico, e sfrutta alcune tecniche tipiche dell'ingegneria aeronautica. Lo schema della macchina è il seguente. 47 Dentro un contenitore di profilo aerodinamico viene versato il sangue da esaminare in soluzione. Un fluido trasparente e inerte rispetto al campione (cioè che non reagisce con esso) viene fatto scorrere all'esterno del contenitore del sangue, all'interno di un tubo, in maniera da formare un flusso lamellare di liquido, evitando cioè la formazione di turbolenze (grazie anche al profilo aerodinamico). Il contenitore del sangue è forato in maniera da fare fuoriuscire un globulo alla volta, che incanalato dal flusso lamellare percorrerà un percorso rettilineo delimitato non più da un capillare reale, ma da linee di flusso del liquido inerte che fungono da “capillare virtuale”. Questo capillare, non essendo più di tipo solido, non corre il rischio di intasarsi. Un laser ed un rivelatore sono posti a formare una barriera ottica che rivela ogni passaggio di globuli e ne consente la conta. La selezione di globuli rossi, bianchi e piastrine viene sempre effettuata tramite sostanze che premettono di lisare i componenti non desiderati. Le prime versioni non permettevano di fare l'analisi della formula leucocitaria, in quanto disponevano di un solo rivelatore. 48 Per potere effettuare la misura di formula leucocitaria era necessario di disporre di più rivelatori, uno per ciascuna funzione discriminante. L'utilizzo di più rivelatori con un laser era possibile grazie al fenomeno di scattering (diffusione), che avveniva in presenza del passaggio dei globuli, come nella figura seguente. Ogni rivelatore è specifico per un particolare tipo di radiazione emergente dopo l’interazione del raggio laser col globulo; l’insieme dei rivelatori “ricostruisce” praticamente il lobo di emissione della radiazione luminosa rivelata. Ogni rivelatore fornisce in uscita il valore di una funzione discriminante in maniera del tutto simile alle ultime versioni della macchina di Coulter, fornendo quindi gli stessi risultati. 4.2.2 Coagulazione Le piastrine partecipano, insieme ad altri fattori, all'emostasi, cioè all'arresto del sanguinamento che si verifica quando un vaso è leso. L'emostasi consiste in una serie di eventi successivi il cui risultato finale è il tamponamento della soluzione di continuo della parete vasale. Il fenomeno iniziale consiste in una costrizione del vaso sanguigno, alla quale segue la formazione di un tappo temporaneo di piastrine agglutinate che è poi convertito in coagulo vero e proprio. L'ultimo evento è la retrazione del coagulo. 49 Le piastrine svolgono un ruolo importante in tutti questi tre processi, grazie alla loro proprietà di aderire alla parete del vaso leso agglutinandosi e di liberare le sostanze in esse contenute. Le piastrine aderite alla parete vasale si agglutinano formando un tappo piastrinico che rapidamente si ingrossa via via che vi aderiscono altre piastrine, occludendo la soluzione di continuo del vaso leso. Il tenue agglomerato di piastrine del tappo temporaneo viene convertito in coagulo in seguito alla precipitazione del fibrinogeno proteina plasmatica solubile, in fibrina insolubile. Le molecole di fibrina si polimerizzano formando una rete di filamenti che imbriglia nelle sue maglie le piastrine, i globuli rossi e gli altri elementi figurati del sangue; si determina così una chiusura più ermetica della soluzione di continuo del vaso. Il meccanismo di formazione della fibrina comporta una complessa serie di reazioni intermedie "a cascata", alle quali partecipano fattori normalmente presenti nel sangue e sostanze liberate dalle piastrine e dai tessuti lesi. La conversione del fibrinogeno in fibrina, che è la reazione fondamentale nella coagulazione del sangue, è catalizzata da un enzima chiamato trombina che non è un normale costituente ematico (altrimenti si verificherebbe una coagulazione entro il sistema circolatorio). La trombina si forma da un precursore circolante inattivo, la protrombina. La trasformazione della protrombina inattiva in trombina attiva avviene per azione di una serie di fattori in parte liberati dai tessuti lesi, in parte presenti normalmente nel plasma ed in parte diffusi dalle piastrine. Alla formazione del coagulo segue la retrazione del coagulo, un lungo processo durante il quale i filamenti di fibrina si accorciano riducendo così la dimensione del coagulo; gli elementi figurati del sangue rimangono imbrigliati nelle maglie del reticolo di fibrina ed il liquido che si separa costituisce il siero. Nella retrazione del coagulo svolge un ruolo fondamentale la contrazione delle piastrine aderite ai filamenti di fibrina, ad opera delle proteine contrattili in esse contenute. L'equilibrio emostatico del sangue è mantenuto da una serie di fattori plasmatici ad azione limitante od attivante, da composti con azione fibrinolitica (fibrinolisina) e da sostanze anticoagulanti come, ad esempio, l'eparina liberata dai granulociti basofili e dai mastociti che inibisce i meccanismi di attivazione della protrombina e blocca l'interazione della trombina col fibrinogeno. 50 Esistono numerosi apparecchi automatici per la determinazione del tempo di coagulazione (coagulometri) fra i quali un metodo molto usato è quello centrifugo che mette in contatto campione con reattivo contemporaneamente per tutti i campioni del contenitore (da 20 a 50). 4.2.2.1 La misura della coagulazione La misura della coagulazione avviene sempre con metodi fotometrici, ed in particolare per nefelometria (in trasparenza), basandosi sulla constatazione che “più il sangue si è solidificato più è opaco”. Quando si effettua il prelievo del sangue, la provetta di prelievo contiene già al suo interno una sostanza anticoagulante, in maniera che la coagulazione non cominci prima di sottoporre il sangue alla misura sulla coagulazione. Una volta effettuato il prelievo la macchina fa iniziare l'esame nel momento in cui il sangue viene addizionato di un farmaco che annulla l'effetto dell'anticoagulante, dando così inizio alla coagulazione. Anche in questo caso si è resa necessaria l'automazione, in quanto il numero di esami richiesti è elevato. Il problema dell'automatizzazione è che tutte le coagulazioni devono iniziare nello stesso momento. Per risolvere l'inizio contemporaneo di tutte le coagulazioni è stato inventato un sistema rotante come quello nella figura sottostante. 51 Ogni cuvetta di misura è provvista di due sezioni: in una va il sangue e nell’altra vi è il farmaco per annullare l'effetto dell'anticoagulante; finche il disco è fermo le due sostanze rimangono separate, ma quando il disco inizia a girare il sangue viene a contatto con il farmaco ed inizia la coagulazione. Il sistema al passaggio di ogni cuvetta esegue una misura la volo usando un metodo nefelometrico (di cui nello schema sono visibili la sorgente e il monocromatore, in quanto il ricevitore sta sotto il disco). La tecnica appena descritta è nata come applicazione per la cinetica enzimatica, dove nelle due sezioni della cuvetta di misura trovavano posto il reattivo (enzima) ed il campione: al momento dell'avvio della rotazione del disco la reazione enzimatica iniziava insieme al campionamento alla ricerca della zona lineare. Una tecnica usata per vedere lo stato della coagulazione del sangue era l'uso di una pallina contenuta all'interno della provetta di misura. La pallina, durante la rotazione della provetta, veniva più o meno sospinta dalla forza centrifuga verso il bordo della provetta stessa a secondo dello stato di coagulazione del sangue (cambiando la densità del sangue al variare della coagulazione cambiava la mobilità della pallina all’interno del contenitore). 52 4.3 Immunologia La diagnostica immunologica ha raggiunto in questi ultimi tempi livelli altissimi di sviluppo attivando tecniche avanzate per la diagnosi dei più complessi ed oscuri disordini patologici. l'immunologia studia le reazioni del sistema immunitario, reazioni che non possono essere spiegate in uno scenario n‚ propriamente chimico, n‚ propriamente fisico. Una componente operativa di rilievo è l'immunoematologia. Questa disciplina presenta affinità sia con l'immunologia che con l'ematologia perché‚ studia le reazioni immunologiche relative ai componenti morfologici del sangue. Le applicazioni fondamentali ma certamente non uniche di questa disciplina sono: fornire le basi immunologiche alla sicurezza delle trasfusioni sanguigne; fornire dati sulla patogenesi, prevenzione, diagnosi e terapia dell'immunizzazione Rh; contribuire alla preparazione e al monitoraggio dei trapianti d'organo. Una parte applicativa importante si riferisce alle attività trasfusionali, quali la gestione delle cosiddette banche del sangue, termine con cui si intende il servizio atto a raccogliere, classificare, conservare e distribuire il sangue in toto o i suoi costituenti separati; e l'emoterapia, pratica definita come attinente la scelta, la preparazione e l'infusione di appropriate quantità di sangue intero o di singoli derivati in modo mirato per un dato paziente. 4.3.1 Antigeni ed anticorpi Il contatto con agenti infettati determina nell'organismo uno stato di protezione (immunità) nei confronti di questi stessi agenti. Lo stato di immunità si instaura dopo il primo contatto con l'agente infettante stesso. Per questo motivo un organismo in genere non subisce la stessa malattia infettiva più di una volta nel corso della vita. Questa protezione è mediata dagli anticorpi prodotti dall'organismo in risposta agli agenti infettanti (virali, batterici ecc.). Questi infatti in seguito alla reazione con l'anticorpo, vengono neutralizzati e quindi eliminati. Le molecole che hanno attività anticorpale sono rappresentate essenzialmente da proteine estremamente eterogenee per dimensioni, peso molecolare, carica elettrica e vengono indicate con il termine generico di immunoglobuline (Ig). Tutte quelle 53 sostanze che, introdotte nell'organismo, sono capaci di produrre una risposta immunitaria cellulare o umorale oppure entrambe e sono, inoltre, capaci di reagire con i prodotti specifici del sistema immunitario (immunoglobuline e cellule t attivate) sono chiamati antigeni. Le metodiche attualmente utilizzate per ricercarne il complesso antigene-anticorpo sono rappresentate dalla immunofluorescenza in cui la reazione antigene-anticorpo è evidenziata dalla fluorescenza acquisita dall'antigene con cui si è legato l'anticorpo coniugato. I complessi fluorescenti possono essere poi visualizzati al microscopio a luce ultravioletta. Sono inoltre adottati metodi immunoenzimatici (ELISA, EIA) e radioimmunologici (RIA) che utilizzano come traccianti l'uno enzimi, l'altro isotopi radioattivi. La coniugazione degli antigeni o degli anticorpi con tali marcatori deve lasciare inalterata la reattività immunologica. L'amplificazione prodotta dalla misura della radioattività o dall'azione dell'enzima sul suo substrato assicura una eccellente sensibilità alle due metodiche. Le metodiche che impiegano isotopi radioattivi presentano alcuni inconvenienti: • i reagenti hanno scadenza piuttosto breve essendo dotati di un "decadimento"; • rischio per l'operatore da parte di radiazioni ionizzanti; • problema per lo smaltimento dei rifiuti radioattivi. Tutti questi problemi vengono superati se come traccianti si utilizzano gli enzimi ma non sempre si ottengono sensibilità o specificità migliori. Infine un'altra metodica utilizzata per la misura dei complessi antigene-anticorpo è rappresentata dalla nefelometria. I vari metodi utilizzati in laboratorio per evidenziare una reazione antigene-anticorpo si differenziano tra loro non solo per il principio su cui si basano, ma anche per il grado di sensibilità (quantità di antigeni o di anticorpi che sono capaci di evidenziare), per la specificità e per la possibilità di quantizzare o meno il reagente ignoto. 54 Per questo l'interpretazione di tali reazioni deve tenere conto di un gran numero di variabili: tra cui la classe immunoglobulinica interessata, il tipo di metodica impiegata, l'epoca di comparsa degli anticorpi evidenziati, ecc. 4.3.1.1 Sistema di misura RIA (RadioImmunoAssay) Quello che si vuole rilevare è la presenza e la quantità di un certo tipo di antigene specifico. Questo metodo utilizza tecniche radioisotopiche per misurare la presenza degli antigeni ricercati. Nella metodologia usata fondamentale è il ruolo dell'antigene radioattivo, cioè di un antigene a cui è stato sostituito un atomo con un suo radioisotopo radioattivo (non cambiando così nulla dal punto di vista chimico). La simbologia usata nella descrizione delle metodiche successive è la seguente: • Agb = antigene bound (legato) • Agf = antigene free (libero) • Agt = antigene totale (libero+legato) • Acb, Acb1, Acb2 = anticorpo bound (legato) • Acf = anticorpo free (libero) • Act = anticorpo totale (libero+legato) • Agb* = antigene marcato bound (legato) • Agf* = antigene marcato free (libero) • Agt* = antigene marcato totale (libero+legato) La metodica (RIA competitiva) è la seguente: • Nel corpo vi è un certo numero incognita di antigeni Agt. • Si iniettano anticorpi Act (in eccesso) ed antigeni marcati Agt*. • Nell'organismo si avrà (Agb Acb1+Agb* Acb2+Agf+Agf*). • Per filtrazione si separano (Agb Acb1+Agb* Acb2) e (Agf+Agf*). • Con due misure sulla radioattività è possibile ottenere (Agb* Acb2) ed (Agf*) • È possibile impostare il seguente sistema (visto che Ag* e Ag sono chimicamente equivalenti e si comportano quindi equivalentemente): 55 Ag F∗ Ag F =K= ∗ Ag B Ag B Ag B∗ + Ag B = Act • Act è noto, Agf* ed Agb* sono misurati con metodi radioattivi, quindi dal sistema è possibile ricavare Agf ed Agb • Sommando si ottiene Agt=Agf+Agb Questo metodica presenta due problemi: • Le misure da effettuare sono due • Esiste il problema della gestione di materiale pericoloso legato all'uso di materiali radioattivi (tempo di decadimento, scorie radioattive dopo l'esame) Per risolvere il primo problema della doppia misura si è cambiato il procedimento per effettuare l'analisi ottenendo la seguente metodica (RIA sequenziale): • Nell'organismo vi è una certo numero incognita di antigeni Agt. • Si iniettano anticorpi Act (in eccesso). • Nell'organismo si avrà (Agb Acb+Acf). • Si iniettano antigeni radioattivi Ag* (in eccesso). • Nell'organismo si avrà (Agb Acb1+Agb* Acb2+Agf*). • Per filtrazione si separano (Agb Acb1+Agb* Acb2) e (Agf*). • Con una misura sulla radioattività si ottiene (Agb* Acb2). • Sottraendo si ottiene Ag=Act-Agb* Acb2. Riguardo la radioattività e i rifiuti radioattivi che rimangono dopo la misura rimane inalterato il problema della gestione di queste sostanze; la soluzione migliore rimane quella di non usare traccianti radioattivi, ma di trovare traccianti con altre proprietà. I traccianti non radioattivi usati sono di tipo a fluorescenza e sono costituiti da zuccheri che hanno la proprietà di legarsi con gli antigeni. La fluorescenza si genera quando una radiazione colpisce l'antigene modificato, come in figura seguente. 56 La radiazione che colpisce l'antigene è ad energia minore di quella che esce, per cui la lunghezza d'onda della radiazione che colpisce l'antigene è minore della lunghezza d'onda che esce. NOTA: l'energia associata ad una radiazione è la seguente: E = h ⋅ν con i termini della formula che hanno il significato seguente: E = energia della radiazione h = costante di Plank ν = frequenza radiazione ν = 1 λ cioè è l'inverso della lunghezza d'onda Nonostante che i metodi a fluorescenza presentino il vantaggio di non avere componenti radioattive, ancora oggi non esistono zuccheri per tutti i tipi di antigeni conosciuti e quindi il metodo radioattivo viene ancora usato in questi casi. L'automatizzazzione delle operazioni di quantizzazione degli antigeni avviene tramite mezzi fisico chimici. Un metodo utilizzato è quello che usa un ago di misura speciale ed un contenitore diviso in più sezioni. L'ago è strutturato come segue. 57 Sulle pareti dell'ago vi è una colla speciale con cui sono attaccati gli anticorpi in eccesso, che si combineranno con gli antigeni quando il sangue verrà aspirato. Il procedimento di analisi è il seguente: • Si aspira il campione nell'ago (contenente antigeni Agt) • Gli anticorpi contenuti nell'ago si combinano con gli antigeni presenti nel sangue (ma alcuni anticorpi non si combinano in quanto sono in eccesso) ottenendo (Agb Acb+Acf) • Si immettono in eccesso anticorpi marcati (Agb Acb1 + Agb* Acb2+Agf*) • Si sciacqua l'ago con una soluzione neutra eliminando Agf* ed isolando quindi (Agb Acb1 + Agb* Acb2) • Poi si aspira un diluente, che scioglie la colla e libera gli anticorpi, che viene poi messo nella vaschetta di misura • Nella vaschetta tramite una misura fotometrica (nel caso fluorescenza) si determinano gli (Agb* Acb2) • Sottraendo si ottiene Ag=Act-Agb* Acb2 Il contenitore suddiviso in più sezioni si presenta come segue. 58 La numerazione delle sezioni indica la sequenza delle provette interessate alla misura. Nella prima provetta si mette il campione nella successiva gli anticorpi marcati e nelle seguenti la soluzione detergente. Infine con l'ago si aspira il diluente e si rilascia il contenuto diluito nell'ultima vaschetta, che presenta facce piane e parallele in maniera da potere effettuare la misura fotometrica. Il codice a barre infine permette di individuare automaticamente il tipo di contenitore in base alla misura da effettuare. Le provette 2,3,4,5 contengono già i liquidi necessari per effettuare la misura, infatti in genere sono tappate con un velo di alluminio che viene rotto dall'ago durante la misura. 4.3.1.2 Tecniche di biologia molecolare La biologia delle molecole ed in particolare le tecnologie di ingegneria genetica hanno sviluppato metodologie di enorme utilità nel campo dell'immunologia. La base dell'ingegneria genetica è il DNA (acido desossiribonucleico) che è composto da 4 componenti dette basi (A, B, C, D). Il DNA viene schematizzato con una doppia elica, in cui ogni elica è formata da una combinazione delle 4 basi, come nella figura sottostante. 59 Nella figura si vedono le due eliche che si intrecciano e che portano una sequenza di basi. I tratti di collegamento tra un'elica e l'altra rappresentano la corrispondente posizione di una base nell'altra elica. La particolarità delle eliche è che ad una base presente in una certa posizione su una delle due eliche corrisponde una base ben precisa su quell'altra elica, secondo le seguenti corrispondenze: • A con C • B con D Una delle tecniche più usate è quella della polimerasi, tramite cui si riesce a moltiplicare la quantità di materiale genetico a disposizione. Questa tecnica è una tecnica di amplificazione, ed utilizza un enzima (poliferasi) che riesce a staccare le due spirali del DNA separandole, ed ottenendo due mezze spirali. Mettendo le due mezze spirali ottenute in una soluzione contenente tutte le quattro basi, ad una certa temperatura (60°C circa), si ha un fenomeno di ricombinazione per cui le due mezze spirali si ricombinano con le basi in soluzione e formano due spirali doppie complete (avendo così due campioni di DNA originale). Reiterando il processo è possibile ottenere esponenzialmente una quantità sempre maggiore di materiale genetico. 60 Purtroppo non è possibile reiterare il processo più di quattro volte, perché oltre tale numero di iterazioni si hanno delle mutazioni (fenomeno mutogeno), cioè alcune basi nelle eliche non corrispondono più all'originale e si ha DNA diverso (alterazione delle sequenze di DNA). La tecnica della polimerasi è molto utile nel caso in cui per l'analisi degli antigeni si abbia poco materiale a disposizione. Un'altra tecnica tipica dell'ingegneria genetica è quella della sostituzione di parti del DNA tramite alcuni batteri. Le sequenze di basi presenti nelle eliche sono suddivise in pezzi (sottosequenze) tenute legate tra di loro a formare un'unica sottosequenza, come nella figura seguente. I batteri non fanno altro che tagliare una ben precisa sottosequenza compresa tra due punti si legame e di sostituirla con un'altra sottosequenza. Questo sistema è alla base degli OGM (organismi geneticamente modificati), cioè di tutti quegli organismi (piante, animali, uomini) il cui DNA originale è stato modificato. Un'interessante applicazione medica è quella riguardante la produzione dell'insulina umanizzata ricavata dal pancreas del maiale. L'insulina estratta dal pancreas del maiale è un tipo di insulina che differisce da quella umana per un gene e quindi è possibile sostituire il gene non umano con uno umano, ottenendo l'insulina umanizzata. 61 Un'altra tecnica, molto usata nell'industria farmaceutica, è quella delle catene cellulari. Le catene cellulari derivano dai tumori, cui sono precursori. Le cellule tumorali infatti si moltiplicano a dismisura e non hanno limiti nel moltiplicarsi, al contrario delle cellule normali. Il numero delle volte cui si può moltiplicare una cellula normale è di 40 volte. Potendo fare moltiplicare le cellule senza più alcuna limitazione è possibile ottenere grandissime quantità di sostanza in poco tempo. Un esempio ne è l'insulina, che venendo prodotta con questa tecnica ha permesso di abbassarne notevolmente il costo. Una volta che si è dato via ad una catena cellulare, la moltiplicazione avverrà senza limiti di tempo, continuando a produrre la sostanza desiderata all'infinito. Infine una tecnica, anche essa molto importante, è quella delle sonde DNA. Questa tecnica è di estrema importanza in quanto permette di determinare la presenza di un virus prima che lo si possa capire indirettamente dalla presenza degli antigeni (periodo finestra in cui non ci sono ancora abbastanza antigeni da potere essere rivelati), quindi permette di cominciare una cura molto prima che con le normali metodiche aumentando le possibilità di riuscita della cura. La tecnica si basa sulla sostituzione delle sottosequenze caratteristiche di un elemento patogeno (di un virus per esempio) con sottosequenze note che fanno da segnalatore e permettono, tramite la loro ricerca di individuare un virus in maniera diretta (non tramite individuazione degli antigeni). 4.3.2 Gruppi sanguigni La trasfusione del sangue è la più diretta conseguenza dell'immunoematologia, specialmente per quanto riguarda la trasfusione degli eritrociti (globuli rossi), le cui caratteristiche antigeniche (e, per contro, i relativi anticorpi) possono essere definite con tecniche relativamente semplici in qualsiasi laboratorio. I gruppi sanguigni (tra cui i sistemi A-B-0 e l'RH) sono caratteri ereditari degli eritrociti o globuli rossi con carattere di antigene, che introdotti in un organismo geneticamente differente possono portare alla formazione di anticorpi specifici. 62 Tra i gruppi sanguigni il sistema AB0 è di particolare importanza in quanto la sua conoscenza condiziona in modo immediato ed obbligante la sicurezza e l'efficienza della trasfusione di sangue. Il sistema AB0 infatti si distingue da tutti gli altri sistemi di gruppo per il fatto che anticorpi anti-A e anti-B sono presenti in maniera costante al di fuori di ogni apparente immunizzazione. La membrana degli eritrociti può presentarne uno solo, tutti e due o nessuno dei due antigeni A e B cosicché‚ il gruppo di un individuo può essere A; B; AB o 0. La metodica più comunemente adottata per la determinazione del gruppo AB0 è rappresentato dall'agglutinazione. Inizialmente le prove di determinazione del gruppo sanguigno, venivano effettuate manualmente. Vi erano a disposizione dei supporti sui quali erano presenti gocce di sangue con gruppo sanguigno noto al quale veniva aggiunta una goccia di sangue da determinare; a seconda della presenza o meno della reazione di agglutinazione si risaliva al gruppo sanguigno. Queste tecniche manuali erano alquanto pericolose in quanto esisteva la possibilità di trasfondere al paziente sangue non compatibile con conseguenze gravissime. Attualmente esistono metodi automatici che garantiscono una notevole affidabilità. Tali metodiche sono in atto nel centro trasfusionale. 63 4.4 microbiologia La microbiologia clinica è la branca del laboratorio dedicata essenzialmente alla diagnosi delle malattie da infezioni. Essa si avvale di tecniche microscopiche, culturali, immunologiche e di biologia molecolare che possono essere applicate ai più svariati liquidi e tessuti prelevati dall'organismo (compresi naturalmente i campioni tipici della chimica clinica). In questa disciplina di laboratorio la conoscenza delle caratteristiche obiettive o sintomatologiche del paziente è essenziale per la corretta interpretazione del reperto: l'isolamento di un microorganismo o il risultato di una risposta immunologica ad un particolare antigene microbico, costituiscono di rado infatti prova diagnostica valida e sufficiente. Poiché‚ l'agente responsabile di una malattia infettiva può appartenere ad una larga varietà di microorganismi, le procedure tecnico-diagnostiche della microbiologia clinica sono ascrivibili a diverse sub-specializzazioni, a seconda che vengano ricercati batteri, virus, protozoi o miceti. Il termine "microbiologia clinica" comprende ed indica pertanto correttamente la batteriologia, la virologia, la parassitologia e la micologia. 4.4.1 Batteri I batteri sono piccoli microorganismi unicellulari, con un organizzazione cellulare di tipo procariotico ossia con un nucleo primitivo senza una membrana limitante tra il cromosoma e il restante citoplasma. Non possiedono infatti una struttura cromosomica organizzata: il materiale genetico è libero nel protoplasma e consiste in un'unica molecola circolare di DNA non associata ad altri componenti molecolari. Inoltre essi presentano una estrema semplicità delle strutture morfologicamente evidenti. Le loro dimensioni sono tali che vengono misurati in unità di micron e di nanometri. I batteri contengono le strutture ed i materiali necessari per un'esistenza autonoma ed entrambi i tipi di acido nucleico (DNA ed RNA). La morfologia della cellula batterica può essere riportata essenzialmente a tre tipi: forma sferica, o quasi sferica (cocchi); forma cilindrica (batteri e bacilli); forma cilindrica ricurva con una sola curvatura (vibrioni), due curvature (spirilli), più di due curvature con aspetto a molla di letto (spirochete). 64 Per esplicare le loro attività, i batteri richiedono adatte condizioni ambientali. Se queste condizioni mancano, essi sono però capaci di sopravvivere in uno stato di quiescenza. Ad esempio, i batteri presenti nell'aria o quelli che si trovano su un oggetto qualsiasi non esplicano nessuna attività, ma se vengono a trovarsi in condizioni ambientali più favorevoli, si sviluppano e si moltiplicano rapidamente. Perché‚ esplichino la loro attività è necessaria in primo luogo una adeguata temperatura, che varia da specie a specie. La maggior parte dei batteri vive ad una temperatura media, tra 25°C e 40°C. I batteri che provocano le malattie infettive nell'uomo si sviluppano bene a 37°C, cioè alla temperatura normale del corpo umano. Altra condizione richiesta per lo sviluppo dei batteri è l'umidità. Le cellule batteriche in stato di attività sono costituite per il 90% di acqua. Se si vengono a trovare in un ambiente secco, si disidratano e diventano inattive; molte specie di batteri muoiono se l'essiccamento è prolungato. Anche la luce inibisce l'attività di molte specie batteriche. Esposti alla luce solare, i batteri rallentano il loro sviluppo; i raggi ultravioletti li uccidono. Infine, un'altra condizione per lo sviluppo dei batteri è la disponibilità di sostanze nutritizie. Molti batteri utilizzano qualsiasi sostanza alimentare, altri hanno invece bisogno di sostanze particolari. I batteri patogeni, ad esempio, si sviluppano soltanto nei tessuti viventi o in mezzi chimicamente affini. Altro fattore fondamentale per lo sviluppo dei batteri è rappresentato dall'ossigeno atmosferico. Alcuni di essi vivono infatti solo in presenza di ossigeno, altri vivono solo in sua assenza; altri, infine, sono capaci di adattarsi alle due condizioni. Alcuni batteri richiedono per la respirazione ossigeno atmosferico, come la maggior parte delle piante e degli animali. Questi, detti aerobi, nella respirazione scindono le molecole di glucosio in anidride carbonica e acqua. Questo gruppo comprende moltissimi batteri saprofiti ovunque presenti e, tra i batteri patogeni, quelli della difterite, quelli della tubercolosi e quelli del colera. All'opposto, vi sono batteri classificati come anaerobi, che in presenza di ossigeno atmosferico non si sviluppano. Anche tra questi, molti sono saprofiti; tra i parassiti i più noti sono i batteri del tetano e quelli del botulismo. Esistono quindi molti fattori che condizionano, lo sviluppo e la crescita batterica. 65 Alcune specie sono capaci infatti di crescere in un raggio ampio di condizioni, ma altri, sono molto esigenti. Per quanto sia difficile riprodurre esattamente le condizioni ambientali naturali dei batteri patogeni, per la maggior parte sono stati individuati adatti terreni colturali artificiali. Lo sviluppo della batteriologia infatti ebbe inizio solo quando fu trovata la possibilità di coltivare i batteri in vitro nei terreni di coltura, costituiti da sostanze più o meno complesse capaci di mantenere la vitalità e di permettere la riproduzione dei batteri fuori dal loro ambiente naturale di vita. I batteri hanno una distribuzione ubiquitaria per la loro capacità di adattamento e quindi di colonizzare qualsiasi ambiente per cui anche superfici e cavità in comunicazione con l'esterno degli organismi animali sono colonizzati da una popolazione batterica. Un batterio patogeno per l'uomo può essere quindi definito come un batterio in grado di invadere i tessuti di un organismo umano e di moltiplicarvisi danneggiando il normale funzionamento dell'organismo ospite con la produzione di sostanze tossiche. Contro i batteri patogeni sono state individuate sostanze ad azione selettiva per determinate strutture o su particolari tappe metaboliche, capaci di inibire la crescita o uccidere i batteri già insediati nell'organismo. Le sostanze dotate di queste proprietà vanno sotto il nome di antibiotici. L'utilizzazione in terapia di queste sostanze dipende oltre che dalla loro attività antibatterica anche da caratteristiche tossicologiche-farmacologiche, tali per cui siano in grado di agire sui batteri ad una concentrazione tollerata dai tessuti dell'ospite possedendo quindi una tossicità selettiva per i microrganismi. Un grosso problema connesso con l'uso degli antibiotici deriva dalla comparsa di resistenza in stipiti di batteri prima sensibili ed è questo il principale motivo della continua ricerca di nuovi farmaci antibatterici. Per una corretta terapia antibatterica è quindi necessario conoscere oltre all'identità dell'agente patogeno anche la sua sensibilità ai farmaci antibatterici. Per tutti questi motivi l'impiego della prova di sensibilità batterica in vitro agli antibiotici (antibiogramma), va acquistando sempre maggior importanza. L'antibiogramma permette di selezionare antibiotici selettivi per una determinata patologia batteriologica evitando l'uso di antibiotici ad ampio raggio, che hanno 66 un'azione di "tabula rasa" su tutta la flora batterica, anche su quella utile all'organismo umano. Le prove di sensibilità in vitro vengono oggi eseguite quasi esclusivamente con metodi automatici. L'introduzione di sistemi automatici o semi-automatici ha come scopo il raggiungimento di un maggior grado di efficienza (rapidità delle risposte), ma anche di una maggiore conformità dei risultati in quanto vengono standardizzati automaticamente dei procedimenti che nelle metodiche manuali subiscono spesso una valutazione soggettiva come la standardizzazione dell'inoculo e la lettura dei risultati. I sistemi automatizzati attualmente esistenti sono basati sul rilievo strumentale della torbidità di un terreno liquido, contenente un dato antibiotico, nel quale è stato coltivato il microrganismo in esame. La lettura viene eseguita per confronto con lo stesso terreno liquido seminato e non contenente antibiotico ed i risultati espressi in termini di "sensibile", "moderatamente sensibile", "resistente". Con qualche sistema è possibile anche fare una determinazione quantitativa della sensibilità (MIC) ma limitata tuttavia a pochi antibiotici. I sistemi automatizzati disponibili allo stato attuale consentono in misura diversa l'eliminazione di alcuni procedimenti manuali portando così ad una maggiore uniformità dei risultati. Un problema legato all'utilizzo di sistemi automatici è dato della possibile alterazione delle vaschette di esame. Per questo esiste il marker costituito da una vaschetta con solo brodo di coltura per verificare se lo sviluppo dei batteri avviene regolarmente. Possono esserci più markers, ad esempio uno con un antibiotico a vastissimo spettro (spesso si usa un antibiotico labile): se questo reagisce vuol dire che la misura è giusta ed il sistema funziona. 4.4.2 I miceti I miceti sono organismi primitivi superiori caratterizzati da una struttura cellulare eucariotica, costituita cioè da un nucleo provvisto di membrana e un citoplasma organizzato come quello delle cellule animali; essi posseggono una parete cellulare 67 rigida strutturalmente più semplice di quella dei batteri. Per questi caratteri si distinguono da batteri la cui cellula è procariotica. Dal punto di vista metabolico i funghi sono chemiosintetici, ricavano cioè energia dall'ossidazione di composti chimici vari e sono privi di clorofilla e di altri pigmenti capaci di utilizzare l'energia solare. Sono inoltre eterotrofi in quanto necessitano di composti organici del carbonio che non sono in grado di sintetizzare; sono generalmente aerobi o anaerobi. I funghi possono essere distinti in endogeni ed esogeni; i primi vivono allo stato saprofitario nell'organismo ospite ed acquistano potere patogeno in particolari condizioni, i secondi vivono liberamente in natura ed infettano l'uomo per mezzo delle loro spore che penetrano nell'organismo o attraverso la cute o attraverso le vie respiratorie. I funghi possono determinare malattie assai diverse dette micosi. Le micosi vengono generalmente distinte in quattro gruppi a seconda del tipo di tessuti infettati: micosi superficiali, micosi cutanee, micosi sottocutanee e micosi profonde o sistemiche (in organi interni come polmoni, fegato, milza e reni). Queste ultime infezioni possono essere asintomatiche ed evidenziabili solo per mezzo di test immunologici e con esami radiologici. La ricerca e l'identificazione dei diversi miceti patogeni viene eseguita essenzialmente con l'esame microscopico del materiale infettato o con un esame colturale. 4.4.3 Parassiti La parassitologia si occupa essenzialmente della diagnostica delle malattie provocate dai protozoi patogeni e degli elminti o vermi. Entrambi parassiti dell'organismo umano anche se molto diversi fra loro. La localizzazione delle varie forme parassitarie è diversa prediligendo alcune l'intestino, altre il fegato o l'apparato polmonare, la vescica, i genitali, i muscoli, il sistema linfatico, il sistema venoso, ecc. Anche le vie attraverso cui gli elminti infestano l'uomo sono diverse, potendo la loro penetrazione avvenire o per via orale o per via cutanea o, raramente, per via aerea. 68 In rapporto alla localizzazione sono svariate anche le modalità di eliminazione (rettale, urinaria, aerea, cutanea); generalmente gli elminti fuoriescono dall'organismo o sotto forma di larve o di uova. La possibilità di diagnosticare una parassitosi è in gran parte affidata all'indagine di laboratorio o mediante il riscontro diretto del parassita o mediante il riconoscimento microscopico delle uova. 4.4.4 Virus I virus sono le entità viventi più semplici conosciute prive di vita propria, sono parassiti endocellulari obbligati e come tali possono moltiplicarsi solo come parassiti delle cellule, usufruendo dei sistemi enzimatici di queste. I rapporti che si stabiliscono tra virus e la cellula parassitaria sono vari, ma, nei casi interessanti la patologia infettiva, si concludono con la distruzione della cellula; a questo livello di organismi pluricellulari (animali o piante), si traduce abitualmente in una malattia e talvolta nella morte. La malattia virale è una malattia infettiva, conseguenza di un'associazione parassitaria fra due forme viventi, che può provocare nel parassitato un danno evidente, la malattia clinicamente conclamata, o può non dare un danno evidente, infezione subclinica senza malattia. L'impossibilità per un virus di sopravvivere, se non in casi eccezionali, nell'ambiente, fa sì che il persistere delle malattie virali dipenda da un'interrotta serie di associazioni parassitarie, cioè di individui infetti che trasmettono i virus ad altri individui, con presenza o meno di manifestazioni cliniche. I criteri convenzionali per la diagnosi di malattia virale si basano sull'isolamento e identificazione di un virus da uno o più campioni clinici selezionati (con l'impiego di metodiche diverse fra le quali prevale l'immunofluorescenza) e sulla determinazione del titolo anticorpale specifico nei confronti del virus isolato in una coppia di sieri prelevati in fase acuta e convalescente di malattia. Tali due ordini di indagini devono essere eseguiti in parallelo e solo dalla valutazione critica dei risultati ottenuti con l'isolamento e le indagini sierologiche si può trarre una conclusione diagnostica affidabile. La diagnosi sierologica a determinazione degli anticorpi nel siero ha lo scopo di diagnosticare l'avvenuta infezione di un organismo ad opera di un agente virale. Tale diagnosi si basa sull'utilizzo di materiali che diverse fra le quali prevalgono metodi ad 69 immunofluorescenza, i metodi immunoenzimatici (ELISA) ed i metodi radio immunologici (RIA). Negli ultimi anni nei laboratori di virologia vengono sempre più utilizzate sonde costituite da acidi nucleici (da impiegarsi in metodiche di ibridazione) che permettono la diagnosi delle patologie infettive. L'impiego di tali sonde è di estrema importanza soprattutto in quei casi di infezione virale in cui il virus non è coltivabile, quando non sono disponibili reagenti immunologici specifici, quando è necessario identificare specificamente le cellule in cui sia presente il virus, o l'acido nucleico virale. Le sonde genetiche impiegate in diagnostica virologica sono costituite da sequenze di acidi nucleici complementari a quelle ricercate. 70 4.5 citologia e istologia La citologia, che studia la morfologia e la funzione cellulare, può essere distinta in una citologia normale che esamina gli elementi cellulari in assenza di malattia ed in una citologia patologica che indaga la struttura cellulare nel caso delle diverse affezioni morbose dell'organismo. Uno degli scopi principali della citopatologia che consente di formulare una diagnosi di malattia attraverso lo studio delle modificazioni patologiche della cellula. La citodiagnostica copre un ambito di aspetti della patologia clinica che spazia dai programmi di prevenzione alla diagnosi diretta di lesioni tumorali e non tumorali (processi infiammatori, degenerativi, malformativi, ecc.). Vengono svolte indagini per l'identificazione dei precursori dei carcinomi del collo e del corpo dell'utero, del polmone e delle vie urinarie, in soggetti apparentemente sani, appartenenti a categorie a rischio. Inoltre l'esame citologico può consentire la diagnosi della patologia tumorale (benigna e maligna) e non-tumorale. Lo studio citologico si effettua su elementi cellulari che si sono distaccati dalla cute o dalle mucose, spontaneamente o a seguito di leggeri traumi meccanici (citologia esfoliativa), oppure su elementi prelevati da organi o tessuti aggredibili dall'esterno con mezzi strumentali (citologia non esfoliativa). La diagnostica citologica deve talora essere integrata da una successiva indagine morfologica dei tessuti interessati detta indagine istologica. Gli esami istologici hanno una applicazione soprattutto intraoperatoria, in particolare quando viene effettuato un intervento demolitivo sul tumore. 4.5.1 Cellula e tessuto Le cellule sono le unità fondamentali che compongono, insieme ai loro prodotti, i tessuti dell'organismo. Esse variano per forma, dimensioni, funzione e sono costituite essenzialmente da 3 componenti fondamentali, il nucleo, il citoplasma e la membrana cellulare. Lo studio delle modificazioni patologiche della cellula e le successive indagini istologiche si avvalgono soprattutto dell'uso del microscopio come mezzo strumentale. Accanto al microscopio ottico (M.O.), indispensabile e di uso quotidiano, si ha la disponibilità del microscopio elettronico (M.E.) utile per lo studio ultrastrutturale delle 71 cellule. Indagini particolari richiedono l'uso del microscopio a contrasto di fase, a fluorescenza, a luce ultravioletta, a luce polarizzata ed interferenziale. L'attendibilità della diagnosi citologica (ed istologica) dipende in modo preponderante dalle tecniche preparative. Questa è la fase nella quale può essere raggiunta una certa automazione. Il materiale per l'esame citologico può essere un fluido che viene inviato al laboratorio come tale oppure materiale strisciato sui vetrini dal medico che ha effettuato il prelievo. Questi campioni devono subire una serie di trattamenti (in particolare l'inclusione in paraffina e la colorazione) per i quali sono necessari tempi lunghissimi (ore). Esistono strumentazioni in grado di effettuare le diverse fasi preparative automaticamente, evitando in tal modo tutte le operazioni manuali con notevole risparmio di tempo. Infine per gli esami istologici intraoperatori sono state messe a punto tecniche preparatorie molto rapide che permettono una lettura grossolana che indica solo la tipologia del tumore, indicazione necessaria per decidere se asportare la parte interessata o no. 4.5.2 Citogenetica La citogenetica studia le basi morfologiche della genetica, in particolare il numero e la morfologia dei cromosomi (mappe cromosomiche). Le anomalie cromosomiche possono essere sia congenite che acquisite, e queste ultime possono risalire al danno da radiazioni ionizzanti e da numerose sostanze chimiche, nonché‚ da agenti biologici quali i virus. Un campo di applicazione particolarmente utile è quello delle neoplasie, soprattutto quelle del sistema emopoietico. In questi casi la ricerca citogenetica non serve solo per la diagnosi, ma è utilizzata anche per il monitoraggio della terapia. Un altro campo applicativo importante è lo studio della cromatina sessuale formata da un cromosoma X fortemente spiralizzato ed addensato. 72 5 AUTOMAZIONE 5.1 Realizzazzione degli strumenti di prelievo liquidi Nell'ambito del prelievo di sostanze liquide (campioni e reattivi in fotometria) si possono usare diverse soluzioni: • Pipette graduate: questa soluzione prevede l'impiego di pipette (per lo più di vetro) con camera di pressione di gomma, come nella figura sottostante. Premendo la camera di compressione con le dita si crea una despressione che fa penetrare il liquido in cui è immersa la punta del corpo di vetro della pipetta. In genere se ne preleva una quantità eccessiva e il rimanente lo si espelle tramite opportuna pressione della camera di compressione. • Siringhe manuali a pistone: il principio è quello delle comuni siringhe per iniezione, cioè vi è un cilindro situato in una cavità cilindrica in cui vi si muove, come nello schema sottostante. 73 Le siringhe manuali a pistone si usano in maniera simile alle pipette ma invece di agire su una camera di compressione si muove manualmente il cilindro interno in maniera da aspirare la giusta quantità di liquido espellendo eventualmente l'eccesso. • Siringhe automatiche a pistone: il principio è molto simile a quello delle siringhe a pistone manuali, ma in più hanno un meccanismo che permette di prelevare quantità sempre uguali di liquido ad ogni prelievo (avendo un meccanismo di blocco automatico) secondo lo schema mostrato qui sotto. Facendo scorrere la cremagliera tramite pressione, il cilindro interno si alza e comincia ad aspirare il liquido fino a che la cremagliera giunge al blocco di fine corsa (preventivamente posizionato a seconda della quantità di liquido da aspirare). • Siringhe motorizzate: questo genere di siringhe è in pratica una semplice siringa a pistone ma invece che manualmente il cilindro interno viene fatto muovere da un 74 motore tramite una vite, come nello schema successivo (quindi adatto per sistemi automatici di prelievo). • Materiale ad assorbimento: per prelevare campioni in maniera precisa si può anche non usare sistemi meccanici in movimento ma sfruttare il principio dell'assorbimento dei materiali. Per prelevare una quantità precisa di liquido basta studiare la caratteristica di assorbimento di un certo materiale in maniera che sia nota la quantità di liquido che viene assorbita ad ogni prelievo. La forma del materiale assorbente può essere della più disparata in base alle esigenze, quindi può essere a forma aghiforme, a piastrina, … 75 Nel seguito un esempio di materiale assorbente aghiforme (in cui il materiale prelevato rimane aderente anche grazie alla tensione superficiale del liquido stesso). • A volte per particolari esigenze (prelievo contemporaneo di più campioni, nell'elettroforesi per esempio) si ha un pettine di materiali aghiformi come nell'immagine seguente. 5.2 Tecnica SMA per automatizzazione fotometria (multianalizzatore seriale) L'elevato numero di esami da effettuare, come ad esmpio nei sistemi di misura basati sulla fotometria, e la ripetitività della tipologia di alcuni esami hanno portato a studiare sistemi di automazione. Il primo sistema completo per l'analisi fotometrica automatizzata è stato quello utilizzato nelle apparecchiature SMA. 76 Il sistema creato era un sistema di analisi di un flusso continuo di campioni che permetteva di fare un elevato numero di esami in maniera veloce; presentava tuttavia un problema: era poco flessibile, permettendo solo di fare quel numero preciso di esami per cui era stata progettata la macchina, anche se non tutti erano necessari per i campioni inseriti nel ciclo, ed era perciò detto “a profilo fisso”. Il flusso continuo sfrutta un sistema idraulico di tubazioni appositamente calibrate in lunghezza e sezione. L'idea è quella di fare passare campioni di più pazienti attraverso lo stesso tubo, in maniera sequenziale, tenendoli separati uno dall'altro attraverso l'utilizzo di bolle d'aria interposte tra un campione e l'altro, come nella figura seguente. Se il sistema fosse ideale ogni campione dovrebbe viaggiare ad una velocità costante e non contaminare la superficie del tubo, lasciando cioè la superficie interna del tubo pulita al passaggio del campione stesso. Il campione in realtà contamina la superficie del tubo e per questo è necessario inserire tra un campione e l'altro un liquido detergente, come nella figura sottostante. Il sistema per inserire bolle d'aria tra campioni è raffigurato nello schema seguente. 77 Il funzionamento del sistema di inserimento di bolle d'aria è il seguente: • Si accende la pompa che comincia ad aspirare il liquido contenuto nella cuvetta • Il liquido entra nel tubo fino a superare il giunto a T per un certo tratto (a seconda della quantità di campione da prelevare) e la pompa si ferma. • In corrispondenza dello spegimento della pompa si apre la valvola e l'aria per depressione entra tramite il giunto a T e continua ad entrare per tutto il tempo che la valvola è aperta (entro un certo range). • La valvola si chiude e l'aria non può più entrare e la pompa quindi riparte facendo scorrere il campione prelevato e prelevando dalla cuvetta il materiale per il secondo campione. Il ciclo può essere ripetuto e quindi si possono ottenere così tanti campioni quanti ne necessitano. L'ago di prelievo è di tipo usa e getta, in quanto viene cambiato ogni volta che si cambia il contenuto della cuvetta. L'asse di sincronismo serve a sincronizzare l'apertura della valvola con lo spegimento della pompa. La pompa usata è una pompa peristaltica, utile in tutti i casi in cui non voglio contatto con il contenuto del tubo e capace di garantire un flusso costante grazie alla possibilità offerta dai moderni motori di garantire una velocità di rotazione costante del rotore. NB: flusso = cost. • sezione • velocità angolare (ω). 78 Se ipotizziamo poi un sistema di sincronismo con la valvola che usa un solo motore, abbiamo allora lo schema rappresentato nella figura seguente. La pompa peristaltica imita il funzionamento del tubo digerente. Il movimento peristaltico del tubo digerente permette, tramite un'onda di contrazione anulare, preceduta da un'onda di dilatazione, di espellere il contenuto alimentare del tubo stesso. Il vantaggio di una pompa peristaltica rispetto ad una normale è quello di non contaminare la pompa stessa con il liquido pompato, in quanto il liquido rimane all'interno del tubo. In genere in una apparecchiatura SMA vi è un solo motore e più pompe e valvole unite da un asse di sincronismo che ne sincronizza il funzionamento. Tramite giunti a T è possibile anche miscelare reattivo e campioni del paziente come mostrato nella figura seguente. 79 Per sincronizzare reattivo e campioni la macchina necessita di una messa a punto, effettuata con il taglio dei tubi di trasporto (i tubi di trasporto sono realizzati in gomma e quindi possono essere facilmente tagliati). È importante sottolineare che il campione ed il reattivo devono rispettare questo sincronismo per giungere contemporaneamente al giunto a T dove si mescolano; tale sincronismo si garantisce, come detto, agendo sulla lunghezza deel tubo: se il reattivo arrivasse in ritardo allora basterebbe accorciare il tubo di quanto necessita (in genere si lavora per approssimazioni successive). Dopo che il campione ed il reattivo sono stati miscelati è necessario aspettare un po’ di tempo affinché avvenga la reazione e quindi il ritardo si effettua facendo scorrere la soluzione in un tubo molto lungo (abbastanza per fare avvenire la reazione). È da notare che il rimescolamento fra campione e reattivo è assicurato anche dal fatto che il bolo si muove rotolando all’interno del tubo, e ciò è giustificato dalla prevalenza dell’attrito radente sull’attrito volvente. In genere il tubo di ritardo, dovendo essere molto lungo, per occupare meno spazio viene arrotolato. Va sottolineato che tutte queste operazioni di messa a punto rendono la macchina poco flessibile. 80 La soluzione di reattivo e del campione una volta che la reazione è avvenuta, per essere analizzata con la fotometria passa attraverso una cella a flusso, come qui di seguito. Il rivelatore inizialmente utilizzato era cosìddetto “di tipo XY”, a trascinamento di carta (anni ’70). Le apparecchiature SMA si distinguevano da un numero che le accompagnava e che identificava il numero di esami per cui la macchina era stata progettata, così ad esempio SMA3 eseguiva tre esami, SMA6 eseguiva 6 esami, etc. 5.3 Realizzazzione di fotometria a profilo variabile Il problema delle macchine SMA è quello che il numero di esami da fare e il tipo è già predeterminato e non è possibile farne in numero e una tipologia diversa, quindi le macchine SMA si presentano come macchine a profilo fisso. Il profilo fisso porta a fare esami spesso inutili e ridondanti, per cui si è cercato di trovare soluzioni al problema cercando di potere fare solo gli esami necessari. La prima soluzione al problema del profilo fisso è stata di tipo organizzativo, senza introdurre sostanziali modifiche alle macchine di analisi SMA. La soluzione prevede di usare macchine che effettuassero 1 o 2 analisi (macchine monocanale o bicanale). 81 L'organizzazzione era tale da individuare delle linee analitiche, cioè di raggruppare provette di pazienti diversi per tipo di esame, in maniera che in ogni linea fossero presenti le provette di tutti quei pazienti per cui era necessario effettuare l'esame associato alla linea, come nell'esempio successivo. ESEMPIO: si suppone di avere 2 pazienti (A e B) e 3 possibili esami (azotemia, bilirubina, glicemia), quindi 3 linee guida e 3 raccoglitori con più provette , uno per ogni esame. Si suppone inoltre che i due pazienti debbano fare i seguenti esami: paziente A: azotemia, glicemia paziente B: azotemia, bilirubina Si avranno le provette dei due pazienti disposte nelle linee guida come in figura. In genere ogni linea guida era identificata da un colore (rosso, bianco,…) e le provette da mettere in ciascuna linea guida erano del corrispondente colore, in maniera da evitare il più possibile errori di associazione. La soluzione di tipo organizzativo prevedeva personale specializzato, tecnici di laboratorio esperti e gli errori effettuati nello scambiare provette di persone diverse non era raro. Le macchine per analisi monocanale usate avevano uno schema come quello dell'immagine seguente. 82 Dallo schema si possono notare i seguenti componenti: Siringa reattivo: è una siringa a pistone mosso da motore e serve ad aspirare il reattivo Siringa campione: è sempre una siringa a pistone motorizzata ma di sezione ridotta rispetto la siringa del reattivo, visto che la quantità di campione da aspirare è molto minore della quantità del reattivo Cella di flusso: qui usata non nella fase di misura, ma per questioni di contaminazione e di risciacquo delle tubature 83 Disco di selezione: permette alle siringhe di potere essere collegate, a seconda della posizione assunta dal disco (1,2,3) alla provetta del campione, al reattivo o alla cuvetta di misura Provetta campione Contenitore reattivo Cuvetta di misura Lo schema presentato è si capace di effettuare solo gli esami voluti, in quanto una apparecchiatura effettua un solo esame alla volta, ma così necessitano di una apparecchiatura per ogni esame, problema risolto con i sistemi seriali attuali. I sistemi seriali attuali sono sistemi che combinano il vantaggio di potere fare solo esami richiesti e di potere fare più tipi di esami in una sola apparecchiatura. Lo schema realizzativo di un sistema seriale attuale è quello raffigurato nella figura seguente. 84 I componenti del sistema automatizzato sono i seguenti: Disco porta siringhe: è il disco che ruotando nelle posizioni 1 o 2 o 3 porta la testa portasiringhe rispettivamente sopra il disco porta-reattivo, sopra il disco porta-campioni o sopra il disco porta-cuvette Disco porta reattivo: è il disco che porta i vari tipi di reattivi necessari a fare tutti i tipi di misura necessari Disco porta-campioni: è il disco che porta i campioni da misurare e permette per esempio per una stessa misura di analizzare più pazienti Disco porta cuvette: è un disco che porta delle cuvette di misura vuote che vengono riempite con soluzione di reattivo e campione, quindi ogni cuvetta viene usata per una sola misura alla volta in quanto non vengono sciacquate Monocromatore: rappresentato da un disco che porta dei filtri selezionabili a seconda della misura da fare Sorgente: è la sorgente del sistema fotometrico di misura Testa porta siringhe: è una testa che porta un sistema di siringhe che hanno il compito di prelevare e miscelare i reattivi e i campioni Il problema che si pone è che nella metodica esposta precedentemente il tempo di esecuzione di ciascuna misura veniva fissato dalla misura che durava di più e quindi in tutte quelle misure che duravano di meno bisognava aspettare un tempo morto. Soluzioni migliorative furono raggiunte quando si decise di rendere ciascun piatto indipendente dall'altro usano un motore per ciascun piatto (al contrario precedentemente si usava un solo motore per tutti), permettendo quindi di non aspettare più un giro completo del disco del reattivo prima di riavere il reattivo desiderato (cominciando così una misura subito alla fine della precedente). Sistemi di automatizzazzione diversi sono stati studiati per risolvere principalmente due tipi di problemi: • Il problema che una volta finiti gli esami bisognava asportare il piatto e ricaricarlo con nuove provette • Le cuvette di misura erano da lavare alla fine delle misure sul disco (risolto con disco portaprovette con provette incorporate e monouso) Per non avere tempi morti viene studiato un sistema di automatizzazzione parallelo. 85 Il sistema parallelo presenta più sezioni dello stesso tipo (solo con reagenti e impostazioni dei monocromatori diverse a seconda del tipo di esame da effettuare). Il tipico schema di una singola sezione è il seguente. I componenti dello schema sono i seguenti: Nastro trasportatore campioni: è un nastro che permette di fare scorrere le provette con i campioni e tramite fori antistanti le provette stesse di fare arrivare la soluzione reattivo e campione nelle cuvette di misura sottostanti Nastro trasportatore cuvette: trasporta cuvette di misura vuote che vengono riempite con la soluzione cuvette e campione Diluitore: permette tramite aspirazione dei campioni e apertura della valvola del reattivo di miscelare reattivo e campione stesso e di immetterlo, tramite i fori del nastro trasportatore dei campioni, nelle cuvette di misura del nastro sottostante Sorgente, monocromatore, rivelatore, amplificatore: componenti del sistema di misura fotometrico Lo schema presentato permette la misura di un solo tipo di esame, ma più schemi ripetuti messi in una unica apparecchiatura permettono di avere un'apparecchiatura in grado di eseguire più tipi di esami, uno per ogni schema. 86