la sicurezza elettrica negli impianti elettrici dei locali ad uso

annuncio pubblicitario
1
SILVANO DUBINI
LA SICUREZZA ELETTRICA
NEGLI IMPIANTI ELETTRICI DEI
LOCALI AD USO MEDICO E
NEGLI APPARECCHI BIOMEDICI
Facoltà di Ingegneria dell’Università di Firenze
dispense1.doc
2
INDICE
1. PREMESSA.................................................................................................................................... p.
3
2. EFFETTI BIOLOGICI DELL'ENERGIA ELETTRICA ..................................................................... p.
2.1 Cenni di fisiopatologia ............................................................................................................... p.
2.2 Effetti dell'energia elettrica sull'organismo umano.................................................................... p.
2.3 Macroshock e Microshock ......................................................................................................... p.
2.4 Correnti pericolose .................................................................................................................... p.
2.5 Impedenza di contatto ............................................................................................................... p.
2.6 Tensioni di contatto ................................................................................................................... p.
2.7 Effetto termico ........................................................................................................................... p.
2.8 Incidenza della mortalità ........................................................................................................... p.
4
4
11
14
14
22
23
24
24
3. NORMATIVA .................................................................................................................................. p.
3.1 La regolamentazione giuridica................................................................................................... p.
3.2 L'attività normativa.................................................................................................................... p.
3.3 La certificazione volontaria o obbligatoria.................................................................................. p.
3.4 Direttive europee e norme tecniche in campo sanitario............................................................. p.
25
25
27
30
31
4. IMPIANTI ELETTRICI NEI LOCALI AD USO MEDICO.................................................................. p.
4.1 Norme generali e norme particolari ........................................................................................... p.
4.2 Prescrizioni per la sicurezza...................................................................................................... p.
4.3 Classificazione dei locali............................................................................................................ p.
4.4 Zona paziente............................................................................................................................ p.
4.5 Sistemi di distribuzione.............................................................................................................. p.
4.6 Protezione contro i contatti diretti .............................................................................................. p.
4.7 Protezione contro i contatti indiretti ........................................................................................... p.
4.8 Protezione contro le sovraccorrenti .......................................................................................... p.
4.9 Coordinamento delle protezioni................................................................................................. p.
4.10 Sorgenti ausiliarie di energia elettrica...................................................................................... p.
4.11 Sintesi delle prescrizioni impiantistiche previste per i locali ad uso medico ............................ p.
38
38
38
39
40
41
44
46
54
56
57
61
5. SORGENTI AUSILIARIE DI ENERGIA ELETTRICA...................................................................... p.
5.1 Problematiche............................................................................................................................ p.
5.2 UPS ........................................................................................................................................... p.
5.3 Batterie ...................................................................................................................................... p.
5.4 Gruppo elettrogeno.................................................................................................................... p.
63
63
66
71
80
6. APPARECCHI ELETTROMEDICALI.............................................................................................. p.
6.1 Definizione di apparecchio ........................................................................................................ p.
6.2 Classificazione........................................................................................................................... p.
6.3 Tipi di protezione ....................................................................................................................... p.
6.4 Grado di protezione .................................................................................................................. p.
6.5 Resistenza del conduttore di protezione.................................................................................... p.
6.6 Situazioni pericolose.................................................................................................................. p.
87
87
87
90
91
92
93
7. DEFINIZIONI .................................................................................................................................. p. 96
dispense1.doc
3
1. PREMESSA
L'uso sempre più diffuso della tecnologia nella pratica medica ha consentito un eccezionale sviluppo della conoscenza e
delle possibilità della medicina, ma ha anche elevato il rischio iatrogeno.
Infatti gli apparecchi biomedici possono esporre il paziente, l'operatore e l'ambiente circostante ad un certo numero di rischi
potenziali di varia natura quali:
Erogazione di energie indesiderate nell'uso normale o in caso di guasto;
Mancato funzionamento di una attrezzatura a cui è affidata una funziona vitale per il paziente;
Mancato funzionamento di un dispositivo durante un trattamento non ripetibile;
Errori umani nell'uso delle attrezzature.
Alcuni di questi rischi sono presenti anche negli apparecchi non medicali; tuttavia, nella strumentazione biomedica, esistono
certi aspetti peculiari che ne aumentano il pericolo, per esempio: il frequente stato di incoscienza del paziente; l'assenza di
percezione cosciente di alcune energie come le radiazioni ionizzanti o le radiazioni elettromagnetiche di alta frequenza; il
collegamento elettrico franco a strumentazioni elettroniche di diagnosi; le condizioni ambientali o di uso spesso ostili.
Purtroppo i rischi potenziali sono tali da non consentire protezioni assolute senza una inaccettabile riduzione della normale
funzionalità . Pertanto sono adottate precauzioni che forniscono una adeguata protezione, che si ottiene intervenendo sia
sugli apparecchi, sia sugli impianti e l'ambiente, sia sulle modalità di applicazione, dando così luogo ai cosiddetti sistemi di
protezione.
In generale il guasto di un solo componente, in un sistema di protezione, non deve creare un rischio grave.
Ciò· può· essere realizzato aumentando i margini di sicurezza oppure adottando dei dispositivi di protezione.
Normalmente si auspica che la condizione di primo guasto risulti evidente all'operatore o per mezzo di un segnale
inconfondibile e chiaramente avvertibile, o per mezzo di un programma di verifiche periodiche che lo possa evidenziare.
I sistemi di protezione, tuttavia, non si realizzano soltanto con una buona progettazione elettronica e meccanica, ma anche
con la conoscenza delle metodiche e delle tipologie di impiego delle attrezzature, nonché con le modalità di fabbricazione,
di collaudo, di trasporto e di immagazzinamento dei materiali.
Si prescrive, pertanto, che gli apparecchi resistano ad una serie di prove ambientali, meccaniche e di sovraccarico tendenti
a simulare le peggiori condizioni di uso .
Di seguito si accennerà alle principali fonti di pericolo, ma si approfondiranno essenzialmente gli aspetti relativi alla
sicurezza del paziente e degli operatori da scariche elettriche che sono la principale fonte di rischio negli apparecchi di uso
medico.
Tali fonti di pericolo sono:
Scariche elettriche
Nonostante i numerosi contributi scientifici oggi disponibili sugli effetti biologici della corrente elettrica, mancano ancora dati
certi sulla sensibilità del cuore umano all'energia elettrica.
Ai fini della sicurezza sono, pertanto, indicati dei valori massimi di corrente che potrebbe fluire nel paziente o nell'operatore,
considerati, per il momento, ragionevolmente sicuri. Ovviamente i progettisti devono attenersi a questi limiti massimi e
quanto possibile ridurli ulteriormente.
Radiazioni
Dagli apparecchi biomedici possono provenire radiazioni in tutte le forme conosciute in fisica. Le prescrizioni di sicurezza
riguardano le radiazioni estranee o non volute. Naturalmente i limiti imposti possono essere superati nell'utilizzazione
intenzionale della radiazione a scopo diagnostico e terapeutico, purché sotto il controllo e la responsabilità degli operatori
sanitari.
Pericoli meccanici
Alcuni dispositivi meccanici servono a sostenere il paziente o parti dell'apparecchio in prossimità del paziente stesso o degli
operatori. In questo caso la sicurezza è costituita dalla resistenza meccanica statica e dinamica dei dispositivi meccanici e
della loro garanzia di buon funzionamento.
Le protezioni consistono nell'ampio dimensionamento, nell'adozione di appigli di sicurezza o di dispositivi di blocco, oppure
di ripari. Si devono inoltre considerare le situazioni di pericolo provocate dall'interruzione dell'erogazione dell'energia
elettrica che possono causare movimenti indesiderati, cessazione di operazioni meccaniche o addirittura contenzione del
paziente. Tali funzionamenti non desiderati devono essere resi impossibili o eliminabili con pratici azionamenti manuali.
dispense1.doc
4
Rumore
Gli effetti negativi del rumore sono accentuati nei locali di uso medico, ove si richiede un ambiente il più possibile
confortevole per i pazienti, e tale da consentire la maggior concentrazione possibile degli operatori.
*Una specifica normativa indica il livello di rumore accettabile anche se la percezione individuale è molto variabile da
individuo a individuo in quanto l'effetto reale sull'uomo è fortemente influenzato dalle caratteristiche acustiche del locale,
dall'isolamento e dalle interazioni tra le parti degli apparecchi e dello stato psicologico del soggetto.
Rischi di esplosione
Si manifestano ove si usano particolari sostanze che con l'aria formano miscele esplosive (tipico il metano). Diversamente
dal passato gli anestetici oggi usati non danno mai rischio di esplosione e la maggior parte di essi non è neppure
infiammabile.
Temperature
Per quasi tutti i tipi di apparecchi ed impianti si prescrivono valori di temperatura da non oltrepassare, allo scopo di
prevenire l'invecchiamento precoce degli isolanti o le spiacevoli conseguenze in caso che essi vengano toccati o manovrati.
A questo proposito si consideri che i pazienti possono essere costretti a toccare, anche per lungo tempo, parti di un
apparecchio, così come alcune altre parti possono essere inserite in cavità naturali dell'organismo o impiantate
sull'organismo umano.
Rischio d'incendio
Questi rischi sono comuni a tutti gli apparecchi e gli impianti. Normalmente si adottano limiti di temperatura di
funzionamento che non provocano incendio e si prescrivono protezioni contro il sovraccarico.
In ogni caso, gli involucri degli apparecchi devono essere progettati in modo da impedire la fuoriuscita di metallo fuso,
materiale infiammato o simili.
Ambiente circostante
Contrariamente a quanto si possa immaginare, gli apparecchi di uso medico sono spesso utilizzati in ambiente circostante
ostile. Basti pensare a come un apparecchio venga trasportato e usato bruscamente in caso di emergenza clinica; infatti la
preoccupazione primaria degli operatori in questo caso è la salvezza del paziente e non certo l'evitare urti o vibrazioni
all'apparecchio.
Si consideri inoltre l'evenienza, possibile quasi ovunque in ambito medico, che lo sgocciolamento casuale di liquidi
conducenti interessi l'apparecchio o la necessità di contenere il peso e le dimensioni che portano a ridurre al minimo i
margini di progettazioni.
Infine va segnalato che la sicurezza di un apparecchio non dipende solo dalle sue intrinseche caratteristiche tecniche ma
anche dall'impianto di alimentazione a cui è connesso, dalle modalità d'uso, dal livello di informazione e formazione del
personale utilizzato, dalla manutenzione e dalle verifiche periodiche dei livelli di sicurezza.
Da tutto ci· appare chiaramente che la "sicurezza" non è una semplice regola tecnica ma una complessa problematica che
coinvolge varie discipline e la sua gestione, allorché imposta dalle vigenti disposizioni legislative, richiede il puntuale studio
del “processo” in cui apparecchi, impianti ed operatori interagiscono.
2. EFFETTI BIOLOGICI DELL'ENERGIA ELETTRICA
2.1 CENNI DI FISIOPATOLOGIA
L'organismo vivente è costituito da cellule in stretto contatto fra loro che si trovano immerse in un liquido interstiziale.
La membrana cellulare, dello spessore di circa 70 . 10-10 m, racchiude al suo interno il liquido intracellulare o citoplasma
come schematizzato in fig.2.1.
In tab.2.1 sono riportati i valori numerici dei vari parametri relativi alla cellula.
All'esterno della membrana si trova, in condizione di riposo, una concentrazione di ioni Na+ mentre all'interno una
concentrazione inferiore di ioni K+. Tra interno ed esterno della membrana, a causa della diversa concentrazione ionica, si
stabilisce una differenza di potenziale (d.d.p.) chiamata potenziale di membrana.
Il sottile strato isolante della membrana interposto fra i due liquidi conducenti carichi elettricamente può essere assimilato ad
un parallelo fra un condensatore ed una resistenza.
dispense1.doc
5
Durante l'eccitazione la membrana diviene più permeabile agli ioni Na+ di 500 ÷ 1000 volte rispetto lo stato di riposo. Gli
ioni Na+ passando all'interno della membrana modificano il potenziale di membrana, dando luogo a caratteristici processi
elettrici reversibili che costituiscono il cosiddetto potenziale d'azione (fig.2.2). Esso è caratterizzato da due comportamenti: il
primo consiste in una rapida inversione della d.d.p. fra interno ed esterno della membrana, detta depolarizzazione e il
secondo consiste nel successivo ritorno alla condizione di riposo, detta ripolarizzazione.
Il fenomeno elettrico del potenziale di azione può estendersi in alcuni casi alle cellule adiacenti a quella in cui si è
manifestato in origine, propagandosi così attraverso i tessuti. Le forme e le modalità di insorgenza del potenziale di azione
sono proprie di ogni particolare cellula nervosa o muscolare, ed il corretto manifestarsi del fenomeno è legato alla
funzionalità della cellula. Per esempio le cellule nervose sono organizzate per trasmettere l'eccitazione alle altre cellule
nervose vicine fino alle cellule muscolari che hanno principalmente la funzione di variare la loro lunghezza e generare forze
di tipo meccanico, in seguito alla stimolazione.
Il potenziale di membrana a riposo, detto semplicemente potenziale di riposo, vale orientativamente -70 ÷100 mV con il polo
negativo verso l'interno della cellula ma per effetto del flusso incrociato degli ioni K+ e Na+ attraverso la membrana durante
l'eccitazione, tale d.d.p. cambia di segno raggiungendo, durante l'azione, valori tipici di 20 ÷ 30 mV.
Fig. 2.1 Schematizzazione di una cellula
PARAMETRI DELLA CELLULA
Resistività
Liquido interstiziale
Liquido intracellulare
Membrana
Potenziale di membrana
Potenziale di riposo
Potenziale di azione
Tempi
Depolarizzazione
Ripolarizzazione
Impedenza di membrana
Capacità
Resistenza
Velocità trasmissione stimoliTempi
Massima
VALORI ORIENTATIVI
60 Ω cm
200 Ω cm
109 Ω cm
- 70 mV
+ 30 mV
Tab.2.1 Alcuni parametri fisici della
cellula
circa 1 ms
100÷300 ms
1÷10 μF/cm2
circa 750 Ω/ cm2
120 m/s
La depolarizzazione avviene rapidamente e ha durata di circa 1 ms, mentre la successiva ripolarizzazione è molto più lenta
e ha durata orientativa di 200 ÷ 300 ms.
La risposta meccanica di una cellula muscolare eccitata è dell'ordine del grammo ed ha l'andamento tipico riportato in
fig.2.2.
dispense1.doc
6
E' da sottolineare che nell'intervallo di tempo immediatamente successivo all'eccitazione, la cellula diviene ineccitabile.
A tale periodo di tempo si dà il nome di periodo di refrattarietà assoluta. Analogamente si definisce periodo di refrattarietà
relativa l'intervallo di tempo che segue il periodo di refrattarietà assoluta, in cui uno stimolo può nuovamente produrre
l'eccitazione della cellula, purché di intensità maggiore.
Solo dopo un certo tempo la cellula ritorna allo stato di riposo primitivo presentando la iniziale eccitabilità.
Poiché uno stimolo risulti efficace, è necessario che raggiunga un valore di soglia, cioè deve apportare al substrato
biologico una sufficiente quantità di energia al di sotto della quale l'eccitamento della cellula non si verifica.
In fig.2.3 è riportata la curva di eccitazione di una cellula, ovvero la legge che lega l'intensità i dello stimolo con la durata t.
Una relazione valida in generale, ricavata sperimentalmente, è quella che lega la carica elettrica Q dello stimolo impartito,
necessaria a produrre eccitazione del substrato, con la durata t dello stimolo stesso. Essa vale:
Q = α + βt
ricordando che Q = it si ottiene
i = α/t + β
Alla grandezza β, che ha le dimensioni fisiche di una corrente, si dà il nome di reobase ed è definita come l'intensità di
corrente di stimolo al di sotto della quale non si ottiene eccitazione nemmeno per durata dello stimolo infinita.
Alla grandezza τ = α/β che ha le dimensioni fisiche di un tempo, è stato dato il nome di cronassia e rappresenta la durata
dell'impulso di ampiezza doppia della reobase che genera eccitazione. La cronassia premette di definire quantitativamente il
grado di eccitabilità di un tessuto vivente. In tab.2.2 si riportano i valori di cronassia dei più importanti tipi di tessuto umano
interessati alla protezionistica.
Quando la fibra è stimolata con impulsi ripetitivi in modo tale che essi cadano appena oltre il periodo di refrattarietà,
l'eccitazione della fibra si inserisce su uno stato non ancora completamente a riposo e la risposta meccanica segue un
andamento del tipo riportato in fig.2.4, detta tetanizzazione della fibra.
Fig.2.2
(a) Potenziale di azione registrato intracellularmente
(b) Meccanogramma isometrico di un piccolo
segmento di muscolo papillare isolato
(Da: Brooks at al “Excitability of the heart” New York – con
modifiche)
Fig. 2.3 Curva di eccitazione di una cellula
dispense1.doc
7
TESSUTO
MUSCOLI SCHELETRICI
Flessori braccio
Estensori braccio
Facciali
VENTRICOLI
NERVI
Fibre A
Vestibolare
RECETTORI
Lingua
Coni retina
Bastoncelli retina
CRONASSIA (ms)
0,08 – 0,16
0,16 – 0,32
0,24 – 0,72
2,00
Tab.2.2 Valori di cronassia per alcuni
tessuti umani
0,2
14-22
1,4 – 1,8
1,2 – 1,8
2,1 – 3, 0
Fig.2.4 Risposta
meccanica
tetanizzazione della fibra:
A. Contrazioni semplici
B. Tetano incompleto
C. Tetano completo
detta
In tale situazione, dopo alcuni stimoli, la risposta meccanica della fibra raggiunge un valore di saturazione che si mantiene
pressoché costante finché vi sono gli stimoli e che ritorna gradualmente al livello di riposo quando gli stimoli si
interrompono.
L'insieme di più cellule organizzante danno luogo a tessuti specializzati per funzioni.
Ai fini protezionistici sono di rilevante importanza le fibre nervose e i muscoli con particolare riferimento al cuore.
Le cellule nervose, dette neuroni, hanno un lungo prolungamento, assone, attraverso il quale si trasmette il potenziale
d'azione che interessa soprattutto i neuroni adiacenti.
L'eccitazione quindi migra attraverso le fibre contigue e si realizza così la trasmissione dei segnali nervosi.
La velocità con cui si sposta l'eccitazione è molto variabile, dipende dalla tipologia delle fibre, e può· anche raggiungere il
valore di 120 m/s. Le fibre nervose terminano innervandosi nelle fibre muscolari attraverso una giunzione chiamata placca
motrice, ed è qui che lo stimolo nervoso fa contrarre la fibra muscolare.
Ai fini della sicurezza elettrica assume particolare importanza il cuore, che è formato da un elevatissimo numero di fibre
muscolari disposte in fasci che vanno dagli atri ai ventricoli.
I potenziali di riposo e di azione della fibrocellula cardiaca hanno un'origine del tutto analoga a quella dei potenziali della
fibra nervosa e di quella muscolare.
Una particolare proprietà del muscolo cardiaco è quella della autoritmicità secondo la quale ogni singola fibrocellula si
eccita spontaneamente e sempre con la stessa frequenza. Nel cuore intatto, tuttavia, vi sono due regioni di tessuto nelle
quali questa proprietà si manifesta in modo particolare: il nodo seno atriale, indicato con NSA, ed il nodo atrio ventricolare,
indicato con NAV.
La frequenza degli impulsi originati nel NSA è più alta di quella del NAV e di tutte le restanti fibrocellule del miocardio. Di
conseguenza l'autoeccitazione dell'NSA sincronizza le cellule e l'eccitazione si propaga a tutto il cuore prima che insorga la
depolarizzazione spontanea. Per questo motivo il NSA viene definito avviatore primario o, con termine inglese ormai entrato
nell'uso corrente, pacemaker primario.
dispense1.doc
8
La depolarizzazione iniziata nel NSA, fig.2.5, si propaga, quindi, attraverso gli atri poichéle singole cellule miocardiche,
sebbene separate le une dalle altre, si comportano elettricamente come un tutto unico. Dopo aver invaso il tessuto atriale,
l'eccitazione raggiunge il NAV; dopo di esso, segue un cammino preferenziale costituito dal tessuto di conduzione del fascio
di HIS e dalle fibre di Purkinje, per giungere quindi al miocardio ventricolare.
L'attivazione del ventricolo destro inizia con un leggero ritardo rispetto a quello sinistro. Le varie fasi della propagazione
della depolarizzazione nei ventricoli sono state schematizzate nella fig.2.5 con i numeri in ordine crescente.
L'attività elettrica del cuore genera nello spazio circostante un campo elettrico, facilmente misurabile in quanto il cuore può
essere ipotizzato come immerso in un mezzo omogeneo moderatamente conducente (in prima ipotesi isotonico con la
soluzione fisiologica).
Fig.2.5
5
I momenti successivi della propagazione della
eccitazione nel miocardiop ventricolare. La
successione temporale è indicata con i numeri
progressivi
5
4
3
4
2
Essendo l'attività del cuore assimilabile a più cariche elettriche variabili sia nel tempo sia nell'intensità , sia nel segno che
nello spazio; anche il campo elettrico generato sarà variabile da punto a punto dello spazio e soprattutto variabile con il
tempo.
Sono stati individuati punti precisi dell’organismo umano dal quale registrare il tracciato di queste differenze di potenziale,
chiamato elettrocardiogramma e mostrato in fig. 2.6. L’ECG è particolarmente significativo in quanto ad esso è possibile
correlare l'evoluzione dell'eccitazione dei vari distretti del miocardio.
L'onda P rappresenta la contrazione dell'atrio; il tratto PQ a d.d.p. pressoché zero, rappresenta il transito dello stimolo
attraverso il fascio di His; l'onda R rappresenta la contrazione del ventricolo che essendo costituito da un numero maggiore
di cellule genera un onda molto più alta della P.
Il processo di ripolarizzazione delle cellule èrappresentato dall'onda T.
A livello funzionale, come noto, il cuore svolge la funzione di garantire la circolazione del sangue in tutti i distretti
dell'organismo. La circolazione èottenuta creando un gradiente di pressione positivo nelle arterie.
Il cuore umano, come schematizzato in fig.2.7, è costituito da due atri e da due ventricoli: nell'atrio di destra giungono le due
vene cave mentre a quello di sinistra le vene polmonari e per effetto della contrazione dell'atrio il sangue è sospinto nei
ventricoli. Quando il ventricolo si contrae, si chiudono le valvole e il sangue è spinto nel circolo polmonare dal ventricolo
destro e nell'organismo dal ventricolo sinistro.
In fig.2.8 è riportato l'andamento delle pressioni nei diversi distretti cardiaci.
Una importante anomalia del funzionamento del cuore, provocata dalla energia elettrica, èla fibrillazione ventricolare, ovvero
una contrazione disordinata di tutte le fibre del miocardio che riducono la portata ematica a livelli così bassi da provocare la
morte dell'individuo in pochi minuti.
In fig.2.9 è riportato molto schematicamente l'andamento dell'ECG e della pressione durante la fibrillazione ventricolare.
dispense1.doc
9
Fig. 2.6 Tracciato elettrocardiografico normale
Fig. 2.7 Schema generale della circolazione:
AD = Atrio destro
AS = Atrio sinistro
VD = Ventricolo destro
VS = Ventroicolo sinistro
dispense1.doc
10
Fig.2.8 Andamento della pressione ematica nelle
diverse cavità cardiache
Tempo 1/10 sec.
Fig. 2.9 Innesco della fibrillazione ventricolare nel periodo vulnerabile.
Effetti sull’elettrocardiogramma (ECG) e sulla pressione ematica
dispense1.doc
11
2.2 EFFETTI DELL'ENERGIA ELETTRICA SULL'ORGANISMO UMANO
Le conoscenze disponibili sui fenomeni patologici prodotti dall'energia elettrica nell'organismo vivente, non sono complete e
sufficienti a spiegare tutti i fenomeni osservati.
Tuttavia essi consentono di rendersi conto, almeno qualitativamente, delle principali manifestazioni morbose provocate
dall'energia elettrica.
Tali fenomeni morbosi si verificano quando l'organismo vivente è percorso da corrente elettrica, tuttavia la legge di Ohm non
è rispettata poiché l'organismo non può essere assimilato ad un conduttore metallico.
L'organismo vivente invece è costituito, come visto, da liquidi interstiziali e da cellule in cui si verificano complessi fenomeni
di polarizzazione a livello della membrana cellulare. Le membrane delle cellule contengono lipidi a bassa resistività ed
elettroliti a più alta resistività fungendo da dielettrici a basso isolamento.
L'impedenza offerta dal tessuto vivente non è neppure costante e varia sensibilmente nei primi millisecondi in cui è
attraversato dalla corrente. All'aumentare della corrente l'impedenza diminuisce. Tale fenomeno non è ancora interamente
spiegato.
Secondo alcuni l'impedenza dipenderebbe essenzialmente dalla polarizzazione delle cellule. Infatti durante il passaggio di
corrente si ha un trasporto di ioni positivi e negativi verso i due opposti elettrodi, ma tali ioni si arrestano in parte sulle due
superfici della membrana cellulare ad essi impermeabile generando così delle d.d.p. di segno opposto alla corrente che
attraversa il tessuto. All'aumentare della corrente aumenterebbe la permeabilità della membrana riducendo l'impedenza.
Altri autori interpretano invece questo fenomeno con la rigenerazione di una capacità fra la membrana cellulare o la
combinazione di entrambi i meccanismi visti.
Tuttavia nel caso dell'uomo, l'impedenza che si osserva fra i due punti della superficie cutanea è ampiamente dipendente
dal sottile strato di cute sottostante il punto di contatto, in quanto la resistività della cute, oltre ad essere molto variabile, è
anche maggiore di qualche ordine di grandezza della resistività dei tessuti viventi sottostanti.
Poiché la maggior parte degli incidenti provocati dall'energia elettrica avviene in seguito a contatto elettrico con il palmo
delle mani e la messa a terra attraverso la pianta dei piedi, si comprende come le donne ed i bambini a epidermide sottile e
poco corneificata sono più esposti degli uomini a epidermide spessa se non addirittura callosa.
Per tensioni superiori a qualche centinaio di Volt lo strato corneo dell'epidermide può essere perforato dalla scarica elettrica
eliminando quindi il componente a più alta resistenza che è il fattore di limitazione della corrente di scarica.
Per tensioni ancora superiori la carbonizzazione delle parti superficiali interessate al passaggio della corrente eleva
nuovamente la resistenza globale, riducendo conseguentemente la corrente di scarica.
La conducibilità elettrica dei tessuti interni dell'organismo vivente dipende dalla concentrazione degli elettroliti ed è perciò
particolarmente elevata nei muscoli e nel sangue mentre molto inferiore nelle ossa e nel tessuto adiposo.
Poiché i muscoli rappresentano il conduttore di sezione maggiore negli arti, è prevalentemente attraverso questi che scorre
la corrente di scarica.
In tab.2.3 sono riportate le resistività dei principali tessuti dell'organismo umano.
I processi morbosi provocati dall'energia elettrica sull'organismo umano possono essere raggruppati in tre categorie e
precisamente:
- Fenomeni elettrochimici
- Fenomeni termici
- Fenomeni fisiologici
L'entità di tali effetti e la loro contemporanea comparsa, dipendono dalle caratteristiche della corrente e precisamente dal:
• tipo della corrente
• frequenza
• intensità di corrente
• tensione
• durata del passaggio
• percorso attraverso l'organismo
Tipo di corrente
La corrente continua provoca per ionoforesi una modificazione nella distribuzione degli elettroliti nei tessuti, la
polarizzazione della membrana cellulare e la modificazione parzialmente reversibile del protoplasma cellulare.
Correnti più intense possono provocare la fibrillazione della muscolatura dei ventricoli cardiaci e l'arresto cardiaco
temporaneo o definitivo.
I fenomeni di ionoforesi sopra riferiti si verificano in quanto per effetto della tensione applicata, gli ioni Na+ e Cl-dei liquidi
biologici reagiscono con l'acqua dando luogo a idrossido di sodio verso il polo negativo ed acido cloridrico verso il polo
positivo secondo le reazioni:
dispense1.doc
12
2 Na+ + H2O = 2 NaOH
4 Cl- + H2O = 4 HCl + O2
Si spiega così la formazione di escara molle da alcali nei tessuti a contatto con il polo negativo ed escara dura da acidi
verso il polo positivo.
Frequenza
La corrente alternata, più importante dal punto di vista infortunistico perché più diffusamente impiegata, ha effetti molto
variabili con la frequenza.
il continuo alternarsi della polarità della corrente alternata, provoca il corrispondente alternarsi della polarizzazione e
depolarizzazione a livello della membrana cellulare.
Tali periodiche modificazioni eccitano maggiormente le fibre muscolari dando luogo a contrazioni che possono sfociare nella
tetanizzazione dei muscoli striati scheletrici e molto più gravemente nella fibrillazione della muscolatura dei ventricoli
cardiaci.
La condizione di massimo pericolo per l'uomo si manifesta a frequenza compresa fra 50 e 100 Hz a cui corrisponde la
massima sensibilità del miocardio a entrare in fibrillazione ventricolare.
Per frequenze superiori a 100 kHz gli effetti ionoforetici si annullano, poiché l'alternarsi delle polarità è troppo rapida per
l'inerzia degli ioni e mancano conseguentemente gli effetti fisiologici di stimolo sulle fibre muscolari per l'assenza di processi
di polarizzazione della membrana lasciando naturalmente inalterato l'effetto termico (1).
Intensità di corrente
Come sarà più dettagliatamente esposto oltre, la pericolosità dell'energia elettrica può essere espressa in funzione della
intensità di corrente che attraversa l'organismo vivente.
Alla soglia di percezione la corrente provoca sensazioni di "formicolio". Per valori più alti, si manifesta lo spasmo della
muscolatura scheletrica compresi i muscoli respiratori, da cui il grave pericolo di arresto del respiro che per· si può risolvere
spontaneamente all'interruzione della scarica.
MATERIALE
SANGUE
Siero o plasma
Globuli rossi
PROTOPLASMI CELLULARI
MUSCOLI STRIATI
CUORE
FEGATO
RENE
MILZA
POLMONE
CERVELLO
TESSUTO OSSEO
LIQUIDO CEFALORACHIDIANO
SALIVA
TRASUDATI
ESSUDATI
SUCCO GASTRICO
URINE
SOLUZIONE FISIOLOGICA (0,9% Na Cl) a
20C
PASTE ELETTROCONDUTTRICI
Electrode cream EC-2 (20C)
Gel JEJ (20C)
Electrode cream NASA (20C)
Cardette electrode jelly (20C)
(1)
RESISTIVITA’
Ω cm
155-165
82-90
250-260
300
140-200
150-210
300
250
280
500
800
900-1800
70
140-250
75
84
60
35
50
75
Tab.2.3 Resistività dei principali tessuti, liquidi organici
umani e materiali di uso clinico
La temperatura a cui i dati si riferiscono è di 37C
se non diversamente indicato
30
70
82
313
Un diffuso apparecchio che sfrutta questo fenomeno è l'"elettrobisturi" che somministrando una corrente alternata ad alta frequenza
(500 kHz ÷ 1 MHz) provoca nel punto in cui è concentrato il passaggio di corrente un innalzamento della temperatura con la
conseguente coagulazione in massa delle proteine cellulari. Un altro apparecchio molto diffuso è la "Marconi terapia" che genera
corrente a 50 MHz ÷ 100 MHz. Tali correnti provocano fenomeni di risonanza sulle molecole dipolari contenute nelle cellule
generando calore nei tessuti più profondi. Entrambi questi apparecchi non provocano fibrillazione ventricolare
dispense1.doc
13
Ai fini protezionistici assume una notevole importanza il particolare valore di corrente, detta corrente di rilascio, per il quale
l'individuo mantiene ancora il controllo del proprio sistema muscolare e può volontariamente sconnettersi con il contatto che
ha provocato la scarica elettrica prevenendo la tetanizzazione del muscolo.
Per valori maggiori di corrente si può manifestare l'arresto del cuore in diastole e se tale arresto si protrae per oltre 30 s
circa sopraggiunge generalmente la fibrillazione ventricolare che notoriamente è una patologia difficilmente reversibile
spontaneamente anche quando cessa la causa che l'ha provocata.
Perché si abbia defibrillazione è necessario che la scarica elettrica attraversi il cuore nel periodo vulnerabile alla fine della
sistole.
Per questa ragione le scariche elettriche, anche se molto intense ma di brevissima durata che attraversano il cuore in un
periodo diverso da quello vulnerabile, lo possono risparmiare dalla defibrillazione ventricolare.
Tensione
In linea generale la pericolosità dell'energia elettrica dipende essenzialmente dalla corrente che fluisce nell'organismo
vivente per cui la corrispondente tensione dipende dall'impedenza offerta dall'organismo medesimo.
L'impedenza globale di un contatto è assimilabile a tre impedenze in serie di cui: una dei tessuti interni che è generalmente
piccola (dell'ordine di 100 Ω) e due relative alla cute e proporzionali alla superficie di contatto. Queste ultime impedenze
assumono valori molto diversi o molto bassi (dell'ordine di 100 Ω/cm) per cuti preparate allo scopo di ottenere un buon
contatto elettrico come ad esempio nella registrazione di segnali bioelettrici, o valori molto alti (dell'ordine di 100 kΩ/cm) per
cuti callose e secche.
Il valore di tensione ritenuto sicuro si calcola nelle condizioni ragionevolmente più svantaggiose quindi per i valori minimi di
impedenza di contatto.
Come sarà considerato più dettagliatamente nel capitolo delle Normative, le tensioni di contatto applicate per un tempo
illimitato ritenute sicure dipendono dal collegamento dell'individuo al generatore di tensione. I valori di tensione ritenuti sicuri
vanno da 10 mV, nel collegamento diretto dal cuore a 50 V nel collegamento della superficie esterna dell'organismo umano.
Durata del contatto
L'eccitazione di una fibra segue la legge del "tutto o niente" nel senso che in caso di eccitazione fisiologica presenta sempre
la stessa risposta meccanica indipendentemente dall'intensità dello stimolo.
Se si considera invece non già una singola fibra ma un complesso organizzato di fibre che danno luogo ad un'unica unità
funzionale (come ad esempio ad un muscolo o al cuore), la legge del tutto o niente non vale più e si riscontra una risposta
complessiva Ri proporzionale allo stimolo S secondo la relazione approssimata:
Ri = K log S
Tale relazione vale solo entro particolari valori dello stimolo ed inoltre K non sempre è costante.
Nei casi in cui l'effetto eccitatorio complessivo è dovuto alla partecipazione di una popolazione di elementi a soglia di
eccitabilità diversa, come nel caso di un contatto della superficie esterna dell'organismo umano, la risposta allo stimolo è
dovuta alla interferenza funzionale dei molti e diversi elementi che costituiscono la popolazione da cui risulta un
comportamento troppo complesso da essere schematizzato con semplici reazioni analitiche.
I fenomeni appaiono più proficuamente descritti, attraverso i sistemi generali che si manifestano nell'organismo attraversato
dalla corrente elettrica, e tale criterio sarà qui seguito.
Per contatti di durata dell'ordine del secondo i fenomeni dominanti sono quelli di eccitazione muscolare (tetano, blocco della
respirazione, fibrillazione ventricolare), mentre l'effetto termico che si manifesta sotto forma di ustioni e carbonizzazioni
diventa sempre più grave con il passare del tempo.
Percorso della corrente
L'elemento più vulnerabile dell'organismo umano sia per soglia di stimolazione sia per funzionalità , è il cuore e pertanto i
percorsi della corrente che lo attraversano sono da considerarsi i più pericolosi.
Purtroppo la maggior parte dei contatti che si verificano in pratica, si riferiscono a percorsi di corrente fra i più pericolosi.
Infatti nei più frequenti collegamenti, come ad esempio mano-piede o mano-mano, il cuore è attraversato dalla corrente in
modo privilegiato.
Come vedremo oltre, il rapporto fra le correnti relative al percorso più pericoloso e quello meno pericoloso è di circa 2, per
cui si può ritenere che tutti i collegamenti sono intrinsecamente pericolosi e la loro relativa minor pericolosità non può
essere utilizzata ai fini protezionistici.
dispense1.doc
14
2.3 MACROSHOCK E MICROSHOCK
Gli effetti più dannosi della corrente elettrica che si manifestano nell'organismo umano sono dovuti a quella parte di corrente
che attraversa il cuore, o meglio alle densità di corrente che interessa le fibre eccitabili del miocardio.
Se il contatto con la tensione avviene attraverso la cute, soltanto una minima parte della corrente che entra nell'organismo
attraverserà il cuore e non vi saranno, nel miocardio, particolari zone ad alta densità di corrente. Come mostrato in fig. 2.10
(a), le linee di corrente entro l'organismo si diffonderanno ovunque (secondo i percorsi di minima resistenza) per poi
concentrarsi verso il punto di uscita. Questo caso viene chiamato macroshock.
In modo diverso si presenta il caso in cui il cuore del soggetto ha un collegamento elettrico verso l'esterno. Tale
collegamento può essere realizzato o da un conduttore elettrico come ad esempio un elettrodo di stimolazione endocardica,
oppure da un catetere endocardico pieno di soluzione fisiologica. In quest'ultimo caso la resistenza elettrica del catetere
dipende dalla sezione e dalla lunghezza, comunque è dell'ordine di 200 kΩ.
Nel caso di fig.2.10 (b) la totalità della corrente che fluisce nell'organismo umano non solo attraversa il cuore, ma in
prossimità dell'elettrodo o del lume del catetere si manifesterà una densità di corrente molto intensa. Si instaura così una
situazione di pericolo enormemente più grave rispetto al caso precedente, a parità di corrente affluita nell'organismo.
Questa circostanza viene chiamata microshock.
Fig. 2.10
Schematizzazione del macroshock e microshock
(a) Macroshock. Solo una minima parte della corrente che fluisce nell’organismo umano
attraversa il cuore;
(b) Microshock. Tutta la corrente che fluisce nell’organismo umano attraversa il cuore e in
prossimità dell’elettrodo o del lume del catetere si manifesta una intensa densità di corrente
2.4 CORRENTI PERICOLOSE
Le conoscenze oggi disponibili relative agli effetti biologici della corrente elettrica si fondano su alcuni lavori sperimentali
eseguiti sull'uomo adottando la configurazione del macroshock. Essi riguardano essenzialmente la determinazione della
soglia di percezione alla corrente elettrica e della soglia di rilascio volontario della presa, che notoriamente non comportano
particolari pericoli per la vita. Invece per determinare la soglia di corrente che provoca la fibrillazione ventricolare sono state
eseguite sperimentazioni sull'animale ed estrapolate all'uomo.
Gli studi relativi alla determinazione della soglia di fibrillazione ventricolare, nel caso di microshock, sono meno numerosi e i
risultati non unanimemente condivisi. Tutti i ricercatori, per·, concordano sull'ordine di grandezza della corrente che genera
la fibrillazione. Poiché la corrente continua procura, rispetto alla corrente alternata, un aggiuntivo fenomeno di elettrolisi del
sangue difficilmente controllabile, la quasi totalità dei dati sperimentali disponibili è stata ottenuta utilizzando correnti
elettriche alla frequenza di rete (60 Hz dai ricercatori americani e 50 Hz dai ricercatori europei) che, come si è già detto, è
la più pericolosa.
dispense1.doc
15
Soglia di percezione
La percezione che si manifesta nell'uomo al passaggio di una corrente debole à , in generale, una sensazione di calore per
la corrente continua, ed una sorta di prurito per la corrente alternata.
La più piccola corrente che provoca sensazioni percettibili si chiama soglia di percezione, e risulta essere molto variabile da
individuo ad individuo.
Riportando su un grafico il percentile (frequenza percentuale cumulata) relativa alla soglia di percezione, ottenuta facendo
scorrere la corrente alternata a frequenza di rete tra un piccolo filo di rame nudo tenuto in mano dal soggetto e le sue
estremità inferiori, in un campione di 187 uomini adulti, si è ottenuto il grafico di fig.2.11 che rappresenta una distribuzione
gaussiana. Il valore medio della soglia, corrispondente cioè al 50% dei soggetti, è di circa 1 mA. Poichà , come si vedrà
più avanti, la donna adulta ha dimostrato una maggiore sensibilità agli effetti della corrente elettrica, è stato applicato
anche in questo caso lo stesso coefficiente determinato per la soglia di rilascio, ottenendo così la retta teorica (b) di fig.2.11.
In letteratura non esistono rilevazioni sperimentali effettuate su bambini, ma è verosimile che i valori di soglia siano ancora
inferiori a quelli delle donne adulte.
Fig. 2.11 Soglia di percezione Ip nel caso di macroshock.
Frequenza: 60 Hz
(a) Curva sperimentale ottenuta nell’uomo adulto
(b) Curva presunta valida per la donna adulta
(mA)
Fig. 2.12 Effetto della frequenza sulla soglia
media di percezione
dispense1.doc
16
Fig. 2.13 Soglia di rilascio volontario Ir.
Frequenza: 60 Hz
(c) Curva sperimentale ottenuta nell’uomo adulto
(d) Curva sperimentalepresunta valida per la
donna adulta
Fig. 2.14 Effetto della frequenza sulla soglia di
corrente media di rilascio volontario
L’effetto della frequenza sulla soglia di percezione è riportato in fig.2.12, nella quale è riscontrabile come a 5 kHz la soglia
di percezione sia circa 6 volte superiore a quella ottenuta a 60 Hz.
Per frequenze superiori a 0,1 MHz la sensazione di prurito si trasforma, via via, in sensazione di calore.
Soglia di rilascio volontario
Aumentando progressivamente la corrente oltre la soglia di percezione, la sensazione di prurito diventa sempre più intensa
fino a sfociare in contrazioni muscolari involontarie associate a dolore.
Viene definita soglia di rilascio volontario il più grande valore di corrente I r m per cui il soggetto è ancora in grado di lasciare
volontariamente il conduttore che tiene in mano. Questa soglia assume, in pratica, un particolare significato, poiché
determina il valore di corrente oltre il quale il soggetto rimane attaccato, come si suol dire usualmente, al conduttore sotto
tensione, ovvero è presente la tetanizzazione dei muscoli.
I valori della corrente di rilascio ottenuti analizzando 134 uomini adulti e 28 donne adulate sono riportati in fig.2.13
E' stato verificato che la posizione dell'elettrodo di ritorno, le condizioni di umidità della cute e le dimensioni dell'elettrodo
non hanno apprezzabile effetto sul valore individuale della corrente di rilascio.
dispense1.doc
17
Anche questi dati forniscono, con buona approssimazione, una distribuzione gaussiana delle correnti di rilascio Ir. Il valore
medio I r m vale circa 10 mA per la donna e 16 mA per l'uomo e dà luogo al rapporto 1,6 già applicato per la stima della
soglia di percezione della donna, riportata in fig.2.11 (b).
L'effetto della frequenza sulla corrente di rilascio media I r m è riportata in fig.2.14 l'andamento è simile a quello di fig.2.12
ma con incrementi più contenuti.
Soglia di fibrillazione nel macroshock
Allo scopo di valutare il pericolo rappresentato per l'uomo dalla corrente elettrica, occorre determinare il minimo valore di
corrente che provoca il fenomeno più gravemente lesivo, ben definibile clinicamente e oggettivabile. Tutti i ricercatori hanno
individuato nella fibrillazione ventricolare tale fenomeno.
Naturalmente la determinazione di questa soglia è effettuata sull'animale, ferma restando la difficoltà di estrapolare i dati
ottenuti per la specie umana.
Gli esperimenti sono stati eseguiti su specie animali di peso corporeo paragonabile a quello dell'uomo, come vitelli, pecore e
cani, facendo in modo che il percorso della corrente andasse dalla zampa posteriore a quella anteriore.
Così è stata simulata abbastanza bene la situazione di pericolo che si manifesta nell'uomo, quando la sua mano viene in
contatto con un conduttore sotto tensione e il circuito si richiude con l'altra mano o, molto più frequentemente, con le
estremità inferiori.
In fig.2.15 sono riportati i casi di fibrillazione ventricolare provocati dalla corrente di soglia If, ottenuti su cani con una
corrente alternata a 60 Hz applicata per un tempo illimitato.
Poiché i punti non giacciono su una retta, la distribuzione non è gaussiana, sebbene la si possa ritenere tale per valori di
corrente inferiore a 50 mA.
In fig.2.16 e 2.17 sono riportati gli andamenti della corrente che provoca la fibrillazione ventricolare nei cani di diverso peso
corporeo, al variare della frequenza e della durata del contatto, in diverse posizioni degli elettrodi.
Come si può notare il valore di corrente che provoca la fibrillazione è abbastanza indipendente dalla posizione degli
elettrodi, all'aumentare della frequenza la soglia aumenta mentre diminuisce all'aumentare della durata del contatto come
del resto già riscontrato.
Ai fini protezionistici, la fibrillazione ventricolare è un evento così tragico che non ha senso parlare di soglia media, come
considerato precedentemente, ovvero del valore di corrente che provoca l'evento nel 50% dei casi. In questo caso si
considera invece il valore di corrente minima che provoca il fenomeno, ovvero il valore limite sotto il quale il fenomeno non
si verifica mai.
Nell'ipotesi che il fenomeno presenti una distribuzione di tipo gaussiano, il valore minimo tende a zero perdendo così ogni
significato pratico.
Si assume allora come valore minimo ai fini della protezionistica, il valore di corrente che ha la probabilità pari a 0,2% di
provocare la fibrillazione ventricolare.
A questa specifica corrente si dà il nome di corrente minima di fibrillazione If min.
Per studiare l'andamento della If in funzione del peso corporeo è stato studiato il diagramma di fig.2.16 nel quale i valori
sperimentali di If ottenuti su animali di diversi pesi corporei al variare della durata del contatto presentano tutti lo stesso
andamento. Come prevedibile la corrente di soglia If aumenta con il peso corporeo dell'animale e con la durata del contatto
in modo abbastanza sovrapponibile in tutti i casi osservati. Conseguentemente è stata ricercata una espressione analitica
che interpola tutti i dati sperimentali, che risulta essere:
K
If = ---√t
(1)
in cui K dipende essenzialmente dal peso corporeo.
Fig.2.15 Soglia di fibrillazione ottenuta nel cane
Corrente alternata di 60 Hz applicata per un tempo illimitato
dispense1.doc
18
Fig.2.16 Andamento della corrente di soglia che
provoca la fibrillazione ventricolare indotta
su animali di peso diverso in funzione della
durata del contatto. Gli elettrodi sono posti
sulla zampa anteriore e sulla zampa
posteriore
Per poter estrapolare il valore di If min valido per l'uomo, è stato determinato tale valore per altre specie animali,
suddividendole per classi omogenee di peso corporeo.
Per poter disporre di un numero di casi statisticamente significativo, i dati provenienti dalle sperimentazioni specifiche sono
stati integrati con i dati desunti dalla letteratura scientifica resi omogenei mediante estrapolazioni ritenute lecite.
Tutti i dati disponibili sono stati rapportati ad uno stimolo di corrente alternata di frequenza industriale della durata di 3 s.
L'insieme di questi casi, resi omogenei, è stato riportato sul diagramma di fig.2.18 e sono state tracciate due rette che
delimitano una zona all'interno della quale cadono la quasi totalità dei casi osservati.
E' stata così verificata sperimentalmente in modo abbastanza accettabile che la corrente minima di fibrillazione If min dipende
essenzialmente dal peso corporeo dell'animale e pertanto sembra lecito estrapolare la sua validità anche per l'uomo.
La retta inferiore di fig.2.18, che determina i casi di maggior sensibilità della corrente, è stata considerata essere la
relazione esistente fra corrente minima che provoca la fibrillazione ventricolare e il peso corporeo.
Ipotizzando che il peso corporeo di un ipotetico uomo standard sia di 50 kg, dal diagramma di fig.2.18 si ricava che Ifmin ÷
60 mA da cui K ÷ 100. La relazione (1) per l'uomo standard vale perciò·
100
If min = ----√t
(2)
in cui la If min è espressa in milliampere e il tempo in secondi.
L'espressione (2), determinata con le approssimazioni ed estrapolazioni viste, vale per tempi di contatto dell'ordine di alcuni
secondi.
Infatti per t tendente all'infinito, If min tenderebbe a zero perdendo ogni pratica utilità ; è per questo che convenzionalmente si
è assunto come valore ragionevolmente sicuro per l'uomo 10mA; pertanto l'espressione della corrente minima di fibrillazione
nell’uomo diventa:
dispense1.doc
19
100
If min = ----- + 10
√t
(3)
assumendo così come valore limite di If min per t
∞
appunto il valore di 10 mA.
Fig.2.17 Andamento del valore della
corrente
che
provoca
fibrillazione ventricolare sul
cane, in funzione della
frequenza, usando diverse
posizioni degli elettrodi
Fig.2.18 Corrente minima di fibrillazione
in condizione di macroshock in
funzione del peso corporeo.
Corrente alternata a frequenza
industriale; durata di 3 s
dispense1.doc
20
E' doveroso notare come la curva della corrente minima di fibrillazione (3) ricordi, come andamento, la curva di eccitazione
di una cellula di fig.2.3.
La dipendenza della corrente minima di fibrillazione ventricolare con la frequenza è stata indagata con minor
approfondimento che nei casi precedenti. In pratica l'unico dato riportato in letteratura è quello di Geddes ed altri del 1972
che affermano che a 3 kHz la corrente minima di fibrillazione ventricolare nell'animale si innalza di 22-28 volte quella
corrispondente relativa a 60 Hz.
Soglia di fibrillazione nel microshock
La corrente minima che genera fibrillazione ventricolare in microshock è stata studiata in pochi casi.
I dati disponibili al riguardo, sono stati ottenuti utilizzando un catetere endocardico riempito di soluzione fisiologica, tenuto in
posizione da una leggera pressione negativa, in modo da essere certi che il lume del catetere rimanesse a contatto con il
miocardio.
In fig.2.19 è riportato l'andamento della corrente che induce la fibrillazione ventricolare nel cane, in cui attraverso un
catetere endocardico viene somministrata una corrente alternata per 5 s. Il numero riportato accanto alle spezzate si
riferisce alla cavia. Un'altra interessante sperimentazione, sempre effettuata nel cane, è riportata in fig.2.20 che riporta il
comportamento del cuore di 18 cani attraversato da una corrente alternata da 50 Hz per 5 s.
All'aumentare della corrente si instaurano alterazioni funzionali sul miocardio via via sempre più importanti fino alla
fibrillazione ventricolare che comporta la morte dell'animale.
Si noti l'estrema variabilità del comportamento del cuore alle medesime correnti, tuttavia questi dati sperimentali appaiono
sostanzialmente concordi con quelli riportati in fig.2.19.
In ogni caso mediando la quasi totalità dei valori sperimentali riportati in letteratura si ha che la minima corrente che
provoca la fibrillazione ventricolare, determinata in un campo di frequenze da 30 a 100 Hz, varia da 35 a 400 μA per 5 s di
shock, mentre per frequenze da 150 a 350 Hz sale a circa 2 mA.
Sui valori estrapolati per l'uomo non vi è tuttavia unanimità di consensi; alcuni Autori ritengono che 20 μA a 60 Hz applicati
per un tempo illimitato, siano già sufficienti a provocare la fibrillazione ventricolare.
A livello internazionale è stata proposta una relazione che lega la probabilità di fibrillazione ventricolare con l'intensità di
corrente. Tale relazione, mostrata in fig.2.21 è recepita dalle norme armonizzate europee e quindi dall'Italia nell'ambito della
CEI 62-5.
Tale curva è stata ottenuta elaborando le ricerche di Starmer e Watson che forniscono dati sulla fibrillazione ventricolare
provocata da correnti di frequenza di 50 e 60 Hz applicate direttamente al cuore dell'uomo in particolari condizioni cliniche
che consentivano eticamente una tale sperimentazione.
La probabilità di fibrillazione è stata ottenuta tenendo conto del diametro degli elettrodi e dell'intensità di corrente. Per
elettrodi di 1,25 e 2 mm di diametro e per correnti inferiori a 0,3 mA, la distribuzione appare normale. Di conseguenza, i dati
sperimentali sono stati estrapolati per includere i valori comunemente usati per valutare il rischio del paziente.
Da questa estrapolazione si nota che:
a) Ogni valore di corrente, ancorché piccolo, ha una certa probabilità di causare una fibrillazione ventricolare.
b) I valori correntemente ritenuti sicuri (10μA) hanno tutti piccole probabilità , approssimativamente dell'ordine di 0,2%.
Tuttavia la quasi totalità degli Autori concordano nel ritenere che la corrente a frequenza industriale applicata per un tempo
indefinito, di intensità inferiore a 5÷10 μA, non dovrebbe mai provocare la fibrillazione ventricolare nell'uomo salvo in
condizioni così sfavorevoli e con probabilità così bassa da poter essere trascurata, come suggerisce la normativa europea
EN60601.1 recepita dalla norma CEI 62-5.
Fig.2.19 Andamento della corrente che provoca
fibrillazione ventricolare nel cane in funzione
della frequenza. Corrente applicata per 5
secondi
attraverso
un
catetere
endocardiaco.
Il numero accanto alle spezzate indica la
cavia. La crocetta si riferisce ai dati del
ventricolo destro. Il puntino a dati del
ventricolo sinistro. (da Geddes con
modifiche)
dispense1.doc
21
Fig. 2.20
Risultati di una sperimentazione sull’animale
nella quale veniva applicata direttamente sul
miocardio una corrente a 50 Hz per 5 s
Valore minimo di corrente che provoca fibrillazione
ventricolare
Riduzione della portata cardiaca
Valore minimo di corrente che provoca riduzione della
portata cardiaca
Disturbi del ritmo
Valore minimo di corrente che provoca disturbi nel ritmo
Fig. 2.21
dispense1.doc
Probabilità di fibrillazione ventricolare
nell’uomo (da CEI 62-5)
22
2.5 IMPEDENZA DI CONTATTO
L'impedenza fra due punti della superficie esterna dell'organismo umano può essere ritenuta la somma dei seguenti tre
termini:
- Impedenza di contatto del primo elettrodo che interessa uno spessore cutaneo di frazioni di millimetro.
- Impedenza presentata dall'interno dell'organismo umano.
- Impedenza di contatto del secondo elettrodo.
Di queste impedenze quella dell'intero organismo umano è determinabile con buona approssimazione, mentre quelle
cutanee sono estremamente variabili e spesso non facilmente valutabili.
Una semplificazione del problema, accettabile ai fini protezionistici (poiché le eventualità più pericolose e ricorrenti si
riferiscono alla corrente alternata a frequenza di rete), è trascurare gli effetti elettrochimici provocati dalla corrente continua.
Lo schema equivalente semplificato dell’impedenza di contatto è riportato in fig. 2.22. In esso sono rappresentati i seguenti
elementi:
E = E' la somma delle polarizzazioni dei due elettrodi metallici in contatto con il soggetto. Il valore massimo per metalli
diversi è di circa 1V. E è ovviamente tendente a zero quando i metalli costituenti gli elettrodi sono uguali.
Questo parametro è ininfluente nelle considerazioni protezionistiche
e = E' la somma dei due rumori degli elettrodi; è dell'ordine dei mV e non influisce nelle considerazioni protezionistiche.
Z
E
e
R
C
rbrb
Fig.2.22 Schema
equivalente
dell’impedenza di contatto
rs
rs
semplificato
Z = Impedenza di contatto che rappresenta l'interfaccia fra elettrodo - elettrolita. L'elettrodo rappresenta il conduttore
metallico con cui l'organismo umano è venuto in contatto e l'elettrolita, la soluzione presente nel punto di contatto al di
sotto della cute. Normalmente si fa l'ipotesi semplificativa che detta soluzione sia la soluzione fisiologica ovvero una
soluzione di NaCl allo 0,9%.
I valori di R e C dipendono da molti parametri fra cui la natura del metallo e la superficie di contatto.
Al variare della frequenza, R e C variano approssimativamente come l'inverso della radice quadrata della frequenza.
Per i metalli immersi nella soluzione fisiologica, i valori indicativi di R e C per unità di superficie, a 50 Hz sono:
R = 100 Ω/cm²
C = 40 μF cm²
a cui corrisponde una impedenza Z di circa:
Z = 60 Ω / cm²
rb= E' la resistenza della cute
Il valore di rb presenta una inusuale variabilità e va da 30 Ω/cm² fino a 300 kΩ/cm² come è stato provato
sperimentalmente.
rs= E' una resistenza che può essere considerata pura e rappresenta tutti i tessuti dell’organismo umano attraversati dalla
corrente elettrica.
Il valore numerico di rs è dato dalla relazione:
l
rs = ρ --S
dispense1.doc
23
in cui ρ è la resistività delle parti molli dell'organismo umano e vale mediamente 200 Ω cm (vedere tab.2.3); l è la
distanza fra i due contatti fra i quali passa la corrente e S è la sezione media. Il valore di rs è dell’ordine dei 100 Ω.
Ai fini della valutazione dei rischi elettrici in circostanze cliniche è opportuno evidenziare le seguenti tipologie di contatto:
•
Contatto esterno nel quale il collegamento con il generatore di tensione avviene attraverso la cute non preparata. In
questo caso la resistenza della cute ha il peso predominante nella determinazione dell'impedenza di contatto anche se
variabile da individuo a individuo. I valori usuali sono compresi da 5÷10 kΩ per superfici di contatto tipiche del contatto
esterno accidentale.
•
Contatto esterno attraverso elettrodi di registrazione dei segnali elettrobiologici. Gli elettrodi sono posti sulla cute del
paziente avendo cura di ridurre al minimo l'impedenza di contatto allo scopo di migliorare la registrazione del segnale.
Le zone di applicazione degli elettrodi sono scelte fra le zone anatomiche a cute più sottile; inoltre la cute viene
leggermente abrasa e inumidita con soluzione fisiologica o con opportune paste elettroconduttrici. Così facendo
l'impedenza di contatto per elettrodi di 1 cm² scende a valori tipici di 1000÷2500 Ω.
•
Contatto diretto dal cuore attraverso elettrodi endocardici utilizzati nella diagnosi emodinamica o nella
elettrostimolazione del miocardio.
In questo caso almeno un elettrodo cutaneo è eliminato dall'elettrodo endocardico, inoltre le distanze si riducono per i
particolari punti anatomici in cui sono posti gli elettrodi.
Il valore di impedenza in questo caso per elettrodi di circa 10 mm² vale tipicamente da 500 ÷1000 Ω anche se alcuni
autori segnalano come minimo il valore di 200 Ω.
Infine si segnala che l'impedenza offerta dall'organismo umano in caso di contatto con metalli varia con la tensione applicata
e raggiunge il valore minimo asintotico verso tensioni di 300 V a frequenza industriale.
2.6 TENSIONI DI CONTATTO
La tensione di contatto è determinata applicando la Legge di Ohm fra la corrente e l'impedenza.
Poiché l'impedenza, come visto nel paragrafo precedente, è molto variabile e influenzata da molti parametri, ai fini
protezionistici è più agevole riferirsi ad altri parametri elettrici.
Dal punto di vista biologico gli effetti dell'energia elettrica sull'organismo umano sono studiati in funzione della densità di
corrente che lo attraversa. Ai fini pratici la densità di corrente è pressoché impossibile da misurare per cui si considera
l'organismo vivente come posto in contatto con una d.d.p generata da un generatore ideale di tensione (impedenza interna
nulla). Per questo motivo il parametro tensione di contatto è quello più ricorrente nella pratica e nella normativa di sicurezza.
Abbinando i valori minimi discussi nei precedenti capitoli si ha una indicazione dei parametri ritenuti sicuri, che sono riportati
in tab.2.4.
Si noti che i livelli di tensione, nel caso di microshock, sono così bassi da essere in pratica irraggiungibili con i normali
impianti e apparecchi.
Parametro
Corrente sicura
Microshock
10 µA
Macroshock
10 mA
Impedenza di contatto
1000 Ω
2500÷5000 Ω
Tensioen di contatto sicura
10 mV
25-50 V
Tab.2.4 Parametri ritenuti sicuri
L’Ente americano N.F.P.A. (*) indica come tensione di contatto sicura nel caso di microshock il valore obiettivo a cui tendere
5 mV, ben conscio delle concrete difficoltà tecnologiche che occorre superare.
D'altra parte è doveroso segnalare che i dati qui riportati si riferiscono alle peggiori circostanze configurabili e i dati scientifici
prima riportati mostrano che non è possibile raggiungere una sicurezza assoluta in tutti i casi.
Questi valori costituiscono perciò gli elementi teorici per valutare il rischio accettabile, associato all'utilizzazione dell'energia
elettrica.
(*)
National Fire Protection Association - U.S.A.
dispense1.doc
24
2.7 EFFETTO TERMICO
Come noto il passaggio della corrente in una resistenza produce calore per effetto Joule.
Nell’ambito della sicurezza elettrica vi sono poche circostanze in cui il calore prodotto dalla corrente elettrica può costituire
pericolo, perché alla frequenza di rete, la corrente che circola nel paziente molto prima di provocare apprezzabili aumenti di
temperatura, provoca effetti biologici molto più gravi come ad esempio la tetanizzazione dei muscoli o la fibrillazione
ventricolare a cui deve andare l’attenzione.
Ad alta frequenza (oltre i 100 kHz) ove si annulla l’effetto di stimolazione dei musoli, si potrebbe presentare il pericolo di
ustioni non volute. Questo è il caso dell’uso dell’elettrobisturi, che costituisce praticamente l’unico apparecchio
elettromedicale che presenta questo tipo di rischio.
E’ da segnalare tuttavia la possibilità di ustioni dovute a guasti elettrici che provocano archi o la fuoriuscita di metalli fusi
dagli involucri. Queste circostanze in ambito sanitario sono rarissime da osservare e impossibili da accadere se si rispetta la
regoa dell’arte nella realizzazione degli apparecchi e degli impianti.
2.8 INCIDENZA DELLA MORTALITA'
Nell'ambito della trattazione della sicurezza va considerata anche l'incidenza della mortalità provocata dalla corrente
elettrica durante l'uso di apparecchi elettromedicali.
Nel caso specifico si presentano molte difficoltà , perché le conseguenze cliniche della corrente elettrica, applicata
accidentalmente all'organismo umano, sono spesso assimilabili a molte cardiopatie naturali ed è spesso impossibile
distinguerle all'esame necroscopico. Inoltre, occorre considerare che i pazienti maggiormente esposti al rischio di
folgorazione possono andare incontro, per ragioni naturali dovute alla loro patologia, a crisi cardiache tipo la fibrillazione
ventricolare. Si capisce quindi come un incidente possa passare inosservato in quanto ritenuto come fenomeno naturale.
Inoltre va considerato il fattore umano, di cui tutti sono consapevoli, che porta a non dare il giusto peso all'eventuale
incidente dovuto a guasto o ad errore di manovra, attribuendo l'eventuale morte del paziente a cause naturali.
Altre ragioni, non meno valide, possono essere quelle che le apparecchiature bioelettroniche sono considerate,
nell'ambiente sanitario, delle macchine quasi perfette di cui ci si può sempre fidare, che in caso di guasto tutt'al più
interrompono il funzionamento. Invece la sicurezza di un'apparecchiatura dipende, in larga misura, dal modo in cui è
utilizzata, dall'impianto elettrico che l'alimenta, dal livello di manutenzione, dalle periodiche verifiche di sicurezza e per
ultimo dal livello di preparazione del personale utilizzatore.
Forse è per questo concorso di diverse cause che non esistono né in Italia né all'Estero statistiche ufficiali sulla mortalità da
corrente elettrica sufficientemente attendibile.
Risulta a tal riguardo che il Dipartimento di Sicurezza Sociale Inglese ha formulato nel 1970 l'auspicio di una collaborazione
tra le Autorità Mediche ed il Dipartimento della Salute e Sicurezza Sociale, al fine di stabilire una procedura per poter
redigere i rapporti di incidenti che riguardano l'uso di apparecchiature bioelettroniche.
Questa procedura sul piano puramente scientifico è molto valida in quanto solo analizzando la dinamica di un incidente ma
ancor più la dinamica di un “quasi incidente” (che solo fortuitamente non si è trasformato in un incidente) si possono
individuare quei mal funzionamenti tecnologici o errori umani che si possono correggere solo se individuati e sviscerati in
ogni particolare.
A questa auspicabile metodica scientifica si oppone di fatto l’orientamente giurisprudenziale di perseguire penalmente non
soltanto l’incidente, ma anche il solo “pericolo” provocato da negligenza (errore umano).
Negli U.S.A. il problema della folgorazione negli ospedali è tradizionalmente al centro dell'attenzione tanto che fin dal 1969
Walter ebbe a dire: le folgorazioni possono succedere ed in verità succedono frequentemente, ma il personale ospedaliero
neppure lo sospetta in quanto è così preoccupato ed occupato al salvataggio della vita di ogni singolo paziente che non
può nemmeno mettersi a sbrogliare il dedalo di cavi elettrici che riempiono le prese di tensione dei reparti di cura intensiva.
Non c'è possibilità di sapere quante simili situazioni avvengono realmente negli ospedali.
Il numero presunto di incidenti mortali attribuibili a folgorazione negli U.S.A., dedotto da Nader, in conversazioni con medici
e tecnici durante vari incontri scientifici, potrebbe aggirarsi su 5.000 casi all'anno come valore massimo.
Analizzando i registri di una compagnia di assicurazione, Walter ha riscontrato il numero di 1.200 morti all'anno da
folgorazione provocata da prestazioni sanitarie. Un valore simile è riportato da Burchell il quale parla di circa 1.000 decessi
all'anno.
dispense1.doc
25
Dal lato opposto la F.D.A.(∗) dopo l'elaborazione dei dati raccolti da una ventina di articoli pubblicati tra il 1963 ed il 1969
sull'argomento, è arrivata a stabilire che il numero di morti all'anno per folgorazioni è di 115, mentre sono più di 1.600 le
patologie non mortali provocate dagli apparecchi di uso medico e non soltanto quindi elettromedicale.
Arbeit descrive minuziosamente 15 casi accertati di folgorazione (di cui 5 mortali) avvenuti, nell'Ospedale presso cui
operava, durante il cateterismo cardiaco.
Più ottimista è Lee, Direttore del Dipartimento di Elettronica e Strumentazione al Presbyterian Hospital di New York, il quale
afferma che il numero dei pazienti suscettibile di folgorazione con rischio di microshock è estremamente basso, ed aggiunge
che non un solo paziente è morto per scarica elettrica durante il periodo della sua carica presso il Presbyterian Hospital.
Della stessa opinione di Lee è Dobbie, ingegnere per la sicurezza elettrica del United Kingdom Department of Health di
Londra, il quale affermava nel 1974 che nel Regno Unito non un solo paziente è deceduto per scarica elettrica negli ultimi
10 anni.
In Italia dalle statistiche ISTAT dello stesso periodo si ricava che le morti dichiarate per folgorazione erano dell'ordine di 400
all'anno in totale e quindi comprensive degli infortuni sul lavoro e domestici. Non risulta alcuna analisi dell'incidenza della
mortalità in ambito sanitario.
E’ doveroso tuttavia segnalare che dagli anni ’90 in Italia una serie di Leggi, raccomandazioni e direttive europee hanno
sensibilizzato gli addetti ai lavori sulle problematiche della sicurezza, per cui sono stati compiuti molti progressi in questo
settore.
Al di là dei dati statistici o delle opinioni personali, comunque contraddittorie, è tuttavia doveroso affrontare con estrema
cautela il problema della sicurezza degli apparecchi e degli impianti elettrici di uso medico, soprattutto ora che la tecnologia
ha pressoché invaso ogni campo della diagnostica e della terapia, e, i casi in cui si può manifestare microshock si sono
moltiplicati e si moltiplicano ogni giorno.
3. NORMATIVA
3.1 LA REGOLAMENTAZIONE GIURIDICA
La sicurezza dell'individuo è considerata nel nostro ordinamento giuridico uno dei valori basilari della nostra società .
La Costituzione della Repubblica Italiana accenna a questo argomento più volte come ad esempio all'art.32, 35, 41. In
particolar modo nell'art.32 ci si rivolge all'individuo come cittadino e lavoratore. A quest'ultimo è indirizzata la maggior parte
delle leggi riguardanti la prevenzione degli infortuni e parecchi articoli del Codice Civile fra cui segnatamente gli art. 2050 e
2087. Il Codice penale, all'art.437 sancisce che "chiunque omette di collocare impianti, apparecchi o segnali destinati a
prevenire disastri o infortuni sul lavoro, ovvero li rimuove o danneggia, è punito ......"; l'articolo suddetto si riferisce al reato
doloso, ovvero quando c'è la volontà e l'intenzione di omettere le cautele e di non predisporre le misure di sicurezza.
L'art.451 del Codice Penale prevede invece la colpa ovvero la negligenza, l'imprudenza o l'imperizia.
Successivamente alcuni Decreti e Leggi hanno completato il quadro normativo dell'argomento. Fra i fondamentali si
segnalano:
- DDL 547 del 27/04/55 "Norme per la prevenzione degli infortuni sul lavoro"
- DDL 303 del 19/03/56 "norme per l'igiene del lavoro"
- L.186 del 1/03/1968 "Disposizioni concernenti la produzione di materiali, apparecchiature, macchinari, installazioni ed
impianti elettrici ed elettromedicali"
- L. 791 del 18/10/1977 dia ttuazioned ella Direttiva Europea (73/23/CEE)
- L.46 del 5 marzo 1990 che indica le norme per la sicurezza degli impianti anche non elettrici
- Dl 626 del 19 settembre 1994 e le numerose integrazioni e modificazioni, che riguarda il miglioramento della sicurezza
e della salute dei lavoratori sul luogo di lavoro"
L'insieme della norma giuridica è diretta in linea principale alla tutela degli addetti all'uso di apparecchiature elettriche e degli
impainti; detta tutela tuttavia si estende in modo ancora più intenso anche ai destinatari dell'uso delle apparecchiature e
impianti, tipicamente i lavoratori, ma anche in generale tutti gli utenti, quali ad esempio gli studenti, gli sportivi, gli avventori
di luoghi pubblici e segnatamente i pazienti che vengono messi a diretto contatto fisico con gli apparecchi o con parti di essi.
(∗)
Food and Drug Administration - U.S.A.
dispense1.doc
26
Assicurare a tutti i cittadini la sicurezza nelle abitazioni e nei luoghi di lavoro, contro i possibili pericoli derivanti dagli impianti
tecnici, in particolare elettrici, è l'obiettivo primario che il Legislatore si è posto con la L. n.46 del 05/03/90 che è in vigore dal
13 Marzo 1990.
Si tratta quindi di un atto legislativo della massima importanza che colma un vuoto le cui conseguenze più appariscenti sono
state la realizzazione di impianti tecnici costruiti in modo non sempre sicuro perché non rispondenti alle norme e, nel tempo,
numerosi incidenti con conseguenze anche mortali.
Questa Legge riguarda tutti gli impianti tecnici negli edifici e non solo quelli elettrici ed elettronici, ma anche gli impianti a
gas, di condizionamento dell'aria, quelli idrosanitari, gli impianti di ascensori e di protezione antincendio. Ma, mentre per
questi ultimi impianti, solo se gli edifici sono di tipo civile, per gli impianti elettrici la Legge si applica anche a quelli relativi
agli immobili adibiti ad attività produttive, al commercio, al terziario e ad altri usi.
Il primo strumento previsto dalla L. 46/90 per realizzare l'obiettivo primario di cui sopra è costituito dall'obbligo "per chi opera
nel settore" di possedere una adeguata professionalità che deve essere riconosciuta per mezzo di apposite certificazioni
amministrative.
Per ottenere il risultato della sicurezza negli ambienti di vita e di lavoro, la Legge prevede inoltre tre strumenti di
prevenzione e precisamente:
- Una corretta progettazione degli impianti effettuata da professionisti iscritti negli albi professionali;
- Una realizzazione dell'installazione effettuata secondo la regola d'arte ed accompagnata da una dichiarazione di
conformità rilasciata dall'impresa installatrice;
- Le verifiche sull'applicazione della Legge e le sanzioni per chi non opera correttamente.
Tali strumenti non erano disciplinati nel quadro legislativo che ha preceduto la L.46/90 che pure, nel settore elettrico, era
adeguatamente coperto sul piano formale per l'esistenza della L.186/1968 e della L.791/1977: Attuazione della Direttiva
Comunitaria 73/23/CEE relativa alle garanzie di sicurezza che deve possedere il materiale elettrico destinato ad essere
utilizzato entro taluni limiti di tensione.
Queste due Leggi “impongono” che gli apparecchi e gli impainti siano realizzati a “regola d’arte” , ovvero adottando tutte le
conoscenze di cui la comunità scientifica dispone, ottenendo perciò impianti e apparecchi sicuri.
La normativa quindi non impone l’applicazione delle indicazioni normative. La legislazione sopra citata, confermando anche
precedenti leggi, afferma anche che se si applicano le norme CEI si “presume” che le apparecchiature e impianti a cui si
riferiscono, siano a regola dell’arte.
In virtù di queste disposizioni, le Norme CEI sono considerate ufficialmente gli strumenti più agili, idonei e facili da seguire
per realizzare apparecchi e impianti sicuri.
In altre parole lsi deve osservare che e Norme del Comitato Elettrotecnico Italiano (Norme CEI), perciò, assumono il
carattere di norma tecnica di riferimento in quanto la dizione generale costruiti a regola d'arte viene considerata presunta ex
lege per effetto della disposizione contenuta esplicitamente da un’altra Legge Italiana, la L.186/1968 "Disposizioni
concernenti la produzione di materiali, apparecchiature, macchinari, installazioni e impianti elettrici ed elettronici" che recita:
"Art.1 - Tutti i materiali, le apparecchiature, i macchinari, le installazioni e gli impianti elettrici ed elettronici devono essere
realizzati e costruiti a regola d'arte.
Art. 2 - I materiali, le apparecchiature, i macchinari, le installazioni e gli impianti elettrici ed elettronici realizzati secondo le
Norme del Comitato Elettrotecnico Italiano si considerano costruiti a regola d'arte."
In conclusione va ulteriormente segnalato che la qualifica costruito a regola d'arte è presunta per legge quando i materiali
sono costruiti in stretta osservanza delle Norme CEI, ma ciò non esclude che le realizzazioni effettuate in difformità da esse
possano ugualmente considerarsi sicure, solo che la prova che la costruzione eseguita con criteri diversi dalle Norme CEI è
a regola d'arte, va dimostrata tecnicamente caso per caso.
Il decreto legislativo 19 settembre 1994 n.626, sulla tutela della salute e sicurezza nei luoghi di lavoro, incide profondamente
sul vecchio sistema normativo basato sui decreti degli anni '50, per la prevenzione degli infortuni (Dpr 27 aprile 1955 n.547)
e l'igiene del lavoro (Dpr 19 marzo 1956 n.303).
Infatti all’obbligo senza condizioni ed eccezioni, di qualche anno fa, di adottare le prescrizioni tecniche indicate dalle norme
e dai regolamenti, vi è la nuova prassi quale modalità ordinaria per rispondere ai requisiti essenziali di sicurezza e di
efficiaenza: la valutazione del rischio e delle esigenze del processo e l’adozione di tutte quelle soluzioni tecniche che la
comunità scientifica (detto anche stato dell’arte) indica come idonea nella fattispecie. Ciò nonostante a livello delle
caratteristiche tecniche che gli impianti e le attrezzature devono avere, le prescrizioni delle norme tecniche costituiscono
senza dubbio un autorevole riferimento e spesso una prescrizione contrattuale ma comunque senza il caratttere di
obbligatorietà.
L’obbligatorietà è invece relativa ai “requisiti essenziali” che coerentemente all’evoluzione normativa in atto non possono
che essere dichiarazioni di principio quali ad esempio “essere correlate alla tipologia e al volume delle attività erogate”
dispense1.doc
27
espressione tipica delle Normativa nazionale spesso ripresa da quelle regionali nell’Accreditamento delle strutture sanitarie,
oppure “essere progettati e fabbricati in modo che la loro utilizzazione non comprometta lo stato clinico e la sicurezza dei
pazienti” della direttiva europea sui dispositivi medici, tanto per citarne solo due. Questo nuovo scenario cambia
l’atteggiamento sia del Progettista che del Gestore in quanto queste due categorie professionali non sono più chiamate al
rispetto pedissequo di prescrizioni tecniche ma all’analisi del “processo” di cui il manufatto è parte integrante, e a garantire,
nei modi che lo stato dell’arte prevede, la sicurezza, l’efficacia e l’efficienza del manufatto.
I due protagonisti a cui si fa riferimento sono da una parte il Progettista che deve ideare l’impianto o l’apparecchio che
soddisfa predefinite esigenze funzionali e di sicurezza risolvendo tutti i problemi costruttivi, di manutenzione, di gestione e di
futuro smaltimento e dall’altra parte il Gestore che deve valutare: il processo che intende svolgere con il manufatto e
indicare le condizioni specifiche, i livelli di sicurezza richiesti, gli esiti attesi, ecc.
A ulteriore conferma del ruolo attivo, indispensabile, e non delegabile del Gestore nell’indicare le specifiche funzionali degli
impianti e degli apparecchi, si consideri la norma tecnica sugli impianti elettrici nei locali ad uso medico CEI 64-8 cap.710
che recita: “la classificazione dei locali ad uso medico e l’individuazione della zona paziente [a cui corrisponde una specifica
tipologia di impianto elettrico devono essere fatte dal personale medico [non del progettista!] o in accordo con
l’organizzazione sanitaria”.
3.2 L'ATTIVITA' NORMATIVA
Rilevanza giuridica
Fin dall’inizio del secolo scorso in tutti i Paesi industrializzati si sentì l'esigenza di disporre di un insieme di regole tecniche a
cui fare riferimento negli scambi commerciali.
Le regole tecniche devono - oltre che specificare le caratteristiche del prodotto facilitando il progetto, la realizzazione e
l'installazione - fissare criteri di accettazione commerciale e di collaudo e soprattutto assicurare adeguati livelli di sicurezza
di impiego e tutela della salute e dell'ambiente.
La rilevanza giuridica di una norma tecnica dipende dall'Ente che l'ha emessa. Per esempio si può distinguere la seguente
gerarchia di importanza giuridica decrescente:
- Norme tecniche obbligatorie in quanto recepite dalla legge
- Norme tecniche omologate in quanto fatte proprie dai Ministeri che inserendole nei Capitolati di fornitura o di appalto
diventano obbligatorie per le sole commesse pubbliche (per esempio Circolari Ministeriali e Capitolati Speciali di
Acquisto L.730/83 art.30)
- Norme tecniche che definiscono la regola d'arte come per esempio quelle CEI che hanno avuto un riconoscimento
indiretto (L.186/68)
- Norme tecniche volontarie il cui valore risiede principalmente nella autorevolezza dell'Ente che le emette (per esempio
le norme AAMI degli U.S.A.)
Enti normatori italiani
In Italia in forza del D.L.L. n.82 del 1/03/45 il CNR (Comitato Nazionale delle Ricerche) "... provvede alla compilazione di
norme per l'accettazione, il collaudo e l'unificazione di materiali, strumenti, apparecchi, macchinari ed accessori vari per usi
tecnici e scientifici, nonché di norme per l'esecuzione, il collaudo e la protezione degli impianti e delle costruzioni ....", ma
dal 1974 il CNR ha delegato al CEI (Comitato Elettrotecnico Italiano) i compiti della normalizzazione nei settori elettrotecnico
ed elettronico.
Attualmente il CEI partecipa all'attività di normazione a livello internazionale (CENELEC, IEC, CEN).
Analogamente l'UNI (*)redige le norme su tutti gli altri argomenti non di competenza della CEI.
Con la legge di riforma sanitaria L.833 del 32/12/78 "Istituzione del Servizio Sanitario Nazionale" è stato previsto e costituito
nel 1980 l'ISPELS (Istituto Superiore per la Prevenzione e la Sicurezza del Lavoro) con il compito di "individuazione, in via
esclusiva, dei criteri di sicurezza e dei relativi metodi di rilevazione ai fini della omologazione di macchine, di componenti, di
impianti, di apparecchi, di strumenti e di mezzi personali di protezione, nonché ai fini delle specifiche tecniche normative".
Enti normatori internazionali
Gli intensi scambi commerciali internazionali non consentono ad un Paese Industrializzato di adottare norme tecniche
difformi da quelle degli altri Paesi. Nell'intento di addivenire ad una uniformità di normativa sono sorti gli organismi normativi
internazionali fra cui l'IEC (International Electrotechnical Commission) e il CEEel (International Commission on Rule for the
Approval at Electrical Equipment).
Oggi aderiscono alla IEC quasi tutti gli Enti Normatori Nazionali del mondo (per l'Italia il CEI).
(*)
Ente Nazionale Italiano di Unificazione; è anche il rappresentante dell'Italia presso l'Organizzazione Internazionale di
Normalizzazione (ISO).
dispense1.doc
28
Alla CEEel invece aderiscono i soli Paesi Europei e tratta prevalentemente l'unificazione dei protocolli di prova di laboratorio
dei materiali elettrici e del loro riconoscimento fra i Paesi che vi aderiscono.
Poiché le varie Norme Nazionali di per sé non erano uniformi, in quanto nate scoordinate e spontaneisticamente, in base
all'art.100 del trattato di Roma, costituente la Comunità Economica Europea, i Paesi membri si sono impegnati ad eliminare
gli ostacoli agli scambi commerciali ed in particolare di disuniformità della Normative tecniche nazionali; a questo fine è
sorto il CENELEC (European Committee for Electrotechnical Standardization).
A questo punto occorre fare una precisazione.
Fino a pochi anni or sono l'IEC, a cui partecipava anche l'Italia, predisponeva appunto con l'apporto tecnico di esperti di
tutte le nazioni aderenti, normative chiamate raccomandazioni. Queste venivano recepite dagli Enti normatori nazionali che
le traducevano ed eventualmente le modificavano per adeguarle al loro preesistente corpo normativo.
Tale attività normativa a livello nazionale adesso è svolta a livello europeo dal CENELEC, il quale infatti, con l'apporto di
esperti delle nazioni aderenti alla Comunità Europea redige le norme europee.
La novità principale è che gli Enti normatori nazionali (CEI), in quanto membri del CENELEC, devono recepire le norme
europee senza alcuna modifica, limitandosi semplicemente a tradurle.
Il CENELEC perci· emette documenti di armonizzazione che devono essere recepiti dagli Enti normativi nazionali aderenti:
si parla quindi di Norma armonizzata e viene pubblicata con la sigla EN preceduta dalla classificazione nazionale (in Italia:
CEI EN; UNI EN, ecc.).
La strategia per l'abbattimento delle barriere tecniche fra i Paesei della Comunità Europea è basata perciò sui seguenti
principi:
-
l'armonizzazione legislativa si limita alla approvazione, mediante direttive, dei requisiti essenziali di sicurezza (o di altre
esigenze di carattere collettivo) ai quali devono soddisfare i prodotti immessi sul mercato che, in tal caso possono
circolare liberamente nella Comunità ;
compete agli organismi europei di normazione (CEN, CENELEC e ETSI) il compito di elaborare le norme tecniche
armonizzate necessarie per l'applicazione delle direttive;
gli Stati membri possono, nel rispetto delle regole comunitarie e garantendo sempre la libera circolazione delle merci,
emanare particolari specifiche tecniche (regole tecniche), la cui osservanza è obbligatoria, ai fini della salvaguardia
della sicurezza e della salute dei loro cittadini;
agli organi competenti per la normazione industriale è affidato il compito di elaborare tutte le altre specifiche tecniche
(norme tecniche), tenendo conto del livello tecnologico del momento, di cui le industrie hanno bisogno per produrre ed
immettere sul mercato prodotti conformi ai requisiti essenziali fissati dalle direttive;
le norme tecniche non devono essere obbligatorie bensì conservare il carattere di norme volontarie;
tuttavia, le amministrazioni pubbliche sono obbligate a riconoscere ai prodotti fabbricati secondo le norme armonizzate
una presunta conformità ai requisiti essenziali fissati dalla direttiva; ci· significa che il produttore ha la facoltà di
fabbricare prodotti non conformi alle norme, ma in tal caso ricade su di lui la responsabilità di dimostrare che i suoi
prodotti rispondono ai requisiti essenziali fissati alla direttiva.
Con la garanzia del rispetto dei requisiti essenziali, se un prodotto è fabbricato e commercializzato legalmente in uno Stato
membro, non c'è motivo per cui non debba essere venduto all'interno della Comunità . Tale garanzia si ottiene tramite la
valutazione di conformità alle norme europee armonizzate o, in via transitoria, quando non esistano norme europee
armonizzate, alle norme nazionali e queste siano riconosciute dagli uffici comunitari valide ai fini dell'applicazione della
direttiva interessata.
Enti certificatori
Il Decreto del Ministero dell'Industria del 23/7/1979 "Designazione degli organismi incaricati di rilasciare certificati e marchi
ai sensi della legge 18 ottobre 1977 n.791" autorizza alcuni Enti a rilasciare attestati di conformità. I più noti per essere stati
autorizzati da più anni sono:
-
Istituto del Marchio di Qualità (IMQ) di Milano
Istituto Elettrotecnico Nazionale G.Ferraris di Torino
Centro Elettrotecnico Sperimentale Italiano (CESI) di Milano
Fra gli Enti Certificatori Italiani il più noto è l’IMQ fondato nel 1969 dal CEI , dall’AEI, dall'ENEL e dall'ANIE, di cui sono soci
di diritto anche il CNR e otto Ministeri.
Gli scopi dell'IMQ sono:
a) accertare la rispondenza alle norme elaborate e pubblicate dal CEI dei materiali e delle apparecchiature elettrotecniche
ed elettroniche che qualunque produttore intenda sottoporre a controllo. Ove del caso, tale controllo comprende anche
le verifiche dimensionali previste dall'unificazione elettrotecnica (tabelle CEI-UNEL);
dispense1.doc
29
b) impegnare il produttore richiedente alla costante conformità al prototipo di ogni unità fabbricata;
c) certificare conseguentemente la costante conformità del prodotto, come sopra accertata, ed autorizzare il produttore
ad applicare su ciascuna unità fabbricata un marchio attestante tale conformità .
L'attività dell'Istituto è rivolta soprattutto ai materiali ed apparecchi destinati all'impiego civile ed anche del settore delle
apparecchiature elettromedicali.
L’IMQ rilascia il “marchio” se la norma CEI è già stata pubblicata, in caso contrario l'IMQ può rilasciare il Certificato con
Sorveglianza. Tale Certificato è rilasciato sulla base delle prescrizioni delle Norme Generali CEI 62-5 e sulle indicazioni di
eventuali raccomandazioni IEC se esistenti.
Il Certificato di Sorveglianza non consente l'uso al Costruttore del contrassegno IMQ, ma garantisce all'utilizzatore oltre la
rispondenza del prototipo alle norme generali di sicurezza, il costante livello qualitativo della Produzione perché
"sorvegliato" con controlli periodici dell'Istituto allo Stabilimento di costruzione.
Sovraintende all'attività dell'IMQ nø10 Commissioni Tecniche di cui la 10 è specifica per il settore degli apparecchi
elettromedicali.
Risultano ammesse al regime del Marchio IMQ le seguenti categorie di prodotti che devono soddisfare ai requisiti fissati
nelle relative norme CEI, indicate in corrispondenza ad ogni categoria.
1001. Apparecchi elettromedicali in generale
- Tutti gli apparecchi per i quali esistono norme CEI del comitato 62
- Gli apparecchi per i quali risultano già in vigore le relative Norme Particolari
- Ricadono in questa categoria apparecchi per i quali pur non essendo ancora disponibili le Norme Particolari, l'IMQ ha
ricevuto l'autorizzazione a rilasciare il marchio sulla base di Raccomandazione IEC
1010. Apparecchi per uso odontoiatrico
- Solo un sottoinsieme degli apparecchi elettromedicali previsti dalla norma CEI 62-5
1020. Apparecchi di radiodiagnostica
L’IMQ inoltre (art.2) è incaricato di rilasciare marchi di conformità , il cosiddetto marchio IMQ riprodotto in fig.3.1.
Per l'ottenimento del marchio IMQ il Costruttore deve sottostare ad una procedura che prevede la verifica da parte
dell'Istituto di:
- Idoneità tecnica del Costruttore a produrre e collaudare il prodotto con i previsti livelli di sicurezza.A questo proposito
viene verificata l'esistenza degli apparecchi di misura ritenuti indispensabili per il collaudo, l'esistenza di schede
tecnico-amministrative su cui annotare l'esito delle misure, ecc.
- Rispondenza alle Norme di un prototipo di apparecchio riscontrata con il superamento di tutte le verifiche e misure
strumentali previste dalla Norma specifica
- Controllo periodico della produzione per verificare che la costruzione di serie dell'apparecchio sia conforme al prototipo
verificato.
E' doveroso segnalare che per il settore degli apparecchi di uso medico l'ottenimento di un marchio di qualità nazionale non
dà il diritto ad ottenere il marchio presso un altro Paese.
Questo avviene solo per alcune categorie di prodotti anche se è allo studio un sistema di certificazione reciproco che
dovrebbe allargare l'estendibilità dei marchi nazionali almeno alle nazioni europee. Per gli apparecchi sono riportati in
fig.3.2 i principali marchi.
Il marchio di conformità non è obbligatorio, ma è una significativa garanzia che il Costruttore offre all’aquirente. Recenti
decreti legislativi di recepimento di direttive europee come ad esempio il Dlg 46/1997 relativo ai dispositivi medici, impone
obbligatoriamente che tutti i materiali individuati dalla direttiva devono rispondere ai requisiti essenziali di sicurezza.
La autocertificazione di ciò da parte del Costruttore è evidenziata dal marchio “CE” (fig.3.3) apposto al materiale.
Fig.3.1 Contrassegno IMQ rilasciato agli apparecchi che hanno
superato la procedura di attestazione di conformità alle
Norme. La scitta sottostante si riferisce alla norma presa in
considerazione.
Fig. 3.3
dispense1.doc
Marchio CE obbligatorio per i materiali di cui è già stata
pubblicata la relativa Direttiva Europea
30
Fig.3.2 Principali Marchi di conformità
3.3 LA CERTIFICAZIONE VOLONTARIA O OBBLIGATORIA
La certificazione è l'atto mediante il quale un organismo di certificazione dichiara che un determinato prodotto, processo,
servizio, sistema qualità aziendale è conforme alle norme o alle regole ad esso applicabili.
Esistono principalmente 2 tipi di certificazioni:
a) La certificazione di prodotto, attuata per mezzo di:
- uno o più laboratori che effettuano le prove di conformità (esempio IMQ);
- un organismo che controlla la permanenza nel tempo della conformità prelevando campioni sul luogo di
produzione o sul mercato e sottoponendoli a prove di laboratorio.
b) La certificazione del processo produttivo (ad esempio seguendo le ISO 900), attuata per mezzo di:
- un organismo che valuta l'idoneità e la permanenza nel tempo delle caratteristiche del sistema di qualità di
un'azienda, applicando uno schema adatto al settore produttivo considerato;
- un organismo di certificazione che controlla le caratteristiche (scolarità , esperienza, addestramento specifico) del
personale impiegato in particolari attività .
La certificazione è un processo volontario che il produttore decide di utilizzare per qualificare il suo prodotto sul mercato
garantendo un livello definito di qualità o prestazioni.
La certificazione può diventare obbligatoria quando per esempio è prevista da una direttiva europea per garantire i requisiti
essenziali per l'immissione sul mercato europeo del prodotto.
La corrispondenza del prodotto ai prescritti requisiti è comunque evidenziata come già visto dall'apposizione della marcatura
CE al prodotto.
La certificazione di conformità ai requisiti essenziali nel quadro del processo di valutazione di conformità che porta
all'apposizione della marcatura CE, prevista ai sensi delle direttive comunitarie, emesse a difesa degli interessi generali
degli stati membri, è una certificazione obbligatoria.
Occorre tuttavia chiarire che, mentre nel caso della certificazione volontaria, l'apposizione del marchio è diretta
conseguenza dell'operazione di certificazione eseguita dall'organismo di certificazione, nel caso della certificazione
obbligatoria effettuata da Organismi notificati (un Organismo notificato è un laboratorio di prova o un organismo di
certificazione che un Governo nazionale segnala alla Commissione Comunitaria come idoneo ad operare per
l'accertamento della conformità ai requisiti essenziali prescritti dalle direttive comunitarie), nell'ambito delle procedure
previste dalle direttive comunitarie, essa può essere solo una delle operazioni mediante le quali il produttore, seguendo la
procedura per la valutazione di conformità ai requisiti essenziali scelta per il suo prodotto, arriva ad apporre la marcatura
CE. Le certificazioni previste dalle direttive sono rilasciate con l'intervento di organismi esplicitamente notificati dall'autorità
competente di uno stato membro alla Commissione della Comunità europea e da questa alle autorità competenti degli altri
stati membri e scelti sulla base dei requisiti minimi indicati nelle direttive stesse. Le autorità competenti sono le sole
responsabili del loro operato e possono, se del caso, deciderne la sospensione.
dispense1.doc
31
E' opportuno ricordare che, per alcuni prodotti, le direttive comunitarie prevedono che la valutazione di conformità ai
requisiti essenziali sia autocertificata dallo stesso produttore, lasciando agli organismi notificati e all'autorità competente
competente il compito di sorveglianza. Il produttore quindi, nel momento in cui matura la decisione di percorrere la strada
della certificazione, deve pianificare una serie di attività secondo lo schema seguente:
1) Identificare i propri prodotti
2) Identificare le direttive applicabili
3) Identificare i requisiti essenziali da rispettare
4) Identificare le norme tecniche applicabili
5) Studiare le regole di classificazione dei prodotti
6) Scegliere il modulo per la valutazione della conformità fra quelli indicati nelle direttive da rispettare
7) Approntare la documentazione necessaria
8) Identificare l'ente di certificazione notificato
3.4 DIRETTIVE EUROPEE E NORME TECNICHE IN CAMPO SANITARIO
Direttive europee nel settore sanitario
La Comunità Economica Europea, al fine di garantire al suo interno la libera circolazione di tutti i tipi di materiale di uso
sanitario, ponendo al tempo stesso la massima attenzione alla sicurezza dell'utente, ha sentito negli scorsi anni il bisogno di
emanare una serie di “direttive” che regolamentano l'accesso al mercato di tutti i materiali di uso sanitario, dettando nel
frattempo tutte le norme tecniche che debbono essere rispettate affinché questi materiali offrano le massime garanzie di
sicurezza per l'utilizzatore ed il paziente finale.
La prima direttiva, in ordine di tempo, è stata la 90/385/CE, recepita in Italia con il Dlgs 507/1992, relativa ai “dispositivi
medici impiantabili attivi”. La definizione, fornita dalla direttiva, di questi dispositivi è:
“ - dispositivo medico attivo: qualsiasi dispositivo medico collegato per il suo funzionamento ad una fonte di energia
elettrica o qualsiasi altra fonte di energia diversa da quella prodotta direttamente dal corpo umano o dalla gravità;
- dispositivo medico impiantabile attivo: qualsiasi dispositivo medico attivo destinato ad essere impiantato interamente o
parzialmente mediante intervento chirurgico o medico nel corpo umano o mediante intervento medico in un orfizio
naturale e destinato a restarvi dopo l’intervento”
Appartengono a questa categoria ad esempio i pacemaker impiantabili, il cuore artificiale, ecc..
Sono i dispositivi medici più critici per cui la procedura per poterli immettere in commercio è molto severa e tra l’altro il
prodotto deve necessariamente essere valutato da un Ente Certificatore individuato con Legge di Stato.
Un’altra direttiva, molto importante per la vastità e diversificazione dei prodotti a cui si riferisce è la 93/42/CE recepita in
Italia dal Dlgs 46/1997 relativa ai “dispositivi medici” definiti come “qualsiasi strumento, apparecchio, impianto sostanza o
altro prodotto, utilizzato da solo o in combinazione, compreso il software informatico impiegato per il corretto funzionamento,
e destinato dal fabbricante ad essere impiegato nell’uomo a scopo di diagnosi, prevenzione, controllo, terapia o
attenuazione di una malattia; di diagnosi, controllo, terapia, attenuazione o compensazione di una ferita o di un handicap; di
studio, sostituzione o modifica dell’anatomia o di un processo fisiologico”
La terza direttiva, in ordine di tempo è la 98/79/CE recepita in Italia con il Dlgs 332/2000 relativa, ai dispositivi medicodiagnostici in vitro. Questi dispositivi sono definiti come:
“Qualsiasi dispositivo medico composto da un reagente, da un prodotto reattivo, da un calibratore, da un materiale di
controllo, da un kit, da uno strumento, da un apparecchio, un’attrezzatura o un sistema, utilizzato da solo o in combinazione,
destinato dal fabbricante ad essere impiegato in vitro per l’esame di campioni provenienti dal corpo umano”
Norme tecniche nel settore dell’uso medico
Attualmente l'attività preponderante del CEI è quella di elaborare le norme tecniche attraverso la partecipazione all'attività
dei Comitati Europei (CENELEC) ed internazionali (IEC) (esempio negli apparecchi elettromedicali), tradurre le norme
armonizzate, e redigere norme nazionali in quei settori in quei settori in cui non ci siano ancora norme europee (esempio
impianti elettrici nei locali ad uso medico, ecc.). Il CEI è organizzato in Comitati Tecnici a loro volta articolati in Sottocomitati
e Gruppi di Lavoro, per un totale di circa 200 gruppi con circa 1800 esperti.
Due sono i Comitati tecnici che si occupano di argomenti direttamente connessi al campo sanitario.
Essi sono:
CT 62 Apparecchiature elettriche per uso medico
CT 64 Impianti elettrici utilizzatori
dispense1.doc
32
Il CT 62, interamente rivolto agli apparecchi di uso medico, è suddiviso nei seguenti quattro Sotto Comitati:
A. Aspetti comuni delle apparecchiature elettriche per uso medico
B. Apparecchi a raggi x e accessori
C. Apparecchi ad alta energia ed apparecchi per medicina nucleare
D. Apparecchi elettromedicali
Quest'ultimo Sotto Comitato è organizzato in diversi Gruppi di lavoro impegnati su particolari tematiche quali ad esempio
apparecchi di monitoraggio clinico, anestesia, defibrillatori, ecc.
Finora (2003) le Norme CEI pubblicate dal Comitato Tecnico 62 sono:
CEI 62(1998)
CEI 62-1 (1997)
CEI 62-2 (1998)
CEI 62-3 (1998)
CEI 62-4 (1998)
CEI 62-5 (1998)
CEI 62-7 (2001)
CEI 62-9 (2003)
CEI 62-11 (2001)
CEI 62-12 (1998)
CEI 62-13 (1998)
CEI 62-14 (1999)
CEI 62-17 (1998)
CEI 62-22 (1998)
CEI 62-23 (2001)
CEI 62-24 (2002)
CEI 62-26 (1996)
CEI 62-27 (1999)
CEI 62-28 (1998)
CEI 62-30 (1998)
CEI 62-33 (1999)
CEI 62-34 (1997)
CEI 62-35 (2003)
CEI 62-36 (2000)
CEI 62-37 (1998)
CEI 62-38 (1998)
CEI 62-40 (1998)
CEI 62-41 (1999)
CEI 62-42 (1997)
CEI 62-48 (1998)
CEI 62-49 (1998)
dispense1.doc
Dizionario di Radiologia Medica
Complessi tubo – guaina per diagnostica medica. Caratteristiche delle macchie focali
Protezione contro le radiazioni negli apparecchi radiologici per uso medico funzionanti con tensioni da
10 kV a 400 kV
Cassette radiografiche per radiodiagnostica medica. Cassette radiografiche e cassette per mammografia
Isolatori terminali di cavo e isolatori a bicchiere per giunzioni in alta tensione negli apparecchi a raggi
X ad uso medico
Apparecchi elettromedicali. Parte 1 : Norme generali per la sicurezza
Apparecchi elettromedicali. Sistemi di misura del prodotto dose-area
Apparecchiature di immagini per uso diagnostico – Caratteristiche delle griglie antidiffusione d’uso
generale e per mammografia
Apparecchi elettromedicali. Parte 2: Norme particolari di sicurezza per gli apparecchi di elettrochirurgia
ad alta frequenza
Schemi di rinforzo radiologici. Dimensioni
Apparecchi elettromedicali. Norme particolari di sicurezza per defibrillatori cardiaci con monitor
incorporato
Apparecchi elettromedicali. Parte 2: Norme particolari di sicurezza per gli apparecchi di terapia ad onde
corte
Apparecchi elettromedicali. Norme particolari di sicurezza per gli apparecchi per la terapia a microonde
Apparecchi elettromedicali. Parte 2: Norme particolari di sicurezza per le incubatrici
Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza delle apparecchiature di terapia
ad ultrasuoni
Apparecchi elettromedicali. Parte 2: Norme particolari di sicurezza per gli stimolatori neuromuscolari
Elettrostimolatori cardiaci impiantabili. Norma di sicurezza
Apparecchi elettromedicali. Parte 2: Norme particolari di sicurezza dei generatori di alta tensione
radiologici per diagnostica
Apparecchi elettromedicali. Norme particolari di sicurezza dei generatori radiologici terapeutici
Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza dei dosimetri a contatto con il
paziente utilizzati in radioterapia, con rivelatori di radiazione collegati elettricamente
Apparecchi elettromedicali. Dosimetri a camera di ionizzazione utilizzati in radioterapia
Determinazione del massimo campo di radiazione simmetrica di un tubo radiogeno ad anodo rotante per
diagnostica medica
Apparecchi elettromedicali. Parte 2: Norme particolari di sicurezza per gli acceleratori medicali di
elettroni nella gamma da 1 MeV a 50 MeV
Apparecchiature elettromedicali. Acceleratori di elettroni per uso medico. Caratteristiche delle
prestazioni funzionali
Caratteristiche elettriche, termiche e di carico dei tubi radiogeni ad anodo rotante per diagnostica medica
Apparecchi elettromedicali. Parte 2: Norme particolari di sicurezza per generatori radiologici a scarica di
condensatore
Apparecchi elettromedicali. Parte 2: Norme particolari di sicurezza degli apparecchi proiettori automatici
di sorgenti gamma con comando a distanza
Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza delle incubatrici da trasporto
Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza degli apparecchi laser terapeutici
e diagnostici
Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza di complessi radianti a raggi X e
complessi tubo-guaina per diagnostica medica
Connettori di basso profilo per elettrostimolatori cardiaci impiantabili
33
CEI 62-50 (2003) Apparecchi elettromedicali. Parte 1: Prescrizioni generali per la sicurezza – Norma collaterale:
Compatibilità elettromagnetica – Prescrizione e prove
CEI 62-51 (2003) Apparecchi elettromedicali. Parte 1: Norme particolari per la sicurezza. Norma Collaterale: Prescrizione
di sicurezza per i sistemi elettromedicali
CEI 62-52 (2002) Sistemi qualità. Dispositivi medici. Prescrizioni particolari per l’applicazione della EN ISO 9001 (revisione
della EN 46001)
CEI 62-53 (2002) Sistemi qualità. Dispositivi medici. Prescrizioni particolari per l’applicazione della EN ISO 9002 (revisione
della EN 46002:1996)
CEI 62-54 (1998) Simulatori di radioterapia – Caratteristiche funzionali
CEI 62-55 (1998) Prove di valutazione e di routine nei reparti per la produzione di immagini mediche. Parte 1: Aspetti
generali.
CEI 62-56 (1998) Caratteristiche e condizioni di prova di dispositivi di diagnostica per immagini a radionuclidi Gamma
camere di tipo Anger
CEI 62-57 (1998) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2-4: Prove di
costanza – Camere di riproduzione a stampa
CEI 62-58 (1998) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2-5: Prove di
costanza – Dispositivi per la visualizzazione delle immagini
CEI 62-59 (1998) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2-6: Prove di
costanza – Apparecchiature di tomografia computerizzata
CEI 62-60 (1998) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza dei riscaldatori radianti per
neonati
CEI 62-61 (1998) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza degli elettroencefalografi
CEI 62-62 (1998) Apparecchi elettromedicali. Caratteristiche degli intensificatori elettro-ottici di immagine radiologica Parte
1: Determinazione della dimensione del campo di ingresso.
CEI 62-63 (1998) Apparecchi elettromedicali. Caratteristiche degli intensificatori elettro-ottici di immagine radiologica Parte
2: Determinazione del fattore di conversione
CEI 62-64 (1998) Apparecchi elettromedicali. Caratteristiche degli intensificatori elettro-ottici di immagine radiologica Parte
3: Determinazione della distribuzione della luminosità e della non-uniformità della luminosità
CEI 62-65 (1998) Apparecchi elettromedicali. Caratteristiche degli intensificatori elettro-ottici di immagine radiologica Parte
4: Determinazione della distorsione di immagini
CEI 62-66 (1998) Apparecchi elettromedicali. Caratteristiche degli intensificatori elettro-ottici di immagine radiologica Parte
5: Determinazione dell’efficienza quantica di rivelazione
CEI 62-67 (1998) Apparecchi elettromedicali. Caratteristiche degli intensificatori elettro-ottici di immagine radiologica Parte
6: Determinazione del rapporto di contrasto e dell’indice di velo luminoso
CEI 62-68 (1998) Apparecchi elettromedicali. Parte 2: Prescrizioni particolari per la sicurezza delle apparecchiature
complementari agli apparecchi radiologici
CEI 62-69 (1998) Apparecchi elettromedicali. Parte 1: Prescrizione generali per la sicurezza. 3: Norma collaterale:
Prescrizioni Generali per la radioprotezione in apparecchi radiologici per diagnostica
CEI 62-70 (1999) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza degli stimolatori cardiaci esterni
con sorgente d’alimentazione interna
CEI 62-71 (1998) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza degli apparecchi di monitoraggio
elettrocardiografico
CEI 62-72 (1996) Guida per l’applicazione delle Norme EN 29001 ed EN 46001 e delle Norme EN 29002 e EN 46002 per
l’industria dei dispositivi medici attivi
CEI 62-73 (1996) Apparecchi radiologici per diagnostica medica. Condizioni di radiazione per l’uso nella determinazione
delle caratteristiche
CEI 62-74 (2001) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza, comprese le prestazioni
essenziali, degli apparecchi di monitoraggio della pressione del sangue in modo non invasivo,
automatico e periodico
CEI 62-75 (2001) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza, comprese le prestazioni
essenziali, degli apparecchi di monitoraggio diretto della pressione del sangue
CEI 62-76 (2000) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza degli elettrocardiografi
CEI 62-77 (2001) Apparecchi elettromedicali. Parte 2: Prescrizioni particolari di sicurezza relative agli apparecchi a
risonanza magnetica per diagnostica medica
CEI 62-78 (1997) Apparecchi elettromedicali. Caratteristiche degli intensificatori elettro-ottici di immagine radiologica Parte
7: Determinazione della funzione di trasferimento della modulazione
CEI 62-79 (2001) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza dei simulatori per radioterapia
CEI 62-80 (1997) Apparecchi elettromedicali. Calibratori a radionuclidi. Metodi particolari per descrivere la prestazione
dispense1.doc
34
CEI 62-81 (2000) Apparecchi elettromedicali. Parte 1: Norme generali per la sicurezza. 4: Norma collaterale: Sistemi
elettromedicali programmabili
CEI 62-82 (2001) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza delle apparecchiature
endoscopiche
CEI 62-83 (2001) Apparecchiature utilizzate in radioterapia – coordinate, movimenti e scale
CEI 62-84 (1997) Segni grafici per apparecchiature elettromedicali
CEI 62-85 (1997) Apparecchi elettromedicali. Parte 3-1: Prescrizioni essenziali di prestazioni per apparecchi di
monitoraggio transcutaneo della pressione parziale di ossigeno e biossido di carbonio
CEI 62-86 (1998) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza di apparecchi di litotrissia indotta
extracorporea
CEI 62-87 (1998) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 3-3: Prove di
accettazione – Prestazioni del trattamento delle immagini per gli apparecchi radiologici per angiografia a
sottrazione digitale (ASD)
CEI 62-88 (1998) Apparecchi elettromedicali. Dosimetri a camera di ionizzazione e/o rivelatori a semiconduttore utilizzati
nella produzione di immagini per radiodiagnostica
CEI 62-89 (1998) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 3-2: Prove di
accettazione – Prestazioni relative alle immagini di apparecchi radiologici per mammografia
CEI 62-90 (1998) Dispositivi di visualizzazione di immagini a radionuclidi. Caratteristiche e condizioni di prova. Parte 1:
Tomografi ad emissione di positrone
CEI 62-91 (1998) Dispositivi di visualizzazione di immagini a radionuclidi. Caratteristiche e condizioni di prova. Parte 2:
Tomografi computerizzati ad emissione di fotone singolo
CEI 62-92 (1998) Dispositivi di visualizzazione di immagini a radionuclidi. Caratteristiche e condizioni di prova. Parte 3:
Sistemi per la produzione di immagini del corpo intero tipo gamma camera
CEI 62-93 (1998) Aspetti fondamentali delle norme di sicurezza per gli apparecchi elettromedicali
CEI 62-94 (2001) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza, comprese le prestazioni
essenziali, degli apparecchi monitoraggio di pressione parziale per via transcutanea
CEI 62-95 (2000) Apparecchi elettromedicali. Parte 2: Norme particolari di sicurezza di letti per ospedale azionati
elettricamente
CEI 62-96 (1999) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza di elettromiografi e apparecchi
per potenziale evocato
CEI 62-97 (1999) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza delle coperte, dei cuscinetti e dei
materassi destinati al riscaldamento dei pazienti per l’impiego medico
CEI 62-98 (2000) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza degli apparecchi per emodialisi,
emodiafiltrazione e emofiltrazione
CEI 62-99 (1999) Apparecchi elettromedicali. Parte 2: Norme particolari di sicurezza per pompe d’infusione e dispositivi di
controllo
CEI 62-100 (1999) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza dei tavoli operatori
CEI 62-101 (2002) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza degli apparecchi radiologici per
mammografia e dispositivi stereotassici per mammografia
CEI 62-103 (2000) Dispositivi di protezione dalla radiazione X per uso medico-diagnostico. Parte 3: Indumenti e dispositivi
di protezione per le gonadi
CEI 62-104 (2000) Dispositivi medici impiantabili attivi. Parte 1: Requisiti generali per la sicurezza, la marcatura e le
informazioni fornite dal fabbricante
CEI 62-105 (2000) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2: prove di
costanza – Apparecchi per il trattamento della pellicola
CEI 62-106 (2000) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2: prove di
costanza – Cassette radiografiche e cambia-pellicola – Contatto schermo-pellicola e sensibilità relativa
del sistema schermo-cassetta
CEI 62-107 (2000) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2: prove di
costanza – Condizioni di luce inattinica nelle camere oscure
CEI 62-108 (2000) Guida alla manutenzione delle pompe di infusione e sistemi di controllo
CEI 62-109 (2000) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza degli apparecchi per la dialisi
peritoneale
CEI 62-110 (2002) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza di apparecchiature radiologiche
per la tomografia computerizzata
CEI 62-111 (2001) Determinazione della filtrazione permanente dei complessi tubo-guaina
CEI 62-112 (2001) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2: prove di
costanza – Apparecchi per radiografia dentale endorale ad esclusione degli apparecchi per radiografia
dentale panoramica
dispense1.doc
35
CEI 62-113 (2001) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2: prove di
costanza – Apparecchi per radioscopia indiretta e radiografia indiretta
CEI 62-114 (2001) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2: prove di
costanza – Apparecchi radiologici per mammografia
CEI 62-115 (2001) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2: prove di
costanza – Apparecchi per radiografia generale diretta
CEI 62-116 (2001) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2: prove di
accettazione – Prestazioni di immagini degli apparecchi radiologici per sistemi radiografici e radioscopici
CEI 62-117 (2001) Sistemi qualità. Dispositivi medici. Prescrizioni particolari per l’applicazione della EN ISO 9003
CEI 62-118 (2001) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza di apparecchi di illuminazione per
uso chirurgico e per la diagnosi
CEI 62-119 (2001) Apparecchi elettromedicali. Prescrizioni particolari di sicurezza per i sistemi di pianificazione del
trattamento in radioterapia
CEI 62-120 (2001) Prove di valutazione e di routine nei reparti di produzione di immagini mediche. Parte 2: prove di
accettazione – Prestazioni del trattamento di immagini degli apparecchi radiologici per uso dentale
CEI 62-121 (2002) Dispositivi medici. Applicazione della gestione dei rischi ai dispositivi medici (ISO 14971:2000)
CEI 62-122 (2002) Guida alle prove di accettazione ed alle verifiche periodiche di sicurezza e/o di prestazione dei dispositivi
medici alimentati da una particolare sorgente di alimentazione
CEI 62-123 (2002) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza degli apparecchi radiologici per
procedure intervenzionali
CEI 62-124 (2002) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza degli apparecchi per la diagnosi e
il monitoraggio medico a ultrasuoni
CEI 62-125 (2002) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza degli apparecchi di monitoraggio
multifunzione dei pazienti
CEI 62-126 (2002) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza per gli apparecchi di fototerapia
intensiva
CEI 62-127 (2002) Apparecchi elettromedicali. Parte 2: Norme particolari per la sicurezza, comprese le prestazioni
essenziali, per i sistemi elettrocardiografi per uso ambulatoriale (Holter)
CEI 62-128 (2002) Guida alle prove d’accettazione ed alle verifiche periodiche di sicurezza e/o di prestazione dei sistemi
elettromedicali
Esistono inoltre anche delle guide elaborate dal CT 62 come supporto tecnico di ausilio alla lettura e alla comprensione
delle norme tecniche, alcune di queste sono:
GUIDA CEI 62-39 (1992): "Apparecchi elettrici per uso estetico, Guida generale per la sicurezza"
GUIDA CEI 62-43 (1993): "Guida all'utilizzo degli apparecchi per elettrochirurgia ad alta frequenza"
GUIDA CEI 62-44 (1993): "Guida per la manutenzione degli apparecchi per l'elettrochirurgia"
GUIDA CEI 62-46(1993): "Guida all'utilizzo dei defibrillatori cardiaci e defibrillatori con monitor incorporato"
GUIDA CEI 62-47 (1993): "Guida per la manutenzione dei defibrillatori cardiaci e defibrillatori con monitor incorporati e
defibrillatori con monitor incorporato"
Il vasto segmento degli apparecchi di laboratorio, inizialmente rientrante nel settore degli apparecchi elettromedicali, è ora
normato dalla CEI EN 61010 (CEI 66-5) del Marzo 2001 e riguarda tutti gli apparecchi di laboratorio che trattano campioni
biologici purché non siano direttamente connessi all’organismo vivente.
Il CT 64, si interessa di tutti gli impianti utilizzatori e pertanto solo come caso particolare di quelli nei locali adibiti ad uso
medico.
Fino a qualche anno fa vigeva la norma nazionale CEI 64-4 sui locali ad uso medico ma ora questa norma è stata abrogata
e i suoi contenuti, sensibilmente modificati anche alla luce di una raccomandazione IEC ha dato luogo alla variante 2 della
CEI 64-8 “Impianti elettrici utilizzatori” che è la norma nazionale più importante per questo settore e coordinata alla
legislazione vigente in Italia (L.46/1990 e dei due decreti attuativi DPR 392/1994 e DM 380/2001 meglio noto come “testo
unico dell’edilizia”).
I contenuti della CEI 64-8 V2 sono le istruzioni per la buona esecuzione, per il corretto esercizio e per le verifiche degli
impianti elettrici in locali adibiti ad uso medico. Esse si applicano integralmente agli ospedali, cliniche ed edifici nei quali
l'uso medico è prevalente. Per quanto è possibile sono valevoli anche per i locali ad uso medico (ambulatori e studi
dispense1.doc
36
professionali), installati in edifici civili. Tali Norme completano le indicazioni generali descritte dal precedente corpo
normativo della CEI 64-8.
Per ulteriori approfondimenti sulla produzione normativa del CEI si rimanda al sito internet www.ceiuni.it
UNI
L'UNI è stato fondato nel 1921 per iniziativa degli industriali meccanici e con la denominazione di "Controllo Generale per
l'Unificazione dell'Industria Meccanica - UNIM". Con il Regio Decreto nø1107/30 fu trasformato in UNI - Ente Nazionale per
l'Unificazione nell'Industria, e ne fu approvato lo statuto.
Nel 1946, per iniziativa di un gruppo di industriali, l'UNI fu riorganizzato ed assunse la struttura di libera Associazione, di cui
fu riconosciuta la personalità giuridica con il DPR n. 1522/55. Esso ha lo scopo di "unificare norme e prescrizioni generali
interessanti sia la produzione sia il suo esito, di definire tipi unificati di materiali, di oggetti, di strumenti e di organi di
macchine, di promuovere la diffusione e l'adozione delle norme unificate".
Per il raggiungimento dei suoi scopi l'UNI provvede:
- ad elaborare progetti o norme di unificazione, valendosi di commissioni tecniche (formate da rappresentanti dei
produttori, dei consumatori interessati alle rispettive norme di unificazione e da tecnici e ricercatori) ed a curarne la
pubblicazione e la diffusione;
- a costituire archivi delle norme di unificazione nazionali ed estere;
- a promuovere studi, pubblicazioni, riunioni, discussioni, esperienze e ricerche che interessano la normazione;
- a promuovere e coordinare le iniziative di carattere scientifico, tecnico-applicativo e culturale che rientrano nel campo
della normazione;
- a mantenere i rapporti ed a collaborare con gli Enti di normazione degli altri paesi, con l'ISO, della quale l'UNI è uno dei
Membri fondatori, e con altri Organismi di normazione a carattere regionale (CEI, CECA, ecc.);
- ad effettuare ogni altra iniziativa che giudichi utile al raggiungimento dei suoi scopi.
Attualmente sono in funzione circa 60 Commissioni Tecniche, articolate in Sottocommissioni e Gruppi di Lavoro con un
totale di 500 organismi con più di 5000 membri.
Nel settore di interesse opera la Commissione Attrezzature ed apparecchiature per uso medicale, composta attualmente da
una trentina di esperti e articolata nelle seguenti Sottocommissioni (SC) o Gruppi di Lavoro (GL), corrispondenti ai Comitati
Tecnici ISO o CEN di seguito indicati:
SC Aghi e siringhe per iniezioni (ISO 84);
SC Apparecchi ed attrezzature per anestesia e rianimazione (ISO 121);
SC Apparecchi di circolazione extracorporea (con GL Emodialisi e GL Cardiochirurgia);
SC Apparecchi per trasfusione ed infusione (ISO 70);
GL Contraccettivi meccanici (ISO 157);
SC Ergonomia (ISO 159);
SC Meccanica medica (CEN 102);
SC Odontotecnica (ISO 106);
SC Protesi chirurgiche (ISO 150);
SC Protesi ortopediche (ISO 168).
Sono state sinora elaborate un centinaio di norme concernenti le apparecchiature, l'arredamento ospedaliero, la biancheria,
i tessuti, i capi di vestiario e gli strumenti con impiego sanitario. Il catalogo delle norme è disponibile in rete all’indirizzo
www.unicei.it
ISO
L'ISO, International Organization for Standardization, è un organismo a carattere privato, con sede a Ginevra, che
raggruppa gli organismi di normazione nazionali di una novantina di paesi.
Gli obiettivi perseguiti dall'ISO sono:
- coordinamento e unificazione delle norme nazionali;
- stabilire norme internazionali fondate sul massimo consenso;
- organizzare lo scambio di informazioni tecniche tra gli istituti membri;
- cooperare con tutte le organizzazioni internazionali aventi interessi comuni nel campo della normativa.
In particolare l'ISO opera in tutti i settori produttivi ad eccezione del settore elettrotecnico, materia di competenza dell'IEC.
La dicotomia tra i due Enti si riscontra in quasi tutti gli enti di normazione a tutti i livelli (mondiale, europeo e nazionale) e si
deve a ragioni di natura storica. In Inghilterra, il BSI svolge attività normativa tanto nel settore generale che nel settore
dispense1.doc
37
elettrotecnico; il DIN (Germania) e l'AFNOR (Francia), pur riconoscendo un'autonomia funzionale rispettivamente al DKE e
all'UTE, detengono la responsabilità dell'insieme dell'attività normativa.
Nelle intenzioni dell'ISO, secondo quanto emerso dall'Assemblea generale tenutasi nel settembre 1988 a Praga, vi è tuttavia
la creazione di un unico grande organismo di normazione a livello mondiale che comprenda anche l'IEC. Sono in atto forme
di collaborazione molto stretta tra le segreterie dei due organismi. La tendenza verso l'unificazione non è da registrare solo
a livello di ISO e IEC ma anche a livello europeo dove la Commissione ha formalmente invitato in CEN, il CENELEC e
l'ETSI a creare un'organizzazione unitaria.
IEC
Lo IEC, con sede a Ginevra è stato fondato nel 1906 per studiare i problemi dell'unificazione, della nomenclatura, delle
prove e del collaudo degli apparecchi e delle macchine elettriche.
Oggi aderiscono alla IEC 44 Enti normatori nel settore elettrico, che comprendono tutti i paesi industrializzati del mondo.
Lo IEC ha lo scopo di facilitare la coordinazione e l'unificazione delle Norme nazionali relative all'elettrotecnica. Per far
fronte a tale scopo pubblica le Raccomandazioni internazionali, predisposte da circa 200 Comitati e Sottocomitati tecnici.
Ciascun Comitato Nazionale può contribuire allo sviluppo delle raccomandazioni sia inviando propri delegati ai Comitati
Tecnici, sia commentando le bozze che vengono fatte circolare in pubblica inchiesta con particolari procedure e scadenze.
La votazione finale per l'approvazione della raccomandazione elaborata è inoltre prerogativa dei Comitati nazionali.
Nel 1966 è stato costituito il Technical Committee 62 (Electrical Equipment in Medical Practice) cui spetta il compito di
preparare raccomandazioni relative alla produzione, all'installazione ed all'impiego delle apparecchiature elettromedicali
utilizzate in campo sanitario (medico, chirurgo, odontoiatrico), con particolare riferimento ai problemi della sicurezza del
paziente e dell'operatore, alle prestazioni funzionali, alle dimensioni, alla terminologia e ai simboli grafici.
CEN
Il CEN è l'organismo cui è affidato il compito di armonizzare le norme in campo europeo. E' stato creato nel 1961, con sede
a Bruxelles, come associazione di tutti gli enti normatori europei: al CEN partecipano infatti anche i membri dell'Efta. Come
già avviene a livello mondiale, il settore elettrotecnico dispone di un organismo di normazione separato, il CENELEC. I due
organismi hanno come principali compiti lo studio, l'elaborazione, l'approvazione e la pubblicazione di norme europee, ed il
collegamento con le organizzazioni internazionali, prima fra tutte l'ISO. La struttura operativa del CEN è del tutto simile a
quella dell'ISO ed è costituita da circa 160 Comitati tecnici.
La domanda di norme messe allo studio presso CEN-CENELEC proviene da tutti gli associati, dalla Commissione delle Ce
o dalla segreteria dell'Efta, oltre che da organizzazioni internazionali o organizzazioni commerciali, professionali, tecniche,
scientifiche a livello europeo. Se lo studio sull'oggetto della domanda di normazione è già stato effettuato o è in corso di
svolgimento presso ISO-IEC, l'orientamento dei lavori CEN-CENELEC sarà verso l'adozione e se necessario verso
l'elaborazione di complementi ai lavori di ISO-IEC.
Il CEN-CENELEC produce varie pubblicazioni che contengono i diversi tipi di norme. L'approvazione è soggetta ad una
procedura di voto ponderato, che assegna ai diversi paesi membri un diverso numero di voti in base all'importanza
economica. I criteri in base ai quali una norma viene approvata sono, secondo il nuovo regolamento CEN-CENELEC
adottato nel 1988, graduati come segue:
a) i voti positivi superano i voti negativi;
b) vi sono almeno 25 voti positivi;
c) vi sono al massimo 22 voti negativi;
d) al massimo tre membri votano negativamente.
Come si può intuire la procedura di voto è estremamente snella e impedisce l'opposizione di singoli paesi nelle questioni di
approvazione. Per i paesi come l'Italia, il cui peso è rilevante, la possibilità di sfruttare la sede CEN-CENELEC per
appoggiare le proprie norme nazionali è molto forte.
La sede CEN-CENELEC risulta essere, anche ai sensi dell'Art.7 della direttiva CEE 83/189, ideale per affrontare con
successo i problemi legati all'armonizzazione delle normative volontarie a livello comunitario.
In base alla suddetta direttiva il CEN viene chiamato a preparare delle proposte di normativa per conto della Commissione.
Tuttavia non sempre la richiesta viene preceduta da una preventiva analisi mirata a verificare l'esistenza di condizioni
politiche favorevoli. Questo comporta lo spostamento in sede CEN di scontri politici la cui soluzione spetterebbe ad altre
sedi.
Quella che segue è la classificazione delle norme:
1) Norma europea En;
2) Documento di armonizzazione Hd;
3) Norma sperimentale Env
dispense1.doc
38
4. IMPIANTI ELETTRICI NEI LOCALI AD USO MEDICO.
4.1 NORME GENERALI E NORME PARTICOLARI
La normativa CEI è caratterizzata in generale da due tipologie di norme: norme generali e norme particolari.
Norma generale
Norma che si propone di stabilire un soddisfacente raggiungimento di un particolare obiettivo per un'ampia categoria di
apparecchi o impianti.
Norma particolare
Norma che per un ben determinato gruppo di apparecchi o impianti stabilisce, rispetto alla Norma Generale, quali articoli
dovranno non essere applicati, modificati o aggiunti.
Nel caso specifico degli impianti elettrici la norma generale è la CEI 64-8: Impianti elettrici utilizzatori a tensione nominale
non superiore a 1000 V in corrente alternata e a 1500 V in corrente continua e la Variante 2 è da considerarsi come norma
particolare per i locali ad uso medico.
La norma CEI 64-8, che come giò detto è la principale norma che regola gli impianti elettrici utilizzatori, è suddivisa nelle
seguenti parti:
CEI 64-8/1: Oggetto, scopo e principi fondamentali
CEI 64-8/2: Definizioni
CEI 64-8/3: Caratteristiche generali
CEI 64-8/4: Prescrizioni per la sicurezza
CEI 64-8/5: Scelta ed installazione dei componenti elettrici
CEI 64-8/6: Verifiche
CEI 64-8/7: Ambienti ed applicazioni particolari
Il motivo principale che ha portato alla stesura della attuale edizione 2003, va ricercato nella costante opera di adeguamento
alla normativa internazionale e, in particolare, europea.
Si ricorda a questo proposito che il TC 64 del CENELEC ha invitato i Comitati Tecnici Nazionali a recepire rapidamente i
Documenti di Armonizzazione in modo da fornire agli operatori del settore un testo di norme impiantistiche il più omogeneo
fra i vari stati membro.
Tuttavia qualora esistano impianti elettrici da realizzarsi in locali ove si richiedano specifici accorgimenti, vedi il caso di locali
ad uso medico, esistono norme particolari che devono comunque essere considerate sempre congiuntamente alla parte
generale della CEI 64-8. Nel caso degli impianti elettrici in locali ad uso medico, la norma particolare è la Variante 2 ovvero
il capitolo 710.
Le prescrizioni del capitolo 710 della Norma CEI 64-8 devono essere applicate integralmente ad ospedali, cliniche ed edifici
ad uso prevalentemente medico, e, per quanto è possibile, anche per i locali ad uso medico (ambulatori e studi
professionali) installati in edifici civili.
4.2 PRESCRIZIONI PER LA SICUREZZA
La sicurezza delle persone e dei beni che possono derivare dall’utilizzo degli impianti elettrici sono studiate nelle condizioni
normali di utilizzo o comunque ragionevoli.
I pericoli provocati dagli impianti elettrici sono essenzialmente costituiti da
- effetti biologici pericolosi all’uomo (folgorazione)
- temperature eccessive (incendi)
la norma CEI 64-8 13 elenca le seguenti protezioni per garantire la sicurezza
Protezione contro i contatti diretti
Le persone devono essere protette contro i pericoli che possono derivare dal contatto con parti attive dell’impianto,
mediante uno dei seguenti metodi:
•
impedendo che la corrente passi attraverso il corpo;
•
limitando la corrente che può attraversare il corpo ad un valore inferiore a quello patofisiologicamente pericoloso.
dispense2.doc
39
Protezione contro i contatti diretti
Le persone devono essere protette contro i pericoli che possono derivare dal contatto con masse in caso di guasto che
provochi la mancanza dell’isolamento, mediante uno dei seguenti metodi:
•
impedendo che la corrente passi attraverso il corpo;
•
limitando la corrente che può attraversare il corpo ad un valore inferiore a quello patofisiologicamente pericoloso;
•
interrompendo automaticamente il circuito in un tempo determinato al verificarsi di un guasto suscettibile di provocare
attraverso il corpo, in contatto con le masse, una corrente almeno uguale a quella pericolosa per il corpo umano.
Protezione contro gli effetti termici
I componenti elettrici, durante il servizio ordinario dell’impianto, devono essere tali da non provocare incendi né provocare
ustioni a persone, purché in assenza di guasti.
Protezione contro le sovracorrenti
Le persone ed i beni devono essere protetti contro le conseguenze dannose di temperature troppo elevate o di sollecitazioni
meccaniche dovute a sovracorrenti che si possano produrre nei conduttori attivi, mediante uno dei seguenti metodi:
•
interruzione automatica della sovracorrente
•
limitazione della sovracorrente massima
Protezione contro le correnti di guasto
I conduttori diversi dai conduttori attivi e qualsiasi altra parte destinati a portare correnti di guasto devono essere in grado di
portare troppo elevate.
Protezione contro le sovratensioni
Le persone ed i beni devono essere protetti contro le conseguenze dannose di un guasto tra parti attive di circuiti alimentati
con tensioni di valore differente.
Le persone ed i beni devono essere protetti contro le conseguenze dannose di sovratensioni che si possono produrre per
altre cause (come per es. per fenomeni atmosferici e sovratensioni di manovra).
Protezione contro gli abbassamenti di tensione
Quando un abbassamento di tensione, o la mancanza ed il successivo ripristino della tensione, possono comportare pericoli
per le persone o per le cose, devono essere prese opportune precauzioni.
4.3 CLASSIFICAZIONE DEI LOCALI
Poiché le caratteristiche e le protezioni occorrenti dipendono dalla specie di locale, vengono date le seguenti nuove
definizioni dei locali.
Locale di gruppo 2
Locale ad uso medico nel quale le parti applicate sono destinate ad essere utilizzate in operazioni chirurgiche, o interventi
intracardiaci, oppure dove il paziente è sottoposto a trattamenti vitali per cui la mancanza dell’alimentazione può comportare
pericolo per la vita.
Locale di gruppo 1
Locale ad uso medico nel quale le parti applicate sono destinate ad essere utilizzate esternamente o anche invasivamente
entro qualsiasi parte del corpo, ad eccezione della zona cardiaca.
Locale di gruppo 0
Locale ad uso medico nel quale non si utilizzano apparecchi elettromedicali con parti applicate.
Nei locali di gruppo 2 il paziente è soggetto al pericolo di microshock, oppure la mancanza dall’alimentazione elettrica
ordinaria può comportare un pericolo per la vita del paziente.
Come già detto il pericolo di microshock si manifesta quando la zona cardiaca del paziente è in diretto contatto elettrico con
l’esterno per mezzo di elettrodi o cateteri pieni di liquido conduttore (ad es. liquido fisiologico) oppure dallo stesso operatore;
sicché aumenta notevolmente il pericolo di fibrillazione ventricolare.
In questo caso, il limite di pericolosità della corrente è di 10µA mentre per la persona in condizioni ordinarie il limite è di
10mA. In altri termini, nel microshock la corrente elettrica è mille volte più pericolosa che in condizioni ordinarie.
dispense2.doc
40
Sono da ritenere di gruppo 2, ad esempio, i locali per anestesia, per chirurgia, per la preparazione alle operazioni, per
risveglio postoperatorio, per l’applicazione di cateteri cardiaci, per cure intensive, per esami angiografici ed emodinamici.
La sala parto, contrariamente a quanto ritenuto dalla vecchia norma non è più assimilata a sala chirurgica, sempre che non
sia utilizzata per interventi chirurgici.
I locali ad uso medico di gruppo 0 sono quelli nei quali non si usano apparecchi elettromedicali con parti applicate (*).
Di fatto, nei locali di gruppo 0 non esiste un maggior rischio elettrico per il paziente, e infatti la norma non indica prescrizioni
aggiuntive rispetto alle norme generali.
In caso di dubbio sulla destinazione del locale non potranno essere più utilizzati apparecchi elettromedicali con parti
applicate e ciò è molto difficile da affermare soprattutto in prospettiva futura.
Tutti gli altri locali di uso medico che non siano di gruppo 2 o 0 sono di gruppo 1.
Le misure di protezione da adottare sull’impianto elettrico sono uguali per i locali di uno stesso gruppo.
4.4 ZONA PAZIENTE
Una grossa novità della nuova norma è l’introduzione della zona paziente definita come qualsiasi volume in cui un paziente
con parti applicate può venire in contatto intenzionale, o non intenzionale, con altri apparecchi elettromedicali o con masse
estranee, direttamente o per mezzo di altre persone in contatto con tali elementi.
Le dimensioni convenzionali della zona paziente sono indicati in fig.3.4.
Fig. 3.4 Zona paziente secondo la norma
CEI 64-8 Capitolo 7.10
Da notare in proposito che, quando il paziente non ha un posto definito, la zona paziente diventa l’inviluppo delle singole
zone relative all’insieme di tutte le possibili posizioni del paziente quando è in contatto con apparecchi elettromedicali
alimentati dalla rete.
Ne segue che la classificazione dei locali ad uso medico e le zone paziente, essendo legate all’uso dei locali, sono
competenze della direzione sanitaria che deve quando meno sottoscrivere le scelte in base alle quali viene progettato
l’impianto elettrico; deve essere inoltre consapevole che variando la destinazione d’uso di un locale gruppo 1 a gruppo 2,
occorre adeguare l’impianto elettrico con tutte le conseguenze del caso.
Va anche detto, che il progettista deve tenere conto dei possibili cambiamenti nel tempo delle esigenze cliniche.
Ad esempio, in una camera di degenza la zona paziente fa capo al letto, poiché gli apparecchi elettromedicali vengono
applicati al paziente quando è sul letto.
Se c’è il testa-letto, il letto può essere spostato di poco ed è opportuno che il progettista tenga conto di quel poco ed è
opportuno che il progettista tenga conto di quel poco nello stabilire la zona paziente.
(*)
Come vedremo più avanti per parte applicata si intende una parte, isolante o metallica, dell’apparecchio destinata in condizioni
ordinarie ad essere portata in contatto con il paziente per ragioni funzionali.
dispense2.doc
41
In un ambulatorio invece dove ci sono diversi apparecchi elettromedicali, è bene che il progettista consideri come zona
paziente tutto il locale, altrimenti lo spostamento o l’introduzione di un nuovo apparecchio elettromedicale con parti applicate
mette in crisi il sistema di protezione.
Lo stesso dicasi tutte le volte che la posizione del letto del paziente nel locale non è fissa, o non è predeterminata in base
all’attività clinica prevista.
4.5 SISTEMI DI DISTRIBUZIONE
I sistemi di distribuzione dell’energia elettrica è la modalità di connessione fra generatore e utenze, i sistemi di distribuzione
sono definiti in funzione del sistema di connessione dei conduttori attivi e del collegamento a terra.
La generazione della BT (220U di fase e 380U concatenata) è quasi sempre ottenuta da trasformatori trifasi il cui
secondario è a stella con centro stella a terra. Il conduttore distribuito del centro stella viene chiamato “neutro” indicato con
N.
Di seguito si riportano i sistemi di distribuzione previsti della Norma CEI 64-8.
4.5.1 Sistemi TN
Il sistema TN ha un punto collegato direttamente a terra mentre le masse dell’impianto sono collegate a quel punto per
mezzo del conduttore di protezione.
Ai nostri scopi si distinguono 2 tipi di sistemi TN, secondo la disposizione dei conduttori di neutro e di protezione:
TN-C: le funzioni di neutro e di protezione sono combinate in un solo conduttore (PEN) come riportato in fig. 4.1.
TN-S: il conduttore di neutro e di protezione sono separati come riportato in fig. 4.2.
Definendo come “anello di guasto” il percorso della corrente a seguito di un guasto, nel caso del sistema TN “anello di
guasto” è costituito esclusivamente da elementi metallici come schematizzato in fig. 4.3 in cui Ιg è la corrente di guasto.
Il valore di Ιg è generalmente pericoloso per cui occorre aprire rapidamente il circuito.
I sistemi di distribuzione TN sono tipici delle grandi utenze (> 100 KW) alle quali l’Ente di erogazione dell’energia favorisce
la media tensione generalmente a 15 KV. Gli ospedali appartengono sicuramente a questa categoria di utenti, o per essi è
ammesso esclusivamente il sistema TN.S.
Fig. 4.1 Sistema TN.C in cui il conduttore di
neutro (N) coincide con il conduttore di
protezione (PE)
Fig.4.2 Sistema TN.S in cui il conduttore di
neutro è separato dal conduttore di
protezione.
dispense2.doc
42
Fig. 4.3 Schema equivalente dell’anello di guasto
(tratteggiato) e corrente di guasto (Ιg) nei
sistemi TN.
4.5.2 Sistema TT
Il sistema TT ha un punto collegato direttamente a terra e le masse dell’impianto collegate ad un impianto di terra
elettricamente indipendente da quello del collegamento a terra del sistema di alimentazione, come riportato in fig.4.4.
L’anello di guasto comprende la terra su una parte del suo percorso come schematizzato in fig. 4.4 in cui Ιg è la corrente di
guasto. Il valore di Ιg è generalmente pericolosa per cui occorre aprire rapidamente il circuito.
Fig. 4.4 Sistema di distribuzione TT
I sistemi di distribuzione TT distribuiscono la tensione 220 V monofase e 380 V trifase e sono tipici delle piccole utenze
(domestiche, commerciali, ecc.).
4.5.3 Sistema ΙT
Nel sistema ΙT tutte le parti attive sono isolate da terra o meglio collegate a terra mediante una impedenza molto alta dovuta
essenzialmente alle capacità parassite C, come riportato in fig.4.5.
In caso di primo guasto, la corrente di guasto è molto piccola, generalmente non pericolosa per le persone e non necessita
l’apertura del circuito.
In caso di un secondo guasto a terra il sistema ΙT si degrada ai sistemi TT o TN visti precedentemente.
Il sistema ΙT presenta le seguenti caratteristiche:
- ha corrente di primo guasto molto piccola, generalmente non pericolosa;
- consente, anche in presenza del primo guasto, di mantenere alimentate le utenze.
La modalità più ricorrente per ottenere un sistema ΙT è il ricorso di un trasformatore in modo tale che l’utenza veda un
generatore non riferito a terra come schematizzato in fig. 4.6.
A tale trasformatore a cui è affidato il compito di realizzare un circuito isolato, si richiedono caratteristiche di affidabilità molto
superiori ad un normale trasformatore.
4.5.4 Sistemi ΙT-M
Nei locali di gruppo 2, ovvero con rischio di microshock, l’unico sistema di alimentazione previsto è il sistema ΙT ma con
alcune peculiarità tali da essere denominato sistema ΙT-Medicale, ovvero sistema ΙT-M.
dispense2.doc
43
Fig. 4.5 Sistema di distribuzione IT e relativo
anello di guasto
Fig.4.6 Sistema IT ottenuto mediante
trasformatore di isolamento
Infatti, il sistema elettrico ΙT-M è isolato da terra (Ι) le masse sono collegate a terra (T) e dunque è un sistema ΙT, ma un po’
particolare, perché il trasformatore deve essere di isolamento (fig.4.7), l’estensione dei circuiti alimentati dal trasformatore
deve essere limitata ad un contenuto gruppo di utenze, occorre inoltre un dispositivo di controllo dell’isolamento continuativo
inserito (Fig.4.9).
Per il trasformatore di isolamento non esiste ancora una norma europea, tuttavia le principali caratteristiche sono:
•
Potenza massima di 10 KVA e minima di 0,5 KVA
•
Può essere mono o trifase ma la tensione massima al secondario è di 250V
•
Deve riportare in targa il simbolo di fig. 4.8
•
È consigliato ma non obbligatorio un dispositivo di sorveglianza del sovraccarico e della sovratemperatura (termistore)
•
Necessita di un dispositivo di controllo dell’isolamento a meno che alimenti un solo apparecchio.
•
L’isolamento fra primario e secondario deve essere doppio o rinforzato oppure esservi uno schermo metallico collegato
a terra
•
La resistenza di dispersione verso terra del circuito isolato (trasformatore d’isolamente + linea + apparecchi) deve
essere superiore a 50 kΩ a cui corrisponde una corrente di circa 2 mA.
Il dispositivo di controllo dell’isolamento, il cui schema di principio è riportato in fig.4.9, deve misurare la sola componente
resistiva dell’impedenza e possedere i seguenti requisiti:
• Impedenza interna di 100 kΩ
• Tensione di prova non superiore a 25 Vcc (misura della sola componente resistiva dell’impedenza)
• Corrente di prova non superiore a 1 mAcc anche in caso di guasto
• Il dispositivo non può essere sconnesso
• L’indicazione di perdita d’isolamento deve avvenire quando la resistenza d’isolamento scende sotto i 50 kΩ e deve
azionare una luce gialla sempre accesa finché sussiste la perdita dell’isolamento e un segnalatore acustico tacitabile
• Disporre di un pulsante di prova che verifica il buon funzionamento.
Il sistema IT-M deve alimentare tutti i carichi elettrici (essenzialmente apparecchi biomedici) dell’intorno del paziente nei
locali di gruppo 2 ad eccezione degli apparecchi di radiologici o altri apparecchi con potenza nominale superiore a 5kVA
(alcuni laser chirurgici) per i quali è ritenuto sufficiente la protezione con interruttore differenziale di 30 mA.
dispense2.doc
44
Potenza
3
kVa
A (mm)
200
5
kVA
250
7,5
kVaE
250
10
kVA
300
B (mm) 125
C (mm) 330
D (mm) 110
E (mm)
85
Peso (kg) 21
150
380
110
115
38,5
160
380
110
125
43,5
180
380
110
150
49
Fig. 4.7 Schema costruttivo di un trasformatore di isolamento
Fig.4.8 Simbolo del trasformatore d’isolamento ad uso medicale
Fig.4.9 Schema di principio del dispositivo di controllo dell’isolamento
4.6 PROTEZIONE CONTRO I CONTATTI DIRETTI
Si definisce contatto diretto il contatto con una parte di circuito ordinariamente sotto tensione, detta parte attiva come ad
esempio un conduttore nudo, la virola di una lampadina, etc.
dispense2.doc
45
I sistemi di protezione contro i contatti diretti consistono nell'insieme delle misure intese a proteggere le persone contro i
pericoli risultanti dal contatto con parti attive.
La protezione può essere di due tipologie, totale o parziale.
La protezione parziale protegge solo contro il rischio di contatto accidentale, pertanto essa non esclude la possibilità di un
contatto voluto di una persona con le parti in tensione, mentre la protezione totale la esclude, a meno di ricorrere a
particolari "attrezzi".
Le misure di protezione mediante isolamento delle parti attive e mediante involucri e barriere sono intese a fornire una
protezione totale contro i contatti diretti, mentre le misure di protezione mediante ostacoli e mediante distanziamento sono
intese a fornire una protezione parziale.
Il grado di protezione è infatti classificato per mezzo di una sigla composta da "IP" seguito da due cifre, come riportato in
fig.4.10.
Il primo numero indica la protezione contro la penetrazione di corpi solidi e la norma nel dimensionare gli attrezzi di prova ha
fatto riferimento a reali situazioni. Infatti il grado di protezione
IP1x con sfera di prova di 50 mm di diametro simula il dorso della mano
IP2x Con il cilindro di prova 90x12,5 mm simula un dito
IP3x con cilindro di prova di 2,5 mm simula il giravite
IP4x con cilindro di prova di 1 mm simula il filo
IP4x e IP5x si riferisce a polvere standard
La seconda cifra indica la penetrazione dell’acqua. Anche in questo caso il riferimento a circostanze reali è evidente. Infatti:
IPx3
IPx5
IPx6
IPx7
IPx8
protetto contro la pioggia battuta dal vento
getti d’acqua
ondata
immersione a bassa profondità (1m)
sommersione ad alta profondità (10 m)
Fig. 4.10 Gradi di protezione contro la
penetrazione di corpi solidi e
corpi liquidi
dispense2.doc
46
4.7 PROTEZIONE CONTRO I CONTATTI INDIRETTI
Può accadere che una parte metallica ordinariamente non in tensione, ad esempio l'involucro conduttore di un apparecchio
elettrico, vada sotto tensione per un difetto di isolamento: questo caso viene chiamato contatto indiretto.
Si dicono sistemi di protezione tutti quegli accorgimenti idonei ad evitare il contatto indiretto, ed a rendere gli apparecchi non
pericolosi.
E' consuetudine distinguere i vari sistemi di protezione in:
-
protezione passiva: non provoca l'interruzione del circuito e può essere realizzata ad esempio con doppio isolamento o
adottando una bassissima tensione di sicurezza.
protezione attiva: provoca l'interruzione del circuito.
I dispositivi di protezione attiva sono raggruppati nelle seguenti due categorie:
− Dispositivi a tempo inverso (interruttore magnetotermico e fusibile)
− Interruttore differenziale
Interruttore magnetotermico
E’ il dispositivo più usato che apre il circuito quando la corrente supera un determinato valore.
Concettualmente è realizzato con due dispositivi in serie e precisamente:
− sensibile alle correnti poco superiori al valore nominale, mediante un bimetallo, detto a funzionamento “termico”
− sensibile alle correnti molto superiori al valore normale (tipicamente il corto circuito) rilevate dal campo magnetico
indotto in un toro di ferrite, detto a “funzionamento magnetico”.
Lo schema costruttivo di un interruttore magnetotermico è riportato in fig. 4.11 nella quale:
I = corrente da interrompere quando supera il valore prefissato
1 = contattore attraverso cui passa la corrente
2 = molla caricata alla chiusura del contattore
3 = dispositivo di sgancio della mella che se azionato comporta l’apertura del contattore
4 = bimetallo (comportamento termico)
5 = toro di ferrite (comportamento magnetico)
6 = avvolgimento che genera una ddp dipendente da I
7 = bobina che aziona lo sgancio della molla alimentata dalla ddp generata da “6”
La caratteristica corrente di interruzione e tempo di intervento è riportato in fig. 4.12 nella quale è indicato l’intervallo in cui la
caratteristica di tutti i dispositivi di determinata marca e modello vi rientrano.
La norma di questi dispositivi (CEI 23-3) fissa delle porte in cui la caratteristica corente-tempo deve passare. Dette porte
sono 2 per la parte termica e comune a tutti i dispositivi fino ad un certo limite di corrente (32 e 64A) e una sola per la parte
magnetica che però può assumere tre valori contraddistinti con le lettere B, C, D.
Fig. 4.11: Schema costruttivo di un interruttore magnetotermico
In dettaglio i valori delle porte sono:
dispense2.doc
47
1° porta:
2° porta:
3° porta:
tempo di intervento 1 ora;
corrente minima di intervento 1,13 della corrente normale (In);
corrente massimo di intervento 1,45 In
corrente di intervento 2,25 In;
tempo minimo di intervento 1 s;
tempo massimo di intervento 30 s
tempo di intervento 0,1 s;
Range di corrente di intervento
Tipo B
da 3 a 5 In
Tipo C
da 5 a 10 In
Tipo D
da 10 a 20 In
Il ritardo dell’intervento magnetico è giustificato da alcuni carichi che presentano rilevanti correnti di spunto come ad
esempio i trasformatori (corrente magnetizzante) le lampade alogene (bassa resistenza del filamento a freddo), ecc.
Fig 4.12 Caratteristica di intervento di un
interruttore magnetotermico
I = corrente effettiva
In = corrente nominale dell’interruttore
Fusibile
I/In
Il fusibile è stato storicamente il primo dispositivo adattato per interrompere le correnti eccessive.
Ancor oggi viene usato soprattutto per la peculiarità della sua caratteristica corrente-tempo che per valori molto alti di
corrente agisce in tempi sensibilmente inferiori a quelli del magnetotermico.
Anche per i fusibili vi sono quelli a intervento “ritardato”.
La caratteristica tipica di un fusibile è riportata in figura 4.13 dove in sovrimpressione è riportata la caratteristica di un
magnetotermico.
dispense2.doc
48
Fig. 4.13 Caratteristica di intervento corrente-tempo del
fusibile (1) e del magnetotermico (2) aventi la
stessa corrente nominale In
Interruttore differenziale
L'interruttore differenziale è un dispositivo di interruzione della corrente elettrica, che agisce quando la differenza fra le
correnti, che fluiscono nei conduttori di rete, supera un determinato valore.
Gli interruttori differenziali oggi più diffusi agiscono per correnti differenziali di 30 mA, ed hanno tempi di intervento di 30 ms.
Il dispositivo aumenta notevolmente la sicurezza di un impianto, in quanto limita a 30 mA la massima corrente che può fluire
in un soggetto, nel caso di contatto diretto o indiretto.
Per valutare l'eventuale pericolosità di questa corrente, si consideri la fig.4.14, su cui è stata disegnata la zona di intervento
del dispositivo differenziale. Come si può vedere, le zone relative al maggior pericolo non sono mai raggiungibili.
Lo schema di principio di un interruttore differenziale è rappresentato in fig.4.15.
Esso è costituito da un toro di ferrite in cui passano i conduttori di fase. Se le correnti che percorrono ciascun conduttore
sono esattamente uguali e di segno inverso, il campo magnetico indotto nel toro è nullo e nessuna tensione si creerà
sull'avvolgimento.
Se parte della corrente, che fluisce in un conduttore, si disperde e non ritorna attraverso l'altro conduttore, il campo
magnetico indotto nel toro non sarà più nullo e si genererà una tensione ai capi dell'avvolgimento. Tale tensione azionerà
un solenoide e, mediante un organo meccanico, si apriranno gli interruttori interrompendo quindi la corrente.
Sono disponibili anche interruttori differenziali allo stato solido, aventi correnti differenziali di intervento di 5 mA. Lo schema
di principio dei suddetti interruttori è riportato in fig.4.16.
Fig.4.14 Curva di pericolosità della corrente a 50 Hz
(IEC 479)
(1) Assenza di reazioni nel corpo umano
(2) Nessun effetto fisiologico pericoloso
(3) Possibili effetti patofisiologici reversibili
senza fibrillazione ventricolare
(4) Probabile fibrillazione ventricolare
A Caratteristica di un differenziale
dispense2.doc
49
Fig.4.15 Schema di principio di un interruttore
differenziale a funzionamento magnetomeccanico (≥30mA)
Fig.4.16 Schema di principio di un interruttore
differenziale di tipo elettronico (10 mA)
I sistemi di protezione contro i contatti indiretti sono:
a) Protezione mediante bassissima tensione
Il concetto alla base di questo tipo di protezione è quello di utilizzare una tensione di per sé sicura. In questo caso la
protezione è combinata contro i contatti diretti e indiretti.
Da quanto già accennato le tensioni ritenute sicure nei casi ordinari sono di 50V efficaci in corrente alternata e di 120V in
corrente continua.
Nei locali ad uso medico i valori sicuri sono ridotti a metà.
Se la bassissima tensione è ottenuta mediante trasformatore da una tensione più alta (tipicamente la rete a 220V) è
necessario che il trasformatore sia realizzato con accorgimenti particolari tali da conferirgli una elevata affidabilità. In questo
caso il trasformatore è chiamato “di sicurezza” ed è normato dalla norma europea CEI EN 61558.2-6 (CEI 96-7).
Sono definiti vari sistemi a bassissima tensione e precisamente:
SELV:
bassissima tensione di sicurezza
PELV:
bassissima tensione di protezione
FELV:
bassissima tensione di funzionamento
a seconda dell’utilizzo dei vari sistemi.
dispense2.doc
50
La caratteristica essenziale di questi sistemi è che il circuito isolato è separato da qualsiasi altro circuito mediante:
conduttori fisicamente lontani, con isolamento principale ed una guaina isolante, o con uno schermo guaina metallica messa
a terra.
b) Protezione mediante isolamento doppio o rinforzato
Impedire qualsiasi contatto con parti attive è ottenuto ricoprendo in modo amovibile le parti sotto tensione da isolante tale da
resistere alle normali sollecitazioni meccaniche, fisiche e chimiche. A questo isolamento si dà il nome di isolamento
funzionale. Quando l’isolamento funzionale viene aumentato si parla di:
ƒ
isolamento doppio
ƒ
isolamento rinforzato
quando è previsto in aggiunta all’isolante fondamentale un secondo isolamento di pari
efficacia separato da quello fondamentale
quando c’è un unico sistema di isolamento di dimensione maggiorata tale da offrire un
grado di protezione contro i contatti elettrici equivalente al doppio dell’isolamento
funzionale
Il caso di guasto considerato è la perdita del solo isolamento funzionale, ma in questo caso la protezione al contatto indiretto
è garantito dal secondo isolamento equivalente a quello funzionale.
c) Protezione mediante interruzione automatica dell’alimentazione
In questo caso per prevenire effetti pericolosi dell’energia elettrica sull’uomo, si interrompe l’alimentazione entro tempi
prestabiliti.
Il dispositivo di protezione deve interrompere automaticamente l’alimentazione al circuito in un tempo così piccolo da non
produrre effetti fisiologici dannosi in una persona in contatto con parti ad una tensione di contatto superiore alla tensione di
contatto limite convenzionale (50 o 25Vac) indicate dalle norme come UL.
Le caratteristiche dell’interruzione dipende dal dispositivo usato e dal tipo di sistema di alimentazione.
Sistema TN
In questo caso la protezione è garantita dalla tempestività dell’interruzione.
Il dispositivo di protezione deve soddisfare le seguenti due condizioni:
− Corrente normale Ia che provoca l’interruzione del circuito inferiore alla corrente di guasto, ovvero
Uo
Ia ≤ ---------ZZ
dove con Uo è indicata la tensione normale del circuito e ZZ l’impedenza dell’anello di guasto
−
Tempo massimo di intervento pari a
Uo (V)
230
400
t (s)
0,4
0,2
In questo caso tutte le masse protette contro i contatti indiretti dello stesso dispositivo devono essere collegate allo stesso
impianto di terra.
Sistema TT
Nel sistema TT un guasto tra una fase ed una massa provoca la circolazione di una corrente di guasto che dipende
dall’impedenza dell’anello di guasto come riportato in fig. 4.17. L’impedenza dell’anello di guasto è essenzialmente costituita
dalla resistenza RT che è verosimilmente la più alta e che è l’unica che genera la tensione di contatto e quindi determina la
sicurezza del paziente.
Deve essere soddisfatta la condizione
UL
RT ≤ --------Ia
dove
− UL è la tensione ritenuta sicura, 50 Vac nei casi normali ma 25 Vac nel caso di macroshock nei locali ad uso medico
− Ia è la corrente che provoca il funzionamento automatico del dispositivo di protezione in ampere
dispense2.doc
51
Fig.4.17 Protezione delò contatto
indiretto nel sistema TT
Il valore Ia varia enormemente in funzione dei dispositivi di protezione, che sono o dispositivi a tempo inverso
(magnetotermici o fusibili) oppure Interruttori differenziali.
Nel caso di dispositivi a tempo inverso Ia deve essere la corrente che ne provoca il funzionamento a 5 s.
Questo valore è convenzionale, facilissimo da determinare nei casi pratici (tutti i costruttori di dispositivi forniscono le
caratteristiche corrente-tempo) e tiene conto di tutti i molti parametri che influenzano la sicurezza dell’operatore. Il valore di
5 s non è da intendersi come tempo di intervento del dispositivo (che è generalmente molto inferiore) bensì come valore
puramente convenzionale indicato dalla norma per determinare il valore di corrente per il quale la ragionevole sicurezza è
garantita.
Dispositivi a tempo inverso
Effettuando una semplice verifica, ad esempio su un piccolo carico protetto con un interruttore magnetotermico con 32 A di
In, dalla caratteristica tipo di fig.4.12 si vede che la corrente a 5s massima è di circa 200 A da cui
25 V
RT ≤ ------- ≤ 0,125 Ω
200 A
valore questo bassissimo e pressoché impossibile da rispettare nei casi reali. Ne segue che l’interruttore magnetotermico e
anche il fusibile non sono praticamente sistemi idonei per proteggere dal contatto indiretto.
Interruttore differenziale
Nel caso si adotti un interruttore differenziale, la Ia diventa la corrente differenziale nominale di intervento del dispositivo,
che la Norma CEI 64-8 prevede essere non superiore a 30 mA.
L'utilizzo dell'interruttore differenziale permette quindi di realizzare un impianto di terra con una RT di valore superiore
rispetto il caso precedente e quindi facilmente ottenibile.
In questo caso il valore numerico di RT è:
25V
RT ≤ ------- ≤ 830 Ω
30mA
Tale valore è ottenibile praticamente con qualsiasi tipologia di dispersore di terra.
Ne segue che l’interruttore differenziale è il dispositivo che protegge dal contatto indiretto praticamente in tutti i casi; da cui
la generalizzata raccomandazione di usarlo.
d) Sistema isolato
Nei sistemi IT le parti attive sono isolate da terra o meglio “vedono” verso terra una alta impedenza. Nel caso di un singolo
guasto a terra la corrente di guasto è quindi debole e non è necessario interrompere il circuito. La mancanza di interruzione
dell’alimentazione dopo un primo guasto consente la continuità dell’esercizio in sicurezza, caratteristica questa
particolarmente utile nelle alimentazioni di emergenza e nell’alimentazione degli apparecchi elettromedicali nei locali di
gruppo 2.
dispense2.doc
52
Solo in presenza di un secondo guasto il sistema si degrada ad un sistema del tipo TN o TT per cui occorre interrompere
l’alimentazione. E’ necessario pertanto evitare il secondo guasto riparando tempestivamente il primo guasto appena si
manifesta.
Allo scopo di poter eliminare il primo guasto il più brevemente possibile si adotta il dispositivo di controllo dell’isolamento
che segnala la presenza del primo guasto.
Il sistema IT-M è l’unico sistema di protezione al contatto indiretto in caso di rischio di microshock e quindi previsto nei locali
di gruppo 2 ove si prevede il contatto diretto cardiaco.
In queste circostanze la tensione di contatto sicura, come già visto, è di 10 mV valore questo impossibile da garantire con
un semplice sistema IT allorché di tipo medicale.
E’ necessario proteggerci anche dalla differenza di potenziale del conduttore di protezione connesso a terra generata dalle
correnti di guasto o di dispersione comunque o dovunque generate anche fuori dai locali di uso medico.
Questo pericolo, potenzialmente mortale, si manifesta anche in assenza di guasti degli apparecchi elettromedicali connessi
al paziente nei locali ad uso medico, come schematizzato in fig. 4.18 dove sono indicati due generici apparecchi di cui il
paziente tocca, anche indirettamente mediante Z, gli involucri.
La differenza di potenziale a cui è sottoposto il paziente è pari a R • I il cui valore masssimo, in totale ossequio alle norme
viste precedentemente, può raggiungere nei locali ad uso medico ben 25 V, valore ovviamente incompatibile con la
sicurezza del paziente.
Anche se si osserva che il valore di 25V costituisce un valore limite, si può comunque osservare che la tensione di contatto
per il paziente è realisticamente sempre molto superiore al valore di sicurezza di 10mV. Del resto non si può sperare di
raggiungere detto valore sicuro diminuendo la R perché oltre un certo valore non è possibile scendere se non altro per le
resistenze di contatto.
L’abbattimento di tale tensione di contatto la si ottiene con il nodo equipotenziale schematizzato in fig. 4.19 in cui tutte le
masse sono allo stesso potenziale anche se diverse da quello di terra.
Si può notare che il potenziale di terra, nell’interno del paziente, dovuto ad una generica tubazione, è qui molto pericoloso,
poiché potrebbe presentare una differenza di potenziale verso il nodo equipotenziale fino a 25V al massimo.
La norma CEI 64-8 all’articolo 710.413.1.6.1 prescrive che in ciascun locale di gruppo 2 e 1 deve essere installato un nodo
equipotenziale a cui siano collegate le seguenti parti situate, o che possono entrare, nella zona paziente:
ƒ masse (conduttori di protezione);
ƒ masse estranee (conduttori equipotenziali);
ƒ schermi, se installati, contro le interferenze elettriche;
ƒ eventuali griglie conduttrici nel pavimento (armature dei solai);
ƒ l’eventuale schermo metallico del trasformatore di isolamento.
La sezione nominale dei conduttori equipotenziali non deve essere inferiore a 6 mm2 in rame.
La “massa” viene definita dalla norma come “parte conduttrice di un componente elettrico che può essere toccata e che non
è in tensione in condizioni ordinarie, ma che può andare in tensione in condizioni di guasto. Nota: una parte conduttrice che
può andare in tensione solo perché è in contatto con una massa non è da considerare una massa.”
Il termine massa designa essenzialmente le parti conduttrici accessibili facenti parte dell’impianto elettrico e degli
apparecchi utilizzatori separate dalle parti attive solo con isolamento principale. Il guasto si riferisce pertanto all’isolamento
principale.
Una parte metallica è considerata accessibile non solo quando è a portata di mano, ma anche quando può venire toccata
dopo la rimozione di involucri o barriere senza l’uso di un attrezzo.
Viene definita “massa estranea” la “parte conduttrice non facente parte dell’impianto elettrico in grado di introdurre un
potenziale, generalmente il potenziale di terra.”
Esempi di masse estranee che introducono il potenziale di terra sono:
ƒ elementi metallici facenti parte di strutture di edifici;
ƒ condutture metalliche di gas, acqua e per riscaldamento.
Occorre valutare l’impedenza che le masse estranee presentano verso terra poiché senza questa valutazione tutti gli oggetti
metallici sarebbero masse estranee se non altro per le capacità parassiti.
La norma fissa i valori sotto i quali si configura la massa estranea. Essi sono:
Caso normale: Resistenza (non impedenza capacitiva) ≤ 1.000 Ω
Zootenia e cantieri in costruzione (ove i lavoratori possono sudare e dove il lavoro si può svolgere in ambiente umido):
Resistenza ≤ 200 Ω
Locali ad uso medico di gruppo 2 con rischio di microshock: Resistenza ≤ 0,5 MΩ. Questo valore nasce dalla
considerazione che la massima tensione di contatto è 25V e la corrente di dispersione nel paziente ritenuta abbastanza
sicura (primo guasto) degli apparecchi elettromedicali di tipo CF (contatto diretto cardiaco) è di 50 μA (fig.5.8)
Locali ad uso medico di gruppo 1 con rischio di macroshock: Resistenza ≤ 200 Ω simile all’ambiente umido
dispense2.doc
53
Fig. 4.18 Esempio di errata equalizzazione del potenziale
Fig. 4.19 Esempio di corretta equalizzazione del potenziale
La norma raccomanda di collegare i tavoli operatori, a posa fissa anche se non elettrici, al conduttore equipotenziale, in
quanto ipotizza che essi possano venire in contatto con le armature di acciaio delle strutture di cemento armato.
La norma prescrive, solo per i locali del gruppo 2, che la resistenza dei conduttori e delle connessioni, fra il nodo
equipotenziale e le masse o masse estranee, non deve superare 0,2 Ω.
Il nodo equipotenziale deve essere posto dentro o vicino al locale ad uso medico e deve essere collegato al conduttore
principale di protezione, con un conduttore di sezione almeno equivalente a quella del conduttore di sezione più elevata
collegato al nodo stesso. Le connessioni devono essere disposte in modo che esse siano chiaramente identificabili ed
accessibili ed in grado di essere scollegate individualmente.
dispense2.doc
54
Si può concludere che l’unico sistema di protezione contro i contatti indiretti consentito nei locali di gruppo 2 con rischio di
microshock è il circuito isolato medicale (IT-M) abbinato al nodo equipotenziale mentre nei locali di gruppo 1 con rischio di
macroshock il più usato sistema di protezione è l’interruttore differenziale a 30 mA abbinato al nodo equipotenziale.
4.8 PROTEZIONE CONTRO LE SOVRACCORRENTI
La sovraccorrente, in un circuito correttamente progettato, è definita da una corrente superiore alla portata Iz di un
conduttore.
La portata Iz è quindi la massima corrente che un conduttore può trasportare in regime permanente, senza che la sua
temperatura superi i valori massimi ammessi dal tipo di isolante impiegato.
Infatti, il materiale isolante che riveste il conduttore è l'elemento debole che risente particolarmente della temperatura e che
si deteriora se si superano i limiti fissati dal costruttore.
Ogni materiale isolante ha una sua caratteristica temperatura di funzionamento che non deve essere superata in servizio
ordinario per garantire al cavo una vita media che si intende, in linea di massima, compresa fra i 20 ed i 30 anni, tenendo
conto degli inevitabili riscaldamenti anomali causati da guasti, durante il periodo di esercizio.
Ricordiamo che la temperatura limite, di esercizio continuativo, per i materiali isolanti più comuni è di 70C per il cloruro di
polivinile (PVC) e per il politene termoplastico, mentre è di 85 o 90C per le miscele a base di etilenpropilene (gomma).
Un elemento particolarmente importante da tenere sempre presente è la temperatura ambientale alla quale il cavo si trova
nella condizione di assenza di corrente.
Appare evidente che tanto più elevata sarà la temperatura ambiente, quanto minore sarà la corrente che potrà
attraversare il conduttore; al limite, se un conduttore con isolante in PVC si trovasse in un ambiente ad una temperatura di
70C, lo stesso conduttore non potrebbe essere utilizzato, in quanto anche una corrente di piccola entità farebbe superare al
conduttore la temperatura limite e quindi lo porterebbe in una condizione di sovratemperatura.
Qualora in un conduttore elettrico si superino le condizioni nominali di funzionamento, è necessario intervenire con i mezzi
opportuni affinché si apra il circuito elettrico nei tempi adeguati, in modo da non far raggiungere all'isolante, ai collegamenti,
ai terminali o all'ambiente esterno, temperature pericolose, tali da provocare situazioni che potrebbero evolvere in effetti
dannosi per le persone e per le cose (incendi).
Si parla di “sovraccarico” quando la corrente I è poco superiore a In; si parla di “corto circuito” quando la corrente I è molte
volte il valore di In.
Il sovraccarico interessa la parte termica degli interruttori magnetotermici mentre il corto circuito interessa la parte
magnetica.
a) Sovraccarico
Per un corretto abbinamento fra dispositivo di protezione e circuito occorre che vengano rispettate le condizioni
schematizzate in fig.4.20 in cui:
Fig.4.20 Condizioni di corretto abbinamento
fra dispositivo di protezione e circuito
Ib
è la corrente di impiego ovvero la massima corrente richiesta del carico.
Tale corrente, nella maggior parte dei casi, è difficile da determinare, soprattutto negli impianti complessi ed è quindi
necessaria una notevole preparazione tecnica ed un'esperienza professionale specifica.
dispense2.doc
55
Iz
-
è la portata del cavo definita dal massimo valore di corrente che una conduttura può trasportare in regime permanente
senza superare i limiti di temperatura massimi ammessi. Iz dipende dalla sezione del conduttore, dal tipo di isolante e
dalla posa.
Il valore di 1,45 Iz è stato definito in sede internazionale e rappresenta la massima sovraccaricabilità dei conduttori
entro il tempo convenzionale di 1 ora senza deteriorarne gli isolanti.
Oltre alle caratteristiche del circuito, è necessario conoscere anche le caratteristiche di funzionamento dei dispositivi di
protezione definiti da:
In è la corrente nominale (per i dispositivi di protezione regolabile la In sarà il valore della corrente regolata), definita da
quel valore di corrente che l'apparecchio può portare continuativamente senza che le sue parti superino le temperature
stabilite dalle specifiche norme
If
è la corrente convenzionale di intervento, definita da quel valore di corrente che determina l'intervento del dispositivo di
protezione entro un intervallo di tempo convenzionale di 1 ora.
Questi valori caratteristici sono forniti dai costruttori e rilevabili dalle documentazioni tecniche specifiche.
Ovviamente la scelta delle caratteristiche delle protezioni, nonché del dispositivo più idoneo dovrà essere fatta dal
progettista, valutando opportunamente tutti i parametri sia di funzionalità che di costo, sia di installazione che di esercizio.
Analiticamente la condizione di corretto abbinamento fra circuito e dispositivo di protezione è:
Ib ≤ In ≤ Iz
(1)
If ≤ 1,45 Iz
(2)
Nella condizione 1) si nota che la corrente Ib non dovrà superare la corrente nominale del dispositivo di protezione e
quest'ultima non dovrà superare la portata del conduttore.
Nella condizione 2) si nota che la corrente convenzionale If non dovrà superare il valore del 45% della portata del
conduttore per il tempo convenzionale.
b) Corto Circuito
Ogni dispositivo di protezione contro i cortocircuiti deve rispondere alle due seguenti condizioni:
• Il potere di interruzione non deve essere inferiore alla corrente di cortocircuito presunta nel punto di installazione
• Tutte le correnti provocate da un cortocircuito che si presenti in un punto qualsiasi del circuito devono essere interrotte
in un tempo non superiore a quello che porta i conduttori alla temperatura limite ammissibile.
La norma indica, in prima approssimazione, questo tempo limite come:
S
√t = K --I
dove
t = durata in secondi
S = sezione in mm2
I = corrente effettiva di cortocircuito in ampere, espressa in valore efficace;
K = 115 per i conduttori in rame isolati con PVC;
143 per i conduttori in rame isolati con gomma etilenpropilenica e propilene reticolato
La formula indicata suppone che il riscaldamento dei conduttori, durante il passaggio della corrente di cortocircuito, sia
adiabatico.
La formula è meglio rappresentata nel modo seguente:
(I2 t) ≤ K2 S2
dove (I2 t) è l’integrale di Jopule per la durata del cortocircuito (in A2 s).
dispense2.doc
56
(I2
Per i cortocircuiti di durata superiore ad alcuni periodi come nella maggior parte dei casi, il valore di
t) si può ottenere
assumendo per I il valore efficace in ampere della corrente di cortocircuito e per t il tempo di intervento del dispositivo per
quella corrente di cortocircuito che è dell’ordine della frazione di secondi.
La formula deve essere verificata per un cortocircuito che si produca in un punto qualsiasi della conduttura protetta. I valori
della costante K sono stati determinati sulla base dei valori delle temperature massime ammesse durante il servizio
ordinario e durante il cortocircuito per l’isolamento dei cavi.
4.9 COORDINAMENTO DELLE PROTEZIONI
Un impianto è costituito da tanti rami ognuno protetto secondo lo schema monofilare di fig. 4.21.
Il dispositivo A avrà ovviamente una corrente nominale INA maggiore della corrente nominale INB del dispositivo B.
Nell’ipotesi che i dispositivi A e B siano interruttori magnetotermici le curve di intervento sono riportate in fig.4.22
dispense2.doc
Fig.4.21
Esempio di più magnetotermici variamente
posizionati
Fig.4.22
Curva corrente-tempo degli interruttori
magnetotermici A e B
57
Fig.4.23
Curva corrente-tempo nel caso di fusibile
(B) e magnetotermico (A)
Perciò con riferimento alla figura 4.22, un apparecchio di protezione B si dice selettivo rispetto al dispositivo A posto a
monte, se per una gamma di sovracorrenti che si producono a valle di B, solo il dispositivo B interviene.
Il problema fondamentale è quello perciò di coordinare due o più dispositivi di protezione posti l'uno a valle dell'altro, in
modo da ottenere una certa selettività nell'intervento.
Nel caso di sovraccarichi le protezioni sono sicuramente coordinate, mentre nel caso di cortocircuiti (correnti molto superiori
della corrente nominale) il coordinamento è garantito purché la corrente di corto circuito sia inferiore alla corrente di
intervento magnetico di A (IMA). Infatti per correnti di cortocircuito superiori a IMA non si può sapere quale magnetotermico
intervenga.
In questi casi può essere utile adottare anziché il magnetotermico B un fusibile di pari valore nominale la cui curva correntetempo è riportata in fig. 4.23.
In questo caso il coordinamento delle protezioni è sempre garantito per qualsiasi valore di corrente di cortocircuito.
4.10 SORGENTI AUSILIARIE DI ENERGIA ELETTRICA
4.10.1 Problematiche
In molti casi generali (sicurezza, servizi essenziali, etc) e in ambito sanitario, necessita la continuità di esercizio di alcuni
apparecchi sia in caso di alcuni guasti che di black-out.
Abbiamo già visto come l’alimentazione isolata (IT-M) garantisce il funzionamento in sicurezza di un apparecchio anche in
caso di corto circuito verso terra.
Per quanto riguarda la continuità di esercizio durante il black-out occorre disporre di sorgenti ausiliarie di energia elettrica.
La scelta del tipo di sorgente ausiliaria dipende da:
•
•
•
Operatività delle utenze
Tipologia della utenza
Tipologie disponibili per le sorgenti ausiliarie
a) Operatività delle utenze
Le utenze da garantire in caso di blach-out si possono raggruppare in due classi:
−
Utenze di sicurezza
dispense2.doc
a cui è affidata la vita delle persone e in particolare del paziente.
Alcune di queste utenze di sicurezza sono indicate da norme o leggi come ad esempio: la luce
di fuga, i rilevatori d’incendio, ecc.
Altre devono essere individuate dal gestore del processo congiuntamente con il progettista
come ad esempio: l’illuminazione funzionale di alcuni locali critici (pronto soccorso,
rianimazioni, ecc) l’alimentazione degli apparecchi vitali (di sala operatoria, come ventilatori
polmonari, ecc) gli ascensori di emergenza (esempio fra pronto soccorso e sale operatorie,
ecc).
Per queste utenze il problema è di individuarle, in quanto la loro alimentazione in caso di blackout è un obbligo che non ammette sconti.
L’autonomia di queste sorgenti è fissata dalla norma ed ha un valore tipico di 1 ora. Nel caso
dei locali ad uso medico l’autonomia è elevata a 3 ore ma riconducibile a 1 ora se detto
generatore è a suo volta alimentato da altro generatore ausiliario.
58
−
Utenze preferenziali
utenze a cui non è affidata la vita di persone ma che per libere considerazioni di opportunità
economica o funzionale è vantaggioso garantire il funzionamento anche in caso di black-out.
A questa categoria di utenze appartengono i frigoriferi, i centri di calcolo, ecc.
Anche l’autonomia in questo caso è lasciata alla libera scelta dell’utente che lo stabilisce in
funzione del risultato generale che vuole perseguire.
Valori tipici in questi casi sono:
15 minuti per l’informatica qualora questo tempo sia sufficiente per effettuare il salvataggio della
informazione
parecchie ore nei casi in cui il black-out possa durare tanto.
b) Tipologia delle utenze
Ciascuna utenza, sia essa di sicurezza o preferenziale, deve essere valutata sia in termini di potenza elettrica richiesta sia
in termini di massima interruzione accettabile in modo da poter individuare il più corretto generatore ausiliario.
Ad esempio:
− L’informatica è caratterizzata da modesti assorbimenti (unità di KVA) ma dal tollerare interruzioni brevissime (m s)
− L’illuminazioni può assumere valori considerevoli di assorbimento e per evitare il panico delle persone tollera
interruzioni molto superiori di quelle dell’informatica e dell’ordine delle frazioni di secondo
− L’impianto di trattamento dell’aria assorbe considerevoli potenze (alcune decine di KVA) ma tollera interruzioni molto
più lunghe senza generare situazioni di pericolo (minuti).
c) Tipologie delle di sorgenti ausiliarie
Le principali tipologie di sorgenti ausiliarie utilizzate in ambito sanitario sono:
− UPS o gruppi di continuità statici che convertono l’energia elettrica accumulata su delle batterie in corrente alternata a
tensione di rete (220 V, 380 V trifase). Questi dispositivi hanno tempi di intervento piccolissimi (ms) e sono idonei ad
alimentare anche l’informatica. Sono i dispositivi più usati per garantire la continuità di esercizio nelle sale operatorie,
nelle rianimazioni e in generale per tutte le utenze critiche. Le potenze fornite sono all’ordine fino a 15 KVA in monofase
e 50KVA in trifase.
− Batterie commutate da un relè normalmente chiuso ma tenuto aperto dalla tensione di rete. Quando viene a mancare
la tensione di rete, il relè si disalimenta, il contatto si chiude e il carico viene alimentato dalla batteria (Fig. 4.24). Le
batterie commutate si usano ormai quasi esclusivamente nelle lampade di emergenza alimentata in modo autonomo
che presentano un tempo di intervento massimo fissato dalla norma di 0,5 s e una autonomia di 1 o 3 ore.
Fig.4.24 Principio di funzionamento della sorgente
ausiliaria a commutazione
−
Gruppo elettrogeno. E’ costituita da un motore diesel che fa ruotare un generatore elettrico. Il carico è chiuso sul
generatore dopo che il motore è stato messo in moto e dopo aver raggiunto la velocità angolare di regime. I gruppi
elettrogeni hanno un dispositivo di avviamento automatico e per facilitare la messa in moto, il motore è costantemente
tenuto in riscaldamento. Il tempo di inserzione è fissato dalla norma in 15 s per le taglie piccole (≤ 500 KVA) e in 30 s
per le taglie maggiori.
Il generatore è quasi sempre trifase alla stessa tensione e frequenza di rete.
4.10.2 UPS
Le configurazioni più comuni di UPS sono riportate in fig.4.25 dove la configurazione A è per le piccole potenze (<1KVA) e
la configurazione B per le potenze maggiori.
dispense2.doc
59
Fig. 4.25 Configurazioni tipiche degli UPS
La caratteristica peculiare è che nella configurazione A è la batteria che alimenta sempre il carico e a sua volta è sempre
tenuta sotto carica della rete. In questo caso il carico non “vede” mai il black-out.
Nella configurazione B la batteria è sempre tenuta sotto carica ma il carico è normalmente alimentato dalla rete. Solo in
caso di black-out la batteria alimenta il carico. La commutazione fra le due sorgenti è effettuata da una coppia di diodi
controllati che garantiscono la commutazione in pochi ms.
E’ da osservare che nella configurazione B l’elettronica di potenza e le batterie si attivano solo in caso di black-out, quindi
per un tempo ridottissimo rispetto il tempo assoluto di funzionamento.
Fig.4.26 Schema di principio di un UPS monofase
In fig.4.26 è riportato lo schema di principio di un UPS.
Si può osservare il carica batteria sempre inserito sulla rete, le batterie che forniscono l’energia durante il black-out e il
circuito che trasforma la continua in alternata mediante un ponte di diodi controllati in cui se 1 sono conducenti, 2 sono
interdetti e vice versa. La frequenza di commutazione è 100 Hz in modo che l’onda quadra generata sia a 50 Hz.
Il trasformatore T porta la tensione sul secondario al valore nominale (tipicamente 220V) e il filtro CLC riduce le armoniche a
un valore accettabile (tipicamente 3%) ottenendo quindi una sinusoide a 50 Hz.
Questo tipo di UPS presenta l’inconveniente di aver bisogno di un ingombrante e costoso filtro per eliminare le armoniche
dell’onda quadra per cui è poco usato se non per piccole potenze.
Più diffusamente invece si adotta la costruzione della sinusoide mediante impulsi come riportato in fig.4.27. Ciascun
impulso è facilmente ottenibile con l’OR dei “termine minimo” corrispondenti come mostrato in fig.4.28. Gli impulsi X1, X2,
X3 comanderanno i diodi controllati come schematizzato in fig.4.29. La somma degli impulsi è effettuata attraverso il
trasformatore. Si può notare che sul secondario del trasformatore vi è il segnale A+B+C (fig. 4.27), già molto simile ad una
sinusoide per cui la filtrazione delle armoniche è molto facilitata.
dispense2.doc
60
Per potenze maggiori, gli UPS sono trifasi. Per ottenere questa tensione si costruiscono sinusoidali sfasate di 120° come
riportata in fig.4.30 che alimentano il primario di un trasformatore trifase T triangolo – stella (fig.4.31). Il secondario ha il
centro stella a terra in quanto il sistema è TN.S, conseguentemente distribuisce sia il neutro (N) sia il conduttore di
protezione (PE).
Fig. 4.27 Costituzione della sinusoide
mediante impulsi
Fig. 4.28 Costituzione degli impulsi costituenti la sinusoide mediante OR dei termini minimi
dispense2.doc
61
Fig. 4.29 Schema di principio del circuito
per costituire la sinusoide per
impulsi. Gli impulsi di A, B, C e
di A+B+C sono riportati in fig.
4.26
Fig. 4.30 Generazione di tre sinusoidi sfasate di
120°
4.11 SINTESI DELLE PRESCRIZIONI IMPIANTISTICHE PREVISTE PER I LOCALI AD USO MEDICO
Gruppo 2
− Locali ad uso medico in cui è presente il rischio di microshock. Appartengono a questo gruppo: le sale operatorie, i
posti letto di terapia intensiva (coronarica, grandi ustionati, neonatologia, rianimazione, ecc.), le sale di cateterismo
cardiaco, ecc.
dispense2.doc
62
−
−
Valori tipici di sicurezza: correnti di 10μA; tensioni di contatto di 10 mV resistenza paziente 1 kΩ
Protezione contro il contatto indiretto:
L’unico sistema consentito è il circuito isolato IT-M e il nodo equipotenziale a cui sono connesse le masse e le masse
estranee.
La resistenza del conduttore di protezione deve essere inferiore di 0,2 Ω e la sezione del conduttore equipotenziale
delle masse estranee deve essere almeno 6 mm2.
La massa estranea presenta una resistenza verso terra inferiore o uguale a 0,5 MΩ.
− Alimentazione di sicurezza per l’illuminazione funzionante (al 100%) e degli apparecchi vitali (apparecchio anestesia,
monitor parametri vitali, ventilatori polmonari, pompe di infusione, ecc., ovvero tutti gli apparecchi che sostengono
funzioni vitali o sono vitali per la cura del paziente.
− Sorgente di energia ausiliaria: UPS (inserimento di pochi ms) con autonomia di una sola ora, perché alimentato con
energia preferenziale (gruppo elettrogeno).
Gruppo 1
− Locale ad uso medico in cui è presente il rischio di macroshock. Appartengono a questo gruppo: la sala parto (no taglio
cesareo), le degenze, gli ambulatori che usano apparecchi elettromedicali, l’idroterapia, la radiodiagnostica (escluso
coronarografie e angioplastiche)
− Valori tipici di sicurezza sono: corrente di 10mA, tensione di contatto 25V, resistenza paziente 2,5kΩ.
− Protezione contro i contatti indiretti: interruttore differenziale di 30mA e nodo equipotenziale a cui sono connesse le
masse e le masse estranee. La massa estranea presenta una resistenza verso terra inferiore o uguale a 200Ω.
− Alimentazione di sicurezza dell’illuminazione di fuga (5lx) e l’illuminazione funzionale ove richiesta (generalmente 50%).
Generalmente non sono presenti apparecchi vitali.
− Sorgente elettrica ausiliaria per l’illuminazione con tempi di intervento 0,5s (lampade di emergenza con batteria a
bordo) o con alimentazione centralizzata da UPS.
Gruppo 0
− Locale ad uso medico con rischio di macroshock in cui non è previsto l’uso di apparecchi elettromedicali
− Valori tipici di sicurezza: corrente di 10mA, tensione di 25V, resistenza di 2,5kΩ
− Protezione contro i contatti indiretti: interruttore differenziale e messa a terra delle masse
− Alimentazione di sicurezza delle luci di fuga (5 lx)
ALTRI CARICHI SICURI
Alimentati da UPS (inserimento in ms)
ƒ Informatica usata per la cura del paziente
ƒ Altra illuminazione di emergenza
ƒ Rivelatori antincendio (se di tipo informatico)
ƒ Centrale telefonica
Alimentati da gruppo elettrogeno (inserimento in 15 s)
ƒ Ventilazione locali critici
ƒ Sistemi antincendio (apertura finestra, aspirazione, autoclave e idranti, ecc.)
ƒ Frigoriferi e congelatori biologici, frigoemoteche, ecc.
CARICHI PREFERENZIALI
sotto UPS
ƒ Informatica di gestione
sotto gruppo elettrogeno
ƒ Illuminazione di conforto
ƒ Centrale termica
ƒ Centrale frigorifera
ƒ Autoclavi per acqua calda e fredda
ƒ Apparecchi di laboratorio
ƒ Autoclavi a vapore per la sterilizzazione
ƒ Frigoriferi e congelatori alimentari
ƒ Cucina
ƒ Porte elettrificate
ƒ Letti elettrificati
dispense2.doc
63
5. SORGENTI AUSILIARIE DI ENERGIA ELETTRICA
5.1 PROBLEMATICHE
In molti casi (sicurezza, servizi essenziali, ecc.) e soprattutto in ambito sanitario, necessita la continuità di esercizio per
alcune utenze anche in caso di black-out.
Per garantire ciò occorre disporre di sorgenti ausiliarie di energia elettrica.
La scelta del tipo di sorgente ausiliaria dipende da:
•
•
•
Operatività delle utenze
Tipologia della utenza
Tipologie disponibili per le sorgenti ausiliarie
a) Operatività delle utenze
Le utenze da garantire in caso di black-out possono essere raggruppate in due classi:
−
Utenze di sicurezza
a cui è affidata la vita delle persone e in particolare del paziente.
Alcune di queste utenze di sicurezza sono indicate da norme o leggi come ad esempio: la luce
di fuga, i rilevatori d’incendio, ecc.
Altre devono essere individuate dal gestore del processo congiuntamente con il progettista
come ad esempio: l’illuminazione funzionale di alcuni locali critici (pronto soccorso,
rianimazioni, ecc.) l’alimentazione degli apparecchi vitali (di sala operatoria, come ventilatori
polmonari, ecc.) gli ascensori di emergenza (esempio fra pronto soccorso e sale operatorie,
ecc.).
Per queste utenze il problema è di individuarle, in quanto la loro alimentazione in caso di blackout è un obbligo che non ammette deroghe.
−
Utenze preferenziali
utenze a cui non è affidata la vita di persone ma che per libere considerazioni di opportunità
economica o funzionale è vantaggioso garantire il funzionamento anche in caso di black-out.
A questa categoria di utenze appartengono i frigoriferi alimentari, i centri di calcolo, ecc.
b) Tipologia delle utenze
Ciascuna utenza, sia essa di sicurezza che preferenziale, deve essere valutata sia in termini di potenza elettrica richiesta
sia in termini di massimo tempo di interruzione accettabile in modo da poter individuare il più corretto generatore ausiliario.
Ad esempio:
− L’informatica è caratterizzata da modesti assorbimenti (unità di kVA) ma tollera interruzioni brevissime (m s)
− L’illuminazione può assumere valori considerevoli di assorbimento e per evitare il panico delle persone tollera
interruzioni dell’ordine delle frazioni di secondo (tipicamente 0,5 s)
− L’impianto di trattamento dell’aria assorbe considerevoli potenze (alcune decine di kVA) ma tollera interruzioni molto più
lunghe senza generare situazioni di pericolo (decine di minuti).
c) Tipologie delle di sorgenti ausiliarie
Le principali tipologie di sorgenti ausiliarie utilizzate in ambito sanitario sono:
− UPS o gruppi di continuità statici che convertono l’energia elettrica accumulata su delle batterie, in corrente alternata a
tensione di rete (220 V, 380 V trifase). Questi dispositivi hanno tempi di intervento piccolissimi (ms) e sono idonei ad
alimentare anche l’informatica. Sono i dispositivi più usati per garantire la continuità di esercizio nelle sale operatorie,
nelle rianimazioni e in generale per tutte le utenze critiche. Le potenze fornite sono dell’ordine di 15 kVA in monofase e
60kVA in trifase.
− Batterie commutate da un relè normalmente chiuso ma tenuto aperto dalla tensione di rete. Quando viene a mancare
la tensione di rete, il relè si disalimenta, il contatto si chiude e il carico viene alimentato dalla batteria (Fig. 5.1). Le
batterie commutate si usano ormai quasi esclusivamente nelle lampade di emergenza alimentata in modo autonomo
che presentano un tempo di intervento massimo fissato dalla norma di 0,5 s e una autonomia di 1 o 3 ore.
dispense3.doc
64
Fig.5.1
−
Principio di funzionamento della sorgente
ausiliaria a commutazione
Gruppo elettrogeno. E’ costituito da un motore che fa ruotare un alternatore. Il carico è chiuso sul generatore dopo che
il motore ha raggiunto la velocità angolare di regime. I gruppi elettrogeni hanno un dispositivo di avviamento automatico
per la messa in moto e il motore è costantemente tenuto in riscaldamento.
Il generatore è quasi sempre trifase alla stessa tensione e frequenza di rete. Solo per gruppi o insieme di gruppi
elettrogeni di rilevante potenza viene generata la media tensione (15 kV).
Per dimensionare correttamente i generatori ausiliari occorre tipizzare tutti i carichi in funzione della loro operatività, potenza
richiesta e tempi di interruzione ammessi.
A titolo di esempio nella tabella di fig.5.2 è riportata una tipica classificazione dei carichi nel caso di un ospedale.
In condizioni normali tutti i carichi sono alimentati dalla rete ordinaria di alimentazione elettrica e solo in caso di black-out
entra in funzione il gruppo elettrogeno e l’UPS.
In fig.5.3 è riportato lo schema di principio dell’impianto elettrico di un ospedale.
L’inserzione del gruppo elettrogeno è possibile solo dopo la separazione dei carichi dalla rete ordinaria; ciò avviene con
contattori azionati elettricamente e meccanicamente, interconnessi per garantire la sequenza dell’apertura e della chiusura
del circuito, normalmente sistemati in un quadro elettrico detto “di commutazione”. Il tempo necessario per mettere in
funzione automaticamente il motore, regolarne la velocità al valore prefissato, sconnettere i carichi privilegiati dalla rete
ordinaria e connetterli all’alternatore del gruppo elettrogeno, è fissato dalla norma CEI 64-8 in 15 s per i gruppi elettrogeni
fino a 500kVA e 30 s per le potenze superiori. In questo intervallo di tempo sono possibili ulteriori tentativi di messa in moto
automatica qualora il primo tentativo fallisse.
Anche l’inserimento dell’UPS avviene solo dopo che il carico sia stato sconnesso, ma la commutazione non avviene
mediante contattori ma mediante diodi controllati il cui tempo di commutazione è dell’ordine dei ms.
Per quanto riguarda l’autonomia dei generatori ausiliari la norma la fissa solo esclusivamente per le utenze sicure, lasciando
libero il gestore dell’impianto di fissarla per le utenze privilegiate seguendo criteri di pura opportunità, generalmente
economica.
Il razionale alla base della scelta dell’autonomia dei generatori ausiliari è la prevedibile durata del black-out.
La norma CEI 64-8 fissa le seguenti autonomie dei generatori ausiliari:
− Gruppo elettrogeno:
24 ore. Tale intervallo di tempo dovrebbe essere sufficiente a coprire la maggior parte dei
black-out.
Tuttavia fatti recenti hanno mostrato che possono verificarsi eccezionalmente black-out di
durata maggiore. Per questi casi eccezionali è ipotizzabile che la Protezione Civile o chi per
essa, abbia il tempo di rifornire di carburante il gruppo elettrogeno.
Coerentemente al razionale sopra accennato, la norma consente di ridurre l’autonomia a una
durata inferiore purché si dimostri senza ombra di dubbio che entro tale tempo sia possibile
mettere in sicurezza il processo.
− UPS
dispense3.doc
Il tempo ritenuto sufficiente per mettere in sicurezza le persone o più in generale un processo, è
di 3 ore. Questo intervallo di tempo è sicuramente sufficiente per evacuare un edificio in caso di
pericolo (esempio: incendio) oppure concludere una manovra medico-chirurgica o sospendere
in sicurezza un intervento chirurgico.
65
In ambito sanitario la norma CEI 68-4 prevede per l’UPS di ridurre l’autonomia a 1 ora purché
l’UPS stesso sia alimentato da un altro generatore ausiliario con autonomia di almeno 3 ore
(tipicamente il gruppo elettrogeno).
Il razionale di questa possibilità, che è molto vantaggiosa sul piano tecnico ed economico,
come vedremo più avanti, appoggia sulla convinzione che in un’ora la quasi totalità dei processi
sono messi in sicurezza ed inoltre in tale tempo si potrà mettere in funzione il gruppo
elettrogeno anche con procedura manuale nella deprecata eventualità che non partisse in
modo automatico. Come si può notare, se vengono seguite tutte le prescrizioni normative si
ottiene un sistema molto affidabile, pur non potendosi escludere coincidenze multiple tutte
sfavorevoli, la cui probabilità di insorgenza è senza dubbio molto remota e perciò accettabile.
In casi particolari ove è manifesto che l’autonomia di 3 ore è eccessiva, la stessa norma consente l’autonomia di 1 ora
(esempio le luci di sicurezza di piccoli ambienti a rischio ridotto)
Per utenze non di sicurezza ma importanti sul piano funzionale come ad esempio l’informatica, è prevalso l’orientamento di
garantire una autonomia di soli 15 minuti in quanto tale periodo è considerato più che sufficiente per la chiusura dei
programmi di elaborazioni in corso e quindi per il salvataggio dei dati.
I circuiti di sicurezza tuttavia devono presentare un grado di affidabilità maggiore rispetto gli altri circuiti. Ciò si ottiene
adottando ad esempio cavi con isolanti particolarmente resistenti al fuoco, protetti meccanicamente dagli urti (esempio in
canaline o tubazioni in ferro) e possibilmente separati fisicamente dagli altri circuiti in modo tale che un evento negativo
(esempio: incendio, crollo, urto, ecc.) possa interessare al più un solo tipo di circuito alla volta.
Dalle analisi congiunta delle figure 5.2. e 5.3 emerge che i generatori ausiliari alimentano sia utenze privilegiate che utenze
sicure. La norma CEI 64-8 all’articolo 562.5 prevede questa eventualità purché:
•
•
Tutte le utenze sicure non siano compromesse dall’alimentazione di altre utenze
Un guasto relativo alle altre utenze non comporti l’interruzione di qualsiasi circuito di alimentazione delle utenze sicure.
Ciò può essere facilmente garantito con l’opportuna taratura dei dispositivi a massima corrente (magnetotermici o fusibili) a
protezione dei singoli circuiti.
UTENZE DI SICUREZZA
UTENZE PRIVILEGIATE
• Illuminazione ausiliaria
• Altre centrali tecnologiche
• Apparecchi ed utenze non
essenziali
• Altri elevatori
• Apparecchi radiologici
• Alimentazione del gruppo
elettrogeno
RETE ORDINARIA
GRUPPO
ELETTROGENO
•
•
•
•
•
•
•
•
•
•
•
UPS
•
•
Elevatori di emergenza
Ventilazione locali critici
Frigoriferi biologici
Centrale rilevazione incendi
Controllo e supervisione
impianti
Impianti antincendio
Impianti indispensabili
Apparecchi radiologici di sala
operatoria o Pronto soccorso
Alimentazione UPS
Illuminazione di emergenza
Illuminazione
funzionale
locali critici
Apparecchi biomedici critici
Informatica di sicurezza
• Illuminazione integrativa
• Ventilazione locali operativi
• Centrale di trattamento
dell’aria
• Autoclavi
• Elevatori di servizio
• Informatica in genere
• Apparecchi con informatica a
bordo
Fig. 5.2 Tipica classificazione dei carichi di un ospedale
dispense3.doc
UTENZE ORDINARIE
POTENZA
ORIENTATIVA
100%
del totale
50%
del totale
10%
del totale
66
Fig.5.3.
Fig. 5.3 Schema di principio di un impianto elettrico ospedaliero
5.2 UPS
Le configurazioni più comuni di UPS sono riportate in fig.5.4 dove la configurazione A è per le piccole potenze (<1kVA) e la
configurazione B per le potenze maggiori.
Fig. 5.4 Configurazioni tipiche degli UPS
La caratteristica peculiare è che nella configurazione A è la batteria che alimenta sempre il carico e a sua volta è sempre
tenuta sotto carica della rete. In questo caso il carico non “vede” mai il black-out della rete.
Nella configurazione B la batteria è sempre tenuta sotto carica ma il carico è normalmente alimentato dalla rete. Solo in
caso di black-out, la batteria alimenta il carico. La commutazione fra le due sorgenti è effettuata da una coppia di diodi
controllati che garantiscono la commutazione in pochi ms come già accennato.
E’ da osservare che nella configurazione B l’elettronica di potenza e le batterie si attivano solo in caso di black-out, quindi
per un tempo ridottissimo rispetto il tempo assoluto di alimentazione del carico.
dispense3.doc
67
Fig.5.5 Schema di principio di un UPS monofase
In fig.5.5 è riportato lo schema di principio di un UPS.
Si può osservare il carica batteria sempre inserito sulla rete, le batterie che forniscono l’energia durante il black-out e il
circuito che trasforma la continua in alternata mediante un ponte di diodi controllati in cui se 1 sono conducenti, 2 sono
interdetti e vice versa. La frequenza di commutazione è 100 Hz in modo che l’onda quadra generata sia a 50 Hz.
Il trasformatore T porta la tensione sul secondario al valore nominale (tipicamente 220V) e un filtro con capacità e
induttanze riduce le armoniche ottenendo quindi una quasi sinusoide a 50 Hz.
In fig. 5.6 è riportato lo schema di un filtro utilizzato per eliminare le armoniche dell’onda quadra di un UPS di tipo trifase che
consente di contenere le armoniche entro il valore accettabile del 3%.
Fig.5.6 Esempio di filtro per ridurre le
armoniche negli UPS
Questo tipo di UPS presenta l’inconveniente di aver bisogno quindi di un ingombrante e costoso filtro per eliminare le
armoniche dell’onda quadra per cui è poco usato se non per piccole potenze.
Più diffusamente invece si adotta la costruzione della sinusoide mediante impulsi come riportato in fig.5.7. Ciascun impulso
è facilmente ottenibile con l’OR dei “termine minimo” corrispondenti come mostrato in fig.5.8. Gli impulsi X1, X2, X3
comanderanno i corrispondenti diodi controllati di fig. 5.9. Sempre dalla figura 5.9 si evince che la somma degli impulsi A, B,
C è effettuata attraverso il trasformatore. Si può notare che sul secondario del trasformatore di fig.5.9 vi è il segnale A+B+C
(coincidente con quello di fig.5.7), già molto simile ad una sinusoide per cui la filtrazione delle armoniche è molto facilitata.
Per potenze maggiori, gli UPS sono trifasi. Per ottenere questo tipo di tensione, si costruiscono sinusoidali sfasate di 120°
come riportata in fig.5.10 che alimentano il primario di un trasformatore trifase triangolo – stella (fig.5.11). Il secondario ha
il centro stella a terra in quanto il sistema è TN-S, conseguentemente distribuisce sia il neutro (N) sia il conduttore di
protezione (PE).
dispense3.doc
68
Fig. 5.7 Costituzione della sinusoide
mediante impulsi
Fig. 5.8 Costituzione degli impulsi costituenti la sinusoide mediante OR dei termini minimi
dispense3.doc
69
Fig.
Fig. 5.9 Schema di principio del circuito per costituire la sinusoide per impulsi. Gli impulsi di A, B, C e di A+B+C sono riportati
in fig. 5.7
Fig.5.10 Generazione di tre sinusoidi sfasate di
120°
dispense3.doc
70
Fig. 5.11 Schema di principio di un UPS trifase
dispense3.doc
71
5.3 BATTERIE
Per batteria si intende un dispositivo elettrochimico ad azione reversibile che accumula, sotto forma di energia chimica,
l’energia elettrica accumulata durante la fase di carica, per poterla erogare come energia elettrica nella fase di scarico.
Poiché la batteria dell’attuale generazione tecnologica è molto lontana dall’ideale, vi sono diversi tipi di batteria, ciascuna
delle quali ottimizzata sulla specifica applicazione. Le principali tipologie di batterie sono:
• Batterie da avviamento
• Batterie da trazione
• Batterie stazionarie
Le batterie di avviamento (SLI starting lighting and ignition) sono utilizzate essenzialmente per mettere in moto i motori a
scoppio. Dal punto di vista elettrico la batteria è caratterizzata dal fornire una elevatissima corrente per un tempo molto
breve e quindi avere una bassa resistenza interna. Devono essere tenute sempre cariche.
Le batterie di trazione (motive power batteries) sono usate come sorgenti di energia per automezzi o carrelli industriali.
La principale caratteristica di queste batterie è di doversi scaricare completamente in tempi lunghi ed avere un buon
comportamento nei cicli di carica-scarica. Oggi sono disponibili batterie di trazione che garantiscono fino a 2.000 cicli
completi di carica-scarica.
Le batterie stazionarie (stand-by batteries) sono usate negli UPS. La caratteristica più significativa di queste batterie è
l’affidabilità di servizio e la vita funzionale che deve essere almeno di 10 anni. Queste batterie sono caratterizzate da essere
sempre sotto carica e dall’erogare energia solo sporadicamente (durante i black out energetici).
Nel seguito sarà considerato solo quest’ultimo tipo di batteria.
5.3.1 Batterie al piombo a vaso aperto
Le batterie stazionarie più usate sono quelle al piombo, essenzialmente costituite da un elettrodo di biossido di piombo per
l’elettrodo positivo (anodo), un elettrodo di piombo spugnoso per l’elettrodo negativo (catodo), entrambi immersi in un
elettrolita costituito da una soluzione diluita di acido solforico.
Le reazioni elettrochimiche fondamentali e i potenziali degli elettrodi che caratterizzano questa reazione sono:
all’elettrodo positivo
PbO2 + 4H+ + 2 ePb2+ + SO42-
Pb2+ + 2H2O
PbSO4
Ec0 = +1,685 V
all’elettrodo negativo
Pb2+ + 2e-
Pb
Pb2+ + SO42-
PbSO4
Ea0 = -0,356 V
Il processo conclusivo sarà:
scarica
Pb + PbO2 + 4H+ + 2SO42-
carica
2PbSO4 +2H2O
E0 = +2,041 V
dove Ea0 ed Ec0 sono i potenziali di equilibrio dell’anodo e del catodo rispettivamente
dispense4.doc
(1)
72
5.3.2 Scarica della batteria
La tensione E0 non rappresenta però la tensione erogata dalla batteria durante il suo funzionamento, in quanto la tensione
ai capi della batteria è influenzata dalle sovratensioni degli elettrodi e dalla resistenza interna.
Infatti durante la scarica il biossido di piombo dell’elettrodo positivo come pure il piombo dell’elettrodo negativo si
trasformano in solfato di piombo sottraendo all’elettrolito acido solforico. La diminuzione di concentrazione di acido
nell’elettrolito riduce la quantità di elettricità erogata; ciò provoca una caduta di tensione, all’inizio lenta, poi più rapida fino a
raggiuingere il limite minimo di tensione ammessa (detta tensione di fine scarica Vf ) che è funzione della corrente di
scarica.
I valori numerici della tensione durante la scarica e di Vf di una tipica batteria al piombo sono riportati in fig. 5.12
Fig.5.12 Tipiche caratteristiche di una
batterie al piombo
Quando la batteria si ricarica, la reazione procede da destra verso sinistra. Il solfato di piombo dell’elettrodo positivo si
riconverte in biossido di piombo e il solfato di piombo dell’elettrodo negativo in piombo spugnoso. Si forma dell’acido
solforico e contemporaneamente si consuma dell’acqua per cui la densità dell’elettrolito aumenta e ritorna ai valori iniziali.
Uno dei parametri più significativi della batteria è la “capacità” definita come la quantità di elettricità fornita durante la scarica
finché la tensione non scende al valore limite di Vf.
L’unità di misura della capacità di una batteria è l’ampere per ora (Ah) che dipende sensibilmente dalla corrente di scarica e
dal tempo di scarica.
Per convenzione la capacità nominale delle batterie (detta C10) è riferita ad una scarica a corrente costante per 10 ore alla
temperatura di 20C . Per scariche più veloci, come ad esempio quelle previste negli impianti ad uso medico, di 3 o 1 ora la
capacità della batteria si riduce rispettivamente al 75% e al 50% come riportato in fig.5.13.
Fig.5.13 Capacità di una batteria in
funzione della durata della
scarica
In fig.5.14 è riportato l’andamento della corrente di scarica in funzione della durata della scarica riferita al valore nominale di
corrente per scarica di 10 ore, I10 .
dispense4.doc
73
Fig.5.14 Andamento della corrente di
scarica in funzione della durata
della scarica
Un andamento tipico delle capacità della batteria in funzione della temperatura è riportato in fig.5.15. Come si vede per
variazioni di temperatura abbastanza normali fra l’estate e l’inverno per locali non trattati, quali ad esempio i sottotetti nei
quali normalmente vengono sistemati gli UPS, si possono creare variazioni di capacità dell’ordine del 30%.
Si deve osservare che è molto sconveniente utilizzare le batterie attorno ai 40C, anche se in queste condizioni si hanno le
maggiori capacità, perché a questa temperatura la vita delle batterie diminuisce sensibilmente come vedremo.
Fig.5.15 Capacità della batteria
funzione della temperatura
in
Un altro fenomeno rilevante per le batterie stazionarie è l’autoscarica, ovvero il fenomeno per cui la capacità della batteria
diminuisce anche quando essa è lasciata a circuito aperto. Questo processo, dipende dal fatto che sia il piombo che il
biossido di piombo sono termodinamicamente instabili in acido solforico. Per questo anche quando la batteria è in condizioni
di circuito aperto, si verificano delle reazioni che causano una lenta liberazione di idrogeno ed ossigeno:
PbO2 + H2SO4
Pb + H2SO4
PbSO4 + H2O + ½ O2
PbSO4 + H2
Entrambe queste reazioni sono lente per cui si ha una perdita dell’ordine dello 0,6% al giorno per una cella nuova
completamente carica, ma raggiunge valori dell’ordine del 2,5% per batterie a fine vita operativa.
Questo fenomeno non si verifica nell’uso normale delle batterie connesse all’UPS che, come visto, sono sempre tenute
sotto carica, mentre diventa rilevante nell’immagazzinamento di batterie nuove. Infatti alcuni Costruttori indicano come
tempo massimo oltre il quale la batteria deve essere ricaricata, se si vogliono evitare degradi irreversibili, addirittura 3 mesi.
5.3.3 Carica della batteria
Durante la fase di carica della batteria al piombo, grazie alla corrente fornita da una sorgente esterna, la reazione (1)
procede da destra a sinistra. La sorgente esterna deve essere a corrente continua. La reazione (1) non descrive però
completamente il comportamento della cella durante la carica. Infatti, man mano che gli elettrodi si ricaricano, la corrente
assorbita viene consumata nella decomposizione dell’acqua che perciò deve essere reintegrata.
Così si ha:
•
Produzione di ossigeno all’elettrodo positivo
2H2O
dispense4.doc
O2 + 4H+ + 4e-
74
•
Produzione di idrogeno all’elettrodo negativo
2H+ + 2e-
H2
A causa di queste reazioni, che potremmo definire parassite rispetto al processo principale, la ricarica dell’accumulatore non
ha rendimento unitario, cioè l’energia che bisogna somministrare sarà sempre più grande di quella che si riuscirà a
immagazzinare e quindi a prelevare.
Detto rendimento (detto anche “efficienza amperometrica” o il suo inverso chiamato “fattore di carica”) è dell’ordine
dell’85%.
Il rendimento peggiora con la profondità della scarica raggiunta, con la velocità della ricarica e anche se la batteria è stata
tenuta parzialmente o completamente scarica.
La produzione di idrogeno durante la ricarica della batteria comporta gravi inconvenienti in quanto l’idrogeno mescolato con
l’aria dà origine a miscele esplosive. Per evitare ciò la norma CEI 21-6 prescrive nei locali batterie una portata d’aria v pari
a:
v = 0,05 NI (m3/h)
Dove N è il numero di elementi, I è la massima corrente di carica espressa in A.
La bontà della carica di una batteria dipende dalla qualità della corrente continua, in quanto componenti alternate o
semplice ripple causano riscaldamento della cella e sensibili accorciamenti della vita operativa.
Da queste considerazioni scaturisce che un carica batterie non può adottare un semplice ponte di diodi alimentato in
monofase (fig.5.16 A) né l’utilizzo di filtri può essere sufficiente considerando le considerevoli potenze in gioco negli UPS di
uso generale (>30 kVA).
Il raddrizzatore più usato è il ponte trifase (detto anche esafase dal numero di sinusoidi) riportato in fig.5.16 B che presenta
un ripple di circa ±5%. Meglio ancora è il ponte trifase stella–triangolo (detto anche dodecafase in quanto le sinusoidi sono
12 sfasate di 30° ciascuna) riportato in fig. 5.16 C che presenta un ripple di circa ±1,5%.
Fig.5.16 Tipici raddrizzatori usati per
caricare le batterie
dispense4.doc
75
Durante la carica della batteria a corrente costante di 0,1 C10 si ha un aumento della tensione delle batterie dovuto
all’aumento della densità dell’acido che cessa appena raggiunta la piena carica e si arriva alla stabilizzazione della densità
dell’acido. L’aumento della tensione della batteria in carica, è caratterizzata da due fasi distinte come riportato in fig.5.17. La
prima si ha fino al raggiungimento della tensione di sviluppo di gas che tipicamente vale 2,2 V/elemento. La seconda fase
termina con il completamento della carica a cui corrisponde una tensione tipica di 2,7 V/elemento.
Fig.5.17 Andamento tipico della
tensione di carica della
batteria
La durata della carica dipende da vari fattori fra cui la carica residua e la corrente nonché dal metodo adottato nella carica.
Il sistema più usato per caricare una batteria è a corrente costante (tipicamente 0,1 C10) fino al raggiungimento del 50%
della carica e poi a tensione costante (tipicamente 2,23 V/elemento salvo quanto si dirà in seguito) come riportato in fig.
5.18. In queste condizioni la ricarica al 90% avviene dopo un tempo di circa 15 ore.
Fig.5.18 Tipici andamenti della tensione e
della corrente durante la carica
Per ridurre il tempo di carica a circa la metà, sono stati individuati sistemi di carica rapida che prevedono due fasi e
precisamente:
• Corrente costante di 0,2-0,6 C10 fin tanto che la tensione non raggiunga il valore di 2,4 V/elemento
• Tensione costante di 2,4 V/elemento fino alla totale ricarica della batteria (circa 10 ore partendo da batterie
completamente scariche).
Come si vedrà in seguito il valore di 2,4 V/elemento applicato anche oltre la totale ricarica della batteria comporta un rapido
degrado irreversibile della batteria stessa per cui questo sistema, per la sua intrinseca criticità, è applicato solo quando
risulta strettamente necessario.
dispense4.doc
76
Una batteria al piombo completamente carica presenta una resistenza interna pari a:
K
Ri =
(Ω)
C10
in cui K varia da modello a modello di batteria, ma vale generalmente da 0,2 a 0,4; detta resistenza a batteria scarica
aumenta tipicamente di 2,5 volte.
5.3.4 Carica di mantenimento
Per carica di mantenimento si intende il trasferimento alla batteria di una determinata energia elettrica in modo tale da
mantenere la batteria sempre carica compensando l’autoscarica.
Il modo più usato per realizzare la carica di mantenimento di una batteria è quello della tensione costante che vale
tipicamente:
• 2,23 ± 1% V per acido di densità 1,25 g/cm3 a 20C
• 2,19 ± 1% V per acido di densità 1,21 g/cm3 a 20C
La corrente di mantenimento è tipicamente di 1 mA ogni Ah ma aumenta sensibilmente sia con la tensione di
mantenimento, sia con la temperatura che con la vetustà delle batterie.
Per quanto sopra detto emerge che la tensione di mantenimento delle batterie è un parametro critico a causa della
variabilità del suo valore ottimale con la temperatura (inverno-estate) e per il fatto che una tensione di mantenimento
inferiore al valore ottimale non garantisce la totale carica della batteria mentre un valore superiore comporta un degrado
della batteria e l’accorciamento della vita operativa.
Ciò nonostante la batterie al piombo qui considerate sono le più resistenti oggi disponibili, anche se presentano due rilevanti
problemi e precisamente:
• Produzione durante la carica di idrogeno
• Necessità di una continua manutenzione per il rabbocco di acqua nell’elettrolito
5.3.5 Batterie a ricombinazione di gas (batterie ermetiche)
Questo tipo di batterie, dette anche ermetiche, non producono gas e in particolare l’idrogeno, in quanto ricombinano
l’idrogeno con l’ossigeno, producendo acqua che mantiene costante la concentrazione di acido nell’elettrolito.
Il principio di funzionamento di queste batterie è uguale a quella al piombo a vaso aperto visto precedentemente con la
variante che durante la carica si generano le seguenti reazioni:
•
Sull’elettrodo positivo si ha sviluppo di ossigeno secondo la relazione:
H2O
½ O2 + 2H+ + 2e-
L’ossigeno si diffonde attraverso un particolare dispositivo fino all’elettrodo negativo.
•
Sull’elettrodo negativo si genera la seguente reazione:
Pb + ½ O2
PbO
L’ossido di piombo reagisce con l’acido solforico secondo la reazione:
Pb O + H2 SO4
PbSO2 + H2O
Le batterie a ricombinazione di gas hanno eliminato gli inconvenienti tipici delle batterie a vaso aperto in quanto non
producono idrogeno né hanno bisogno di riabboccare l’acqua (da cui il nome commerciale di “batterie senza
manutenzione”) ma di contro risultano più delicate, con vita media inferiore ma soprattutto con tensioni di carica di
mantenimento molto più dipendenti dalla temperatura rispetto a quelle a vaso aperto.
dispense4.doc
77
Queste batterie che peraltro hanno ovunque sostituito quelle a vaso aperto negli UPS, presentano le seguenti
caratteristiche.
Capacità in funzione della temperatura
La capacità delle batterie è molto dipendente dalla temperatura come riportato dalla fig.5.19. Inoltre l’autoscarica è
dell’ordine del 2% al mese a 25C.
Tensione a circuito aperto
La tensione a circuito aperto varia molto più con la temperatura come riportato in fig.5.20.
Tensione di mantenimento
La tensione di mantenimento è molto dipendente con la temperatura, che limita praticamente il campo di utilizzo di questa
battera da 10C a 40C.
Nei moderni circuiti di carica delle batterie ermetiche, la tensione di mantenimento è regolata dalla temperatura ambiente
rilevata da sensori di temperatura posti in vicinanza delle batterie.
Vita operativa
La vita operativa delle batterie ermetiche è molto condizionato dalla temperatura di esercizio come mostrato in fig.5.21.
Fig.5.19 Capacità erogabile delle batterie
ermetiche al piombo in funzione
della temperatura
///
Fig.5.20 Tensione della batteria a circuito
aperto in funzione dello stato di
carica
Fig.5.21 Vita utile di una batteria in funzione
della temperatura di esercizio
dispense4.doc
78
5.3.6 Batterie al nichel cadmio
Le batterie stazionarie al nichel-cadmio sono costituite da un elettrodo positivo di nichel e un elettrodo negativo di cadmio
immersi in una soluzione acquosa di idrossido di potassio.
Le principali prestazioni sono per le scariche veloci (esempio 15 minuti tipiche dell’informatica), presentano anche buona
stabilità alla temperatura, un elevato numero di cicli scarica-carica, ma costi molto elevati.
Per questi motivi non sono utilizzate negli UPS usati negli impianti elettrici dei locali ad uso medico.
5.3.7 Confronto fra le varie batterie
Volendo effettuare un confronto tecnico fra i vari tipi di batterie qui citati, si consideri ad esempio il caso di un UPS da 20
kVA con autonomia di 1 ora.
Per tener conto dei vari fattori che riducono la capacità di una batteria (temperatura, vetustà, ecc.), è prudente prevedere un
blocco batterie che fornisca in 1 ora almeno 22 kW. In tabella di fig.5.22 è riportato il confronto fra le varie batterie.
Come si può notare la batteria al piombo ermetica, nonostante gli inconvenienti visti, presenta il miglior compromesso fra
qualità e prezzo.
Parametro
Potenza richiesta
Energia richiesta
Tempo di scarica
Tensione all'UPS
Tensione per elemento
Elementi necessari
Peso
Volume
Densità energia in peso
Densità energia in volume
Vita
Cicli
Temperature
Produzione gas
Ventilazione locale batterie
Necessità di manutenzione
Costo orientativo
Unità
misura
Batteria Pb
vaso aperto
Batteria Pb
ermetica
Batteria
nichel
cadmio
kWh
kW
ore
V
V
N°
kg
dm3
Wh/kg
Wh/l
anni
N°
C
22
22
1
220
2
110
2.200
1.100
10
20
15
400
-20 ; +40
si
550
si
7.000
22
22
1
220
2
110
1.400
550
16
39
10
400
+10 ; +40
no
0
no
5.500
22
22
1
220
1,3
164
2.000
1.150
11
19
10
2.000
-40 ; +40
no
0
no
24.000
m3/h
euro
Fig.5.22 Confronto fra i vari tipi di batterie stazionarie
5.3.8 Esempio di dimensionamento batterie
Si supponga di dover dimensionare le batterie per un UPS da 20 kVA con autonomia di 1 ora, dalle cui specifiche si desume
che la tensione alle batterie deve essere 220 V ±15% in corrente continua.
Disponendo delle batterie di fig. 5.23 il blocco batterie sarà caratterizzato da un serie-parallelo caratterizzato da:
- n° batterie per ramo serie
- n° rami in parallelo
come schematizzato in fig. 5.24
Dalla fig.5.12 emerge che a fine scarica di 1h la tensione alla cella è di 1,7 V mentre la tensione della batteria
completamente carica è di 2,05 V.
Per poter rispettare i dati di targa dell’UPS (220V±15% in c.c.) ci vorranno un numero di elementi compreso fra 110 e 123.
dispense4.doc
79
Disponendo di batterie con tensione normale 12 ; 6 e 4 V (rispettivamente di 6 ; 3 e 2 celle ciascuna) il numero di batterie
costituenti ciascun ramo serie dovrà essere:
Tensione batteria
N° batterie
per ramo serie
19÷20
37÷41
55÷61
12 V
6V
4V
Il numero di rami dipende dalla energia elettrica totale che deve essere erogata. Poiché l’UPS deve erogare 20 kVA per 1
ora, tenendo conto della variazione della carica con la temperatura e l’effetto dell’età della batteria è ragionevole maggiorare
questo valore ad almeno 22 kWh.
Questa energia si raggiungerà mettendo in parallelo più rami serie.
Utilizzando i dati di targa delle batterie si costruisce la tabella di fig. 5.25 sulla quale si dovrà scegliere la soluzione più
vantaggiosa. La scelta si basa sulle seguenti considerazioni riferite a ciascuna batteria:
12 SLA 25
Non vantaggiosa perché:
• numero elevato di batterie
• maggior peso
12 SLA 37
Non vantaggiosa perché:
• numero elevato di batterie
• maggior peso
12 SLA 35
Vantaggiosa
6 SLA 75
Non vantaggiosa perché:
• numero eccessivo di batterie
6 SLA 100
Non vantaggiosa perché:
• numero eccessivo di batterie
• maggior peso
• potenza nominale eccessiva
4 SLA 125
Non vantaggiosa perché:
• poco affidabile poiché in caso di interruzione di una cella, l’UPS va fuori uso
4 SLA 150
Non vantaggiosa perché:
• poco affidabile poiché in caso di interruzione di una cella, l’UPS va fuori uso
Modello
12 SLA 25
12 SLA 37
12 SLA 50
6 SLA 75
6 SLA 100
4 SLA 125
4 SLA 150
Tensione
V
12
12
12
6
6
4
4
Capacità (Ah)
C3
C1
C10
25
20 17,5
37
30
26
50
40 365
75
60
52
100 80
70
125 100 87,5
150 120 105
Dimensioni
mm
Peso
kg
214x123x165
288x173x202
288x173x202
271x173x202
271x173x202
271x173x202
271x173x202
11
16
20
15,5
19,5
16,5
19
Fig.5.23: Specifiche tipiche delle batterie del mercato
dispense4.doc
80
Fig.5.24 Tipica configurazione di un
gruppo di batterie serie-parallelo
Dati di targa
Modello
12 SLA 25
12 SLA 37
12 SLA 50
6 SLA 75
6 SLA 100
4 SLA 125
4 SLA 150
Tensio Ah Wh Cos energia per ramo
ne V a C1 a C1 to
(Wh)
€
min
max
12
17,5 210 68
3.990
4.200
12
26 312 79
5.928
6.240
12
35 420 95
7.980
8.400
6
52 312 78 11.544 12.792
6
70 420 87 15.540 17.220
4
87,5 350 76 19.250 21.350
4
105 420 84 23.100 25.620
Dati contestualizzati
N°
rami teorici
mim
5,5
3,7
2,8
1,9
1,4
1,1
1,0
max
5,2
3,5
2,6
1,7
1,3
1,0
0,9
N°
N°
Rami reali Batterie totali
6
4
3
2
2
1
1
114
76
57
74
74
61
55
Peso
kg
kWh
nominali
1.254
1.216
1.140
1.147
1.443
1.007
1.045
23,9
23,7
23,9
23,1
31,1
21,4
23,1
Fig. 5.25 Elementi tipici delle batterie su cui operare la scelta progettuale
5.4 GRUPPO ELETTROGENO
Il gruppo elettrogeno è una macchina che serve alla produzione di energia elettrica formata da un motore e un alternatore.
Il motore genera la rotazione dell’asse dell’alternatore e questo produce energia elettrica. I vari componenti del gruppo
elettrogeno (motore, alternatore, batteria di accensione, quadro elettrico, ecc.) sono sistemati attraverso dei tamponi
antivibranti su una struttura metallica che conferisce al sistema la dovuta compattezza. Una fotografia di gruppo elettrogeno
è riportata in fig.5.26.
Il motore è alimentato per la prima fase di funzionamento dal carburante di un piccolo serbatoio a bordo del gruppo stesso
(che garantisce generalmente una autonomia di mezz’ora), il quale a sua volta è alimentato da un serbatorio esterno doi
dimensioni dipendenti dall’autonomia richiesta.
I gruppi elettrogeni sono utilizzati nelle seguenti circostanze:
- Assenza di linee elettriche
- Integrazione alla rete quando la richiesta di energia elettrica è superiore alla fornitura contrattuale.
- Generazione ausiliaria in caso di black-out
- Cogenerazione
dispense4.doc
81
L’utilizzo dei gruppi elettrogeni in assenza di linee elettriche è tipico dei luoghi isolati (esempio rifugi alpini, imbarcazioni,
ecc.)
L’utilizzo quale integrazione alla rete eletttica (peak shoving) avviene quando la fornitura dell’energia elettrica è insufficiente
a garantire tutto il fabbisogno. In questi casi si genera l’energia mancante con un gruppo elettrogeno. Questa soluzione è
giustificata solo in particolarissimi casi, comunque quasi mai in ambito sanitario.
L’utilizzo del gruppo elettrogeno quale generatore elettrico ausiliario in caso di black-out, è l’impiego più tipico e ricorrente in
ambito sanitario.
La cogenerazione consiste nell’utilizzazione del gruppo elettrogeno non solo per l’energia elettrica prodotta ma anche per il
calore.
In qualche caso e per gli Ospedali di grandi dimensioni la cogenerazione è economicamente vantaggiosa rispetto al
normale approvvigionamento energetico.
In seguito si considererà il gruppo elettrogeno quale generatore ausiliario in caso di black-out e si accennerà alla
cogenerazione.
Fig.5.26 Tipico gruppo elettrogeno del mercato
5.4.1 Il motore
La fonte di potenza attiva convertita dall’alternatore in energia elettrica è fornita da motori endotermici o da turbine. Le
turbine sono macchine generalmente di rilevante potenza, di buon rendimento, che si prestano particolarmente all’uso
continuo, usate quindi tipicamente nella cogenerazione. Solo recentemente sono disponibili delle “micro-turbine” a partire da
40 kW da usarsi però sempre in modo continuo.
Per i generatori ausiliari in ambito sanitario, il motore più usato è il motore diesel, mentre il motore a benzina è utilizzato solo
per piccole potenze (< 5kVA).
L’evoluzione dei motori diesel per gruppi elettrogeni ha avuto la stessa evoluzione dei motori automobilistici e attualmente la
soluzione più vantaggiosa è quella a iniezione controllata chiamati anche “Common Rail”. Il sistema di iniezione Common
Rail consente di regolare elettronicamente la quantità di combustibile iniettata, di regolare l’anticipo di iniezione e la
pressione di iniezione in funzione delle condizioni di funzionamento del motore.
I vantaggi del motore Common Rail rispetto a un tradizionale motore diesel sono:
- Consumo di carburante inferiore anche del 30 %
- Minori emissioni di CO2 stimati nel 20% rispetto ai motori a benzina
- Minor produzione di rumore
- Possibilità di regolare la pressione dell’iniezione indipendentemente dalla velocità del motore e dal carico
- Possibilità di sovralimentazione del motore aumentando la quantità di aria e carburante immesso nei cilindri, che a
parità di cilindrata sviluppa maggiori potenze
dispense4.doc
82
Nei gruppi elettrogeni la velocità di rotazione del motore deve essere rigorosamente costante in quanto la tolleranza
ammessa sulla frequenza dell’energia elettrica prodotta è dell’ordine del 1-2%.
La velocità angolare è fissata dalla relazione:
f • 60
n=
p
in cui
n = velocità angolare espressa in “giri al minuto”
f = frequenza espressa in Hz
p = coppie di poli dell’alternatore
Si evince che per frequenze di 50 Hz la massima rotazione possibile è di 3.000 giri al minuto. La configurazione tipica è
costituita da alternatori a due poli e conseguentemente la velocità angolare è di 1.500 giri al minuto. Solo per grandi potenze
(1.000 kVA) e utilizzi marini si utilizzano motori più lenti come ad esempio con velocità di 500 giri al minuto con diametri dei
cilindri di 400-600 mm o addirittura ancora più lenti fino a 100 giri al minuto, in genere a due tempi, per potenze fino a 40
MVA.
Poiché il numero dei giri del motore dipende dal carico, il motore dei gruppi elettrogeni deve essere continuamente regolato
in modo da mantenere costante la velocità di rotazione a prescindere dal carico.
Da quanto accennato emerge che i motori tipo Common Rail sono di gran lunga più adatti dei tradizionali motori diesel ad
essere usati nei gruppi elettrogeni in quanto garantiscono tolleranze sulla velocità di 3-5 volte migliore rispetto ai tradizionali
motori diesel.
Un’altra caratteristica peculiare dei motori dei gruppi elettrogeni usati quali alimentatori ausiliari è la partenza automatica di
alta affidabilità in caso di black-out energetico.
Ciò è garantito mediante le seguenti soluzioni:
- Mantenimento dell’olio del motore ad una temperatura predeterminata (circa 30C)
- Dispositivo automatico con alimentazione elettrica autonoma che effettua tutte le manovre necessarie per accendere il
motore e ripetere l’accensione in caso di fallimento del precedente tentativo.
- Segnalazione a distanza in luogo presidiato dell’avvenuta messa in funzione del motore affinché si possa procedere in
modo manuale qualora l’avviamento automatico fallisse.
5.4.2 L’alternatore
L’alternatore è una macchina elettrica che genera energia elettrica alternata trasformando l’energia meccanica ricevuta
all’asse dal motore.
Fig.5.27 Schematizzazione di un
alternatore
dispense4.doc
83
Per comprendere il principio di funzionamento di un alternatore si consideri la fig.5.27. Il rotore è costituito da un nucleo di
ferro su cui è sistemato l’avvolgimento A, chiamato anche “di eccitazione” in modo tale da generare un campo magnetico
fisso alimentato in corrente continua attraverso una coppia di contatti striscianti (spazzola e anello)
La rotazione dell’asse provoca una variazione di flusso magnetico negli avvolgimenti dello statore B e conseguentemente
per la legge “Faraday Lentz” si genera su di esso una forza elettomagnetica “e” secondo la relazione:
δΦ
e=
δt
dove con Φ si indica il flusso magnetico e con t il tempo.
A vuoto l’avvolgimento dello statore non è percorso da corrente per cui il solo campo presente è quello induttore. Fissato il
numero dei giri, il fattore che regola la tensione di uscita dipende dalla corrente di eccitazione secondo la relazione di fig.
5.28.
Fig. 5.28
Caratteristica a vuoto dell’alternatore
Nel primo tratto la tensione cresce con andamento rettilineo, mentre poi, a causa della saturazione del ferro inizia a flettersi
in modo che per ampie variazioni dell’eccitazione corrispondono contenute variazioni della tensione. Generalmente si sfrutta
questa caratteristica posizionando il punto di lavoro P un po’ oltre il ginocchio della curva.
A carico il comportamento dell’alternatore dipende sia dalla corrente erogata che dal cos φ; infatti:
- per carichi ohmici il campo prodotto dalla corrente del carico produce una coppia frenante che deve essere vinta dal
motore;
- Per carichi puramente induttivi il campo magnetico prodotto dal carico risulta allineato ma opposto al campo dell’indotto,
riducendone quindi il valore (effetto smagnetizzante) e conseguentemente riducendo la tensione in uscita;
- Per carichi puramente capacitivi l’effetto è opposto con presenza di una eccessiva magnetizzazione.
Nei casi reali, ove non solo vi è la sovrapposizione dei casi sopra visti ma anche la variabilità del carico nel tempo, per poter
mantenere la tensione d’uscita costante entro i limiti tipici del ±5% occorre una continua regolazione dell’eccitazione in
corrente continua.
5.4.3 Alternatori Brushless
Sono gli alternatori che oggi si usano nei gruppi elettrogeni in quanto hanno eliminato i contatti striscianti che richiedevano
parecchia manutenzione.
Questi alternatori sono essenzialmente costituiti da due macchine elettriche solidali sullo stesso albero come schematizzato
in Fig.5.29
dispense4.doc
84
Fig. 5.29 Schema di principio di un
alternatore Brushless
Uno è l’alternatore classico B e l’altro è un generatore di corrente alternata A che dopo un raddrizzatore produce la corrente
continua che alimenta l’avvolgimento di eccitazione dell’alternatore B.
La macchina elettrica A ha sul rotore 3 avvolgimenti a stella che, tagliando il flusso magnetico fisso prodotto dal relativo
avvolgimento sullo statore, generano una corrente trifase che raddrizzata da un ponte di diodi trifase alimenta
l’avvolgimento di eccitazione dell’alternatore B in corrente continua.
La resistenza R, detta di shunt, serve a provocare un rapido abbassamento della corrente durante la diseccitazione e ciò
per dissipare l’energia magnetica accumulata sull’avvolgimento di eccitazione B. I valori di R vanno da 2 a 5 volte
l’impedenza dell’avvolgimento di eccitazione B e pur dissipando sempre potenza è comunque necessaria.
L’alternatore abbisogna, come già accennato, di un sistema di regolazione, oggi a microprocessore, che garantisca la
costanza della tensione di uscita in funzione del carico e dello sfasamento come schematizzato in fig. 5.30.
L’alimentazione del sistema di regolazione è generalmente garantita da un avvolgimento ausiliario che genera corrente
alternata, solidale allo statore della macchina B.
Fig.5.30 Schema a blocchi di un
alternatore brushless
dispense4.doc
85
5.4.4 Gruppo elettrogeno
I gruppi elettrogeni utilizzati come generatori ausiliari per strutture sanitarie hanno potenze che variano generalmente da
100 a 800 kVA. In tabella di fig.5.31 sono riportate le principali caratteristiche di alcuni modelli presenti sul mercato.
Un aspetto particolarmente critico dei gruppi elettrogeni è costituito dal rumore prodotto durante il loro funzionamento. Una
recente normativa (direttiva europea 2000/14/CE recepita in Italia dal Dlgs 262/2002) prevede che per gruppi elettrogeni di
potenza compresa fra 10 kW e 400 kW il rumore massimo prodotto vada rispettivamente da 98,3 a 99,6 dB mentre dal 2006
detto rumore dovrà essere ulteriormente ridotto di 2 dB.
Consumo
Potenza Cilindrata
gasolio
kVA
motore
cos φ = 0,8
cm3
l/h
l/kVA
ECO POWER GENERATOR
83
3.983
COELMO
100
5.900
23,1
0,23
C.T.M.
100
4.700
28,0
0,28
VFM
184
8.200
57,0
0,31
IVECO
200
5.900
35,0
0,18
IVECO
250
7.800
55,0
0,22
CTM
315
14.000
56,0
0,18
PERKINS
385
12.170
83,4
0,22
CTM
400
21.930
72,0
0,18
VFM
500
15.200
110,0 0,22
COMMINS
580
30.480
153,0 0,26
PERKINS
630
26.110
135,0 0,21
Peso
Marca
kg
1.050
1.330
2.150
1.746
1.600
2.050
3.943
3.365
5.000
3.500
6.552
2.356
kg/kVA
12,7
13,3
21,5
9,5
8,0
8,2
12,5
8,7
12,5
7,0
11,3
3,8
Fig.5.31 Principali caratteristiche di alcuni modelli di gruppi elettrogeni presenti sul mercato
Un altro aspetto interessante dei gruppi elettrogeni (che giustifica dal punto di vista tecnico-ecologico la cogenerazione) è il
rendimento del sistema.
Il rendimento degli alternatori a spazzole per potenze dell’ordine delle centinaia di kVA è dell’ordine del 90% mentre a parità
di potenza per gli alternatori Brushless il rendimento non supera l’82-84%.
Il rendimento dei motori è molto più basso e influenzato dai parametri di funzionamento. Il rendimento, infatti, è dell’ordine
del 30-35% per i motori a benzina e dell’ordine del 38-40% per i diesel, grazie al maggior rapporto di compressione e al
minor potere calorico del gasolio.
Per un gruppo elettrogeno il rendimento elettrico è quindi circa 31-34%. L’energia non trasformata in elettricità è calore che
però in ambito sanitario potrebbe essere proficuamente utilizzato come per l’appunto effettuato nei sistemi di
cogenerazione.
dispense4.doc
86
Nei sistemi di cogenerazione il bilancio energetico è il seguente:
Tipo di energia
Energia elettrica
Calore a bassa temperatura(60C) di raffreddamento
Calore di raffreddamento ad alta temperatura(90C)
Calore dei gas di scarico (400C)
Calore disperso
Utilizzo
Energia elettrica
Acqua sanitaria (45C)
Riscaldamento (70C)
Produzione vapore (132C)
nessuno
Stima
31-34%
10-12%
12-16%
32-35%
4-7%
Come si vede è possibile utilizzare circa il 95% dell’energia ottenuta dalla combustione del gasolio.
In termini ecologici il bilancio è molto vantaggioso; basti pensare che l’energia elettrica distribuita dalla rete è prodotta per la
maggior parte dalle centrali termoelettriche che a causa dell’inquinamento sono situate in zone lontane dai centri abitati.
Tale distanza rende praticamente impossibile l’utilizzo del calore nei possibili luoghi di utilizzo (centri abitati) per cui esso
viene disperso nell’ambiente (in atmosfera o nei fiumi o nel mare attraverso l’acqua di raffreddamento) provocando anche
danni all’ecosistema, nonostante la normativa vigente prescriva il massimo ΔC ammissibile).
Resta il fatto che la maggior parte dell’energia elettrica che è distribuita dalla rete è prodotta con un rendimento che al
massimo raggiunge il 40%.
Per quanto riguarda l’immissione in atmosfera del CO2 occorre osservare che per produrre il calore utile si dovrà comunque
bruciare dell’altro combustibile in caldaie che hanno un rendimento dell’85% circa.
Volendo confrontare il bilancio energetico fra l’utilizzo della cogenerazione e il metodo tradizionale, per generare ad
esempio 35 kW elettrici e 60 kW termici si ottiene:
Cogenerazione
Fabbisogno totale di energia totale
Calore disperso nell’ambiente
CO2 prodotto con gasolio (1)
100 kW
5 kW
82 kg/h
Sistema tradizionale
Produzione di 35 kW elettrici con rendimento 40%
87 kW
Produzione di 60 kW termici con rendimento 85%
70 kW
____________________________________________________________________
Fabbisogno di energia totale
157 kW
Calore disperso nell’ambiente
62 kW
CO2 prodotto con metano (2)
92 kg/h
(1) La combustione di 1kg gasolio produce 3,27 kg CO2
(2) La combustione di 1kg metano produce 2,35 kg CO2
dispense4.doc
87
6. APPARECCHI ELETTROMEDICALI
6.1 DEFINIZIONE DI APPARECCHIO
Gli apparecchi di uso medico rientrano in due direttive europee e precisamente:
• Dispositivi medici (93/42/CE) recepita in Italia con il Dlgs 46/1997
• Dispositivi medico-diagnostici in vitro (98/79/CE) recepita in Italia con il Dlgs 332/2000
Per quanto riguarda gli apparecchi vengono definite le seguenti tiopologie:
a) Apparecchio biomedico
Si intende per apparecchio biomedico, l’apparecchio usato per la diagnosi, terapia, riabilitazione e più in generale per la
cura del paziente, e rientra nella direttiva dei dispositivi medici. Un sottinsieme di questi apparecchi è chiamato “apparecchio
elettromedicale” normato dalla norma generale europea CEI 62-5 (traduzione della norma europea EN 60601-1) e dalle
norme particolari CEI 62-XX. La norma CEI 62-5 definisce apparecchio elettromedicale come quell’ “Apparecchio elettrico,
munito di non più di una connessione a una particolare rete di alimentazione destinato alla diagnosi, al trattamento o alla
sorveglianza del paziente sotto la supervisione di un medico, e che entra in contatto fisico o elettrico col paziente e/o
trasferisce energia verso o dal paziente e/o rivela un determinato trasferimento di energia verso o dal paziente.
L’apparecchio comprende quegli accessori, definiti dal construttore, che sono necessari per permettere l’uso normale
dell’apparecchio” come ad esempio cavi, trasduttori, manuale d’uso, ecc.)
Alcuni esempi di:
• Apparecchio elettromedicale
− Elettrocardiografo (connesso al paziente)
− Elettrobisturi (connessa al paziente)
− Monitor pH in vivo (connesso al paziente)
− Lampada scialitica (trasferisce energia al paziente)
− Tavolo operatorio elettrificato (contatto fisico e apparecchio elettrico)
Le varie parti di un apparecchio elettromedicale, così come definite dalla norma CEI 62-5 sono riportate in fig.6.1
• Apparecchio biomedico non elettromedicale
− Tavolo operatorio meccanico (non elettrico)
− Sviluppatrice pellicole radiologiche (non è in contatto con il paziente)
− Autoclave a vapore per sterilizzazione (non è in contatto con il paziente)
b) Apparecchio medico-diagnostico in vitro
Sono tutti gli apparecchi usati in laboratorio per la determinazione di parametri biologici (esami del sangue, delle urine, ecc.;
esami istologici, citologici, ecc.). Gli apparecchi elettrici di questa categoria sono normati dalla norma generale europea CEI
66-5.
Esempi di questi apparecchi sono:
− Apparecchi analitici di laboratorio
− Frigoriferi biologici (conservazione di campioni)
− Centrifughe
6.2 CLASSIFICAZIONE
Secondo la norma CEI 62-5 la sicurezza degli apparecchi elettromedicali riguarda la protezione contro i contatti diretti o
indiretti con il corpo del paziente, dell'operatore o di terzi.
Suddette protezioni devono essere ottenute mediante una combinazione dei seguenti provvedimenti:
- Impedire il contatto mediante involucri, ripari o montaggi inaccessibili;
- Ridurre le tensioni o le correnti presenti in parti delle apparecchiature che possono venire toccate.
Tutti gli apparecchi vengono classificati in tre classi (I, II, Alimentazione Interna) secondo la modalità di protezione adottata.
- Apparecchio classe I
E' definito come l'apparecchio nel quale la protezione contro i contatti diretti ed indiretti non consiste soltanto
nell'isolamento fondamentale, ma anche in una misura supplementare di sicurezza consistente nel collegamento delle
parti conduttrici al conduttore di protezione del cablaggio fisso dell'impianto in modo tale che le parti conduttrici
accessibili non possano trovarsi sotto tensione per un cedimento dell'isolamento fondamentale.
Lo schema di principio di un apparecchio di classe I è riportato in fig.6.2.
dispense5.doc
88
Fig.6.1 Varie parti che compongono un
apparecchio elettromedicale
- Apparecchio classe II
E' definito come l'apparecchio nel quale la protezione contro i contatti diretti ed indiretti non consiste soltanto
nell'isolamento fondamentale, ma anche in misure supplementari di sicurezza quali il doppio isolamento o l'isolamento
rinforzato.
Queste misure non prevedono la messa a terra di protezione e non dipendono dalle condizioni di installazione.
Lo schema di principio di un apparecchio di classe II è riportato in fig.6.3.
- Apparecchio con sorgente elettrica interna
Un apparecchio può essere riconosciuto come tale soltanto se non esiste connessione esterna alla sorgente elettrica
interna, oppure se la connessione elettrica alla sorgente interna, come ad esempio una batteria ricaricabile, può
avvenire solamente dopo la separazione fisica della sorgente elettrica interna e di un eventuale dispositivo di ricarica
dell'apparecchio.
Se queste prescrizioni non possono essere rispettate, l'apparecchio deve essere classificato di classe I, II.
Lo schema di principio di un apparecchio di questa classe è mostrato in fig.6.4.
A prescindere dalla classe dell'apparecchio, vengono identificati tre gradi di protezione, individuati con il tipo:
- Apparecchio di tipo B.
Apparecchio di Classe I o III, od apparecchio munito di sorgente elettrica interna, avente un grado adeguato di
protezione contro i contatti diretti e indiretti con particolare riguardo per:
• le correnti di dispersione ammissibili;
• l'affidabilità del collegamento a terra (se esistente).
Questi apparecchi sono adatti per applicazioni esterne ed interne al paziente, come ad esempio nella registrazione
dell'ECG o nel cateterismo uretrale, esclusa l'applicazione cardiaca diretta.
- Apparecchio di tipo BF.
Apparecchio di tipo B avente una parte applicata isolata di tipo F (flottante).
- Apparecchio di tipo CF.
Apparecchio di Classe I o II, od apparecchio munito di sorgente elettrica interna, avente un alto grado di protezione
contro i contatti diretti e indiretti con particolare riguardo per le correnti di dispersione ammissibili, ed avente una parte
applicata isolata di tipo F (flottante).
Un apparecchio di tipo CF è specificatamente adatto per applicazione cardiaca diretta.
Per essi sono richiesti livelli di sicurezza diversi, secondo che si possano verificare situazioni di macroshock o di
microshock.
Gli apparecchi di tipo B e BF sono adatti per configurazioni di misura che comportano contatto esterno od interno del
paziente, cuore escluso, mentre il tipo CF è adatto per applicazioni cardiache dirette.
I vari tipi e gradi di protezione sono caratterizzati, dal punto di vista elettrico, rispettivamente dal grado di isolamento
elettrico e dalla corrente di dispersione; ad essi sono dati dei valori numerici, secondo ciascun caso, precisando
contemporaneamente le modalità di misura.
Gli apparecchi si considerano sicuri quando superano favorevolmente tutte le prove previste.
dispense5.doc
89
Fig. 6.2 Schema di principio di un apparecchio con tipo di protezione di classe I (da CEI 62.5)
Fig.6.3
Schema di principio di un apparecchio con tipo di protezione in classe II (da CEI 62-5)
dispense5.doc
90
Fig. 6.4 Schema di principio di un
apparecchio con sorgente elettrica
interna
(1) apparecchio
(4) sorgente elettrica interna
(5) parte applicata
(Da CEI 62-5; con modifiche)
6.3 TIPI DI PROTEZIONE
I tipi di protezione previsti nelle apparecchiature elettromedicali sono individuati dalla classe. Per ciascuna di esse sono
definite le tensioni di isolamento riportate in fig.6.5.
La misura dell'isolamento elettrico (e della corrente di dispersione che verrà discussa in seguito), deve iniziare subito dopo
un trattamento di umidità, a cui le apparecchiature sono sottoposte, che dura complessivamente 24 ore. Il trattamento
consiste nell'esposizione dell'apparecchio per 12 ore in un ambiente a 40C e con 90% di umidità relativa, in modo tale che
si verifichino, ad opera dell'umidità , eventuali cambiamenti nella qualità dell'isolante. nelle successive 12 ore l'apparecchio
viene lasciato a temperatura ambiente, per fare asciugare la condensa provocata dal trattamento precedente.
Dopo questo trattamento, si eseguono le prove di isolamento, a tensioni prestabilite per ciascuna classe, applicate in punti
particolari dell'apparecchio.
In generale si distinguono i seguenti tipi di isolamento:
- Isolamento fondamentale per fornire la protezione fondamentale contro i pericoli elettrici (art.2.3.2 CEI 62-5)
- Isolamento supplementare, indipendente da quello fondamentale, allo scopo di protezione contro i contatti
diretti/indiretti in caso di cedimento dell'isolamento fondamentale (art.2.3.8 CEI 62-5), è generalmente maggiore o
uguale dell'isolamento fondamentale
- Isolamento rinforzato: è un isolamento pari all'isolamento fondamentale più l'isolamento supplementare e può essere
tecnologicamente realizzato o con due isolanti separati oppure con uno solo maggiorato nelle dimensioni.
La Norma CEI 62-5 per ciascuna classe di tensione di esercizio fornisce i valori nel caso di isolamento fondamentale,
supplementare, rinforzato.
In generale per la protezione contro i contatti indiretti esistono due strade:
1) isolamento fondamentale + terra di protezione
2) isolamento rinforzato.
L'Appendice E della CEI 62-5 riporta le modalità di prova della tensione applicata sui vari apparecchi.
La sintesi dei più significativi punti di misura con le relative tensioni di prova è riportata in Fig.6.5, che si riferisce alle
seguenti tensioni di esercizio:
- App. Classe I: 220 V
- App. Classe II: 220 V
- App. alimentazione interna: 50 V
Fig.6.5 Sintesi dei più significativi punti di
misura
1 = Apparecchio elettromedicale
2 = Involucro preventivamente messo
a terra
3 = Involucro non connesso alla terra
di protezione
4 = Parte applicata alla rete
5 = Parte applicata al paziente
dispense5.doc
91
Si noti che:
− l'apparecchio AI pone modestissimi problemi di isolamento,
− l'apparecchio di classe I ha livelli usuali di isolamento,
− l’apparecchio di classe II ha livelli inusuali di solamento che riguarderanno essenzialmente il trasformatore e
l'interruttore di accensione.
6.4 GRADO DI PROTEZIONE
Il grado di protezione di un apparecchio elettromedicale, individuato dal tipo, è determinata dalla corrente di dispersione
massima che può fluire verso terra dalle parti più significative dell’apparecchio.
Le norme prevedono diversi tipi di corrente di dispersione, tuttavia in questa sede si considereranno solo le seguenti tre:
- Corrente di dispersione verso terra.
Corrente fluente dalla parte collegata alla rete verso il conduttore di protezione attraverso o attorno l'isolamento
-
Corrente di dispersione sull'involucro.
Corrente fluente nell'involucro o parte dell'involucro verso terra o verso un'altra parte dell'involucro, attraverso un
collegamento conduttore esterno diverso dal conduttore di protezione.
-
Corrente di dispersione nel paziente.
Corrente fluente dalla parte applicata al paziente verso terra (esclusa ogni corrente funzionale nel paziente), o fluente
dal paziente verso terra attraverso una parte applicata isolata (flottante) a causa del verificarsi non intenzionale sul
paziente di una tensione dovuta ad una sorgente esterna.
La configurazione di misura è riportata in fig.6.6
Fig.6.6
Punti di misura delle correnti di
dispersione. MD è lo strumento di
misura
Lo strumento di misura MD è costituito dalla rete riportata in fig.6.7 e simula il paziente. Infatti l’impedenza che vede il
circuito è 1kΩ (R2) mentre le reti R1 e C1, che danno luogo alla risposta in frequenza di fig.6.7, è speculare all’andamento
della soglia di fibrillazione sull’uomo di fig.????. Così facendo la corrente misurata dal voltmetro dell’MD è normalizzata con
la frequenza, nel senso che le correnti di soglia di fibrillazione presentano lo stesso valore numerico al variare della
frequenza, semplificando molto la misura.
I valori di corrente di dispersione devono essere inferiori a quelli indicati in fig.6.8 e sono definiti sia in condizione di normale
funzionamento (N.C.) sia in condizione di primo guasto (S.F.C).
Le condizioni di primo guasto sono:
- interruzione di un conduttore di alimentazione per volta;
- interruzione del conduttore di protezione;
- applicazione di una tensione pari al 110% della massima tensione nominale di rete tra ogni parte applicata flottante e la
terra;
Le misure di corrente di dispersione devono essere eseguite dopo che l'apparecchio ha subito il trattamento d'umidità, visto
nel paragrafo precedente e l’alimentazione dell'apparecchio deve essere pari a 1,1 volte (+ 10%) la massima tensione di
rete assegnata.
dispense5.doc
92
6.5 RESISTENZA DEL CONDUTTORE DI PROTEZIONE
La Norma CEI 62-5 art.18 afferma che le parti accessibili degli apparecchi di Classe I devono essere connesse mediante
un'impedenza sufficientemente bassa al morsetto di terra di protezione dell’impianto di alimentazione.
In fig.6.9 è riportato schematicamente quanto prescrive la norma.
Fig.6.7 Strumento di misura MD delle correnti di dispersione (da CEI 62-5)
Fig.6.8
Valori ammissibili permanenti delle correnti di dispersione e delle correnti ausiliarie nel paziente, espressi in mA (Da CEI 62-5)
dispense5.doc
93
Fig.6.9 Valore massimo di resistenza
di protezione ammesso per gli
apparecchi elettromedicali
Per rendersi conto dell’importanza della resistenza di protezione si considerino i casi pericolosi che verranno discussi in
seguito.
6.6 SITUAZIONI PERICOLOSE
Per rendersi conto dell’utilità delle varie prescrizioni normative si prendano in considerazione alcune situazioni fra le più
frequentemente riscontrate:
•
Fig.6.10 Rappresenta un paziente con collegamento cardiaco diretto connesso correttamente con due apparecchi
elettromedicali. Collegamento cardiaco diretto con apparecchi tipo CF, unico consentito, altro collegamento
con apparecchio di tipo B.
Il paziente è in sicurezza in quanto nel collegamento con rischio di microshock la corrente di dispersione
dell’apparecchio non supera i 10 μA mentre nel collegamento con rischio di macroshock la corrente di
dispersione non supera i 100 μA.
•
Fig.6.11 Il paziente con collegamento diretto cardiaco e quindi con rischio di microshock, non può venire in contatto
con l’involucro (corrente di dispersioen di 100 μA anche negli apparecchi di tipo CF, vedere fig.6.8).
Il paziente in questo caso correrebbe un rischio gravissimo anche se l’impianto elettrico e l’apparecchio
elettromedicale rispondono a tutti i requisiti di sicurezza.
•
Fig.6.12 Anche in questo caso il paziente è in pericolo soprattutto se l’operatore non presenta una bassa resistenza
verso terra (zoccoli di plastica)
Si può notare che il paziente con collegamento diretto cardiaco può essere in pericolo a causa di comportamenti
irragionevoli anche con impianto e apparecchio rispondenti ai requisiti di sicurezza.
Per pazienti senza collegamento diretto cardiaco, ovvero con rischio di marcoshock, il pericolo nasce solo in seguito a
guasti.
•
Fig.6.13 Si noti che con il 1° guasto il paziente è in sicurezza. I valori previsti dalla norma per la resistenza in parallelo
al paziente RT sono tali da offrire le più ampie garanzie di sicurezza. E’ però evidente che la sicurezza
peggiora se la resistenza di protezione RT aumenta con l’uso di prolunghe, adattatori o simili.
In caso di 2° guasto, ovvero di interruzione della resistenza di protezione RT il paziente si trova connesso alla
rete. In questa condizione neppure l’organi di protezione interverrà per cui il paziente si trova in una
situazione di grandissimo pericolo (morte quasi certa). Questa eventualità è possibile solo con due guasti
contemporanei (corto circuito fase-involucro e interruzione conduttore di protezione) e non può verificarsi se si
adempiono le prescrizioni normative.
•
Fig.6.14 Con l’uso di apparecchi flottanti (BF o CF) il paziente è in sicurezza anche in presenza di 2° guasto mentre
l’operatore in contatto con l’involucro è in pericolo.
dispense5.doc
94
Fig.6.10 Rischio di microshock. Caso previsto dalla norma CEI 62-5. Le correnti di dispersioen nel paziente sono conformi a quelle
indicate in fig.6.8. Paziente in sicurezza.
Fig.6.11 Rischio di microshock. Caso non previsto dalla norma CEI 62-5. E’ irragionevole che il collegamento diretto cadiaco venga in
contatto con l’involucro. Nonostante l’apparecchio sia di tipo CF e soddisfi i valori di fig.6.8, il paziente è in pericolo grave.
≈ 70 μA
Fig.6.12 Rischio di microshock. Attraverso l’operatore potrebbe passare nel paziente una corrente pericolosa. Non è operativamente
giustificato che l’operatore tocchi il collegamento diretto cardiaco del paziente e contemporaneamente un involucro
dell’apparecchio.
dispense5.doc
95
Fig.6.13 Rischio di macroshock. Il 1° guasto fase-involucro provoca una corrente di guasto che fa intervenire gli organi di protezione,
inoltre, essendo RT << R il paziente è in sicurezza. Con il 2° guasto il paziente è in grave pericolo.
Fig.6.14 Rischio di macroshock. Al 1° guasto sia l’operatore che il paziente sono in sicurezza. Al 2° guasto solo il paziente è in
sicurezza, mentre l’operatore è in pericolo.
dispense5.doc
96
7. DEFINIZIONI
Si riportano di seguito le più importati definizioni estratte dalle Norme CEI relative agli argomenti qui considerati.
- IMPIANTI
Protezione contro i contatti diretti
Le persone devono essere protette contro i pericoli che possono derivare dal contatto con parti attive dell'impianto.
Questa protezione può essere ottenuta mediante uno dei seguenti metodi:
- impedendo che la corrente passi attraverso il corpo;
- limitando la corrente che può attraversare il corpo ad un valore inferiore a quello patofisiologicamente pericoloso
Protezione contro i contatti indiretti
Le persone devono essere protette contro i pericoli che possono derivare dal contatto con messe in caso di guasto che
provochi la mancanza dell'isolamento.
Questa protezione può essere ottenuta mediante uno dei seguenti metodi:
- impedendo che la corrente passi attraverso il corpo;
- limitando la corrente che può attraversare il corpo ad un valore inferiore a quello patofisiologicamente pericoloso;
- interrompendo automaticamente il circuito in un tempo determinato al verificarsi di un guasto suscettibile di
provocare attraverso il corpo, in contatto con le masse, una corrente almeno uguale a quella pericolosa per il corpo
umano.
Nota - Con riferimento alla protezione contro i contatti indiretti, l'utilizzo di collegamenti equipotenziali costituisce un
principio fondamentale di sicurezza.
Protezione contro gli effetti termici
L'impianto elettrico deve essere realizzato in modo che non ci sia, in servizio ordinario, pericolo di innesco dei materiali
infiammabili a causa di temperature elevate o di archi elettrici. Inoltre, non ci deve essere rischio che le persone possano
venire ustionate.
Protezione contro le sovracorrenti
Le persone ed i beni devono essere protetti contro le conseguenze dannose di temperature troppo elevate o di
sollecitazioni meccaniche dovute a sovracorrenti che si possano produrre nei conduttori attivi.
Protezione contro le correnti di guasto
I conduttori diversi dai conduttori attivi e qualsiasi altra parte destinati a portare correnti di guasto devono essere in
grado di portare queste correnti senza raggiungere temperature troppo elevate.
Protezione contro le sovratensioni
Le persone ed i beni devono essere protetti contro le conseguenze dannose di un guasto tra parti attive di circuiti
alimentati con tensioni di valore differente.
Le persone ed i beni devono essere protetti contro le conseguenze dannose di sovratensioni che si possano produrre
per altre cause (come per es. per fenomeni atmosferici e sovratensioni di manovra).
Protezione contro gli abbassamenti di tensione
Quando un abbassamento di tensione, o la mancanza ed il successivo ripristino della tensione, possono comportare
pericoli per le persone o per le cose, devono essere prese opportune precauzioni.
Impianto elettrico
Insieme di componenti elettrici elettricamente associati al fine di soddisfare a scopi specifici e aventi caratteristiche
coordinate. Fanno parte dell'impianto elettrico tutti i componenti elettrici non alimentati tramite prese a spina;
fanno parte dell'impianto elettrico anche gli apparecchi utilizzatori fissi tramite prese a spina destinate unicamente alla
loro alimentazione.
Conduttore di neutro
Conduttore collegato al punto di neutro del sistema ed in grado di contribuire alla trasmissione dell'energia elettrica.
dispense5.doc
97
Alimentazione dei servizi di sicurezza
Sistema elettrico inteso a garantire l'alimentazione di apparecchi utilizzatori o di parti dell'impianto necessari per la
sicurezza delle persone. Il sistema include la sorgente, i circuiti e gli altri componenti elettrici.
Alimentazione di riserva
Sistema elettrico inteso a garantire l'alimentazione di apparecchi utilizzatori o di parti dell'impianto per motivi diversi dalla
sicurezza delle persone.
Massa
Parte conduttrice di un componente elettrico che può essere toccata e che non è in tensione in condizioni ordinarie, ma
che può andare in tensione in condizioni di guasto.
Massa estranea
Parte conduttrice non facente parte dell'impianto elettrico in grado di introdurre un potenziale, generalmente il potenziale
di terra.
Parte attiva
Conduttore o parte conduttrice in tensione nel servizio ordinario, compreso il conduttore di neutro, ma escluso, per
convenzione, il conduttore PEN.
Shock elettrico
Effetto patofisiologico risultante dal passaggio di una corrente elettrica attraverso il corpo umano.
Contatto diretto
Contatto di persone con parti attive.
Contatto indiretto
Contatto di persone con una massa in tensione per un guasto.
Corrente pericolosa (per il corpo umano)
Corrente che passa attraverso il corpo umano avente caratteristiche tali da causare effetti patofisiologici.
Corrente di dispersione verso terra
Corrente che, in assenza di guasto, fluisce verso terra o verso le masse.
Corrente differenziale
Somma algebrica dei valori istantanei delle correnti che percorrono tutti i conduttori attivi di un circuito in un punto
dell'impianto.
Isolamento principale
Isolamento delle parti attive utilizzato per la protezione base contro i contatti diretti e indiretti.
Isolamento supplementare
Isolamento indipendente previsto in aggiunta all'isolamento principale per assicurare la protezione contro i contatti
elettrici in caso di guasto dell'isolamento principale.
Doppio isolamento
Isolamento comprendente sia l'isolamento principale sia l'isolamento supplementare.
Isolamento forzato
Sistema unico di isolamento applicato alle parti attive, in grado di assicurare un grado di protezione contro i contatti
elettrici al doppio isolamento, nelle condizioni specificate nelle relative Norme.
Conduttore di protezione (PE)
Conduttore prescritto per alcune misure di protezione contro i contatti indiretti per il collegamento di alcune delle
seguenti parti:
dispense5.doc
98
- masse;
- masse estranee;
- collettore (o nodo) principale di terra;
- dispersore;
- punto di terra della sorgente o neutro artificiale.
Nota - Il simbolo PEN risulta dalla combinazione del simbolo PE per il conduttore di protezione e del simbolo N per il
conduttore di neutro.
Conduttore di terra
Conduttore di protezione che collega il collettore (o nodo) principale di terra al dispersore od i dispersori tra loro.
Collegamento equipotenziale
Collegamento elettrico che mette diverse masse e masse estranee al medesimo potenziale.
Impianto di terra
Insieme dei dispersori, dei conduttori di terra, dei collettori (o nodi) di terra e dei conduttori di protezione ed
equipotenziali, destinato a realizzare la messa a terra di protezione e/o di funzionamento.
Terra
Il terreno come conduttore il cui potenziale elettrico in ogni punto è convenzionalmente considerato uguale a zero.
Portata (in regime permanente) (di una conduttura)
Massimo valore della corrente che può fluire in una conduttura, in regime permanente ed in determinate condizioni,
senza che la sua temperatura superi un valore specificato.
Sovracorrente
Ogni corrente che supera il valore nominale. Per le condutture, il valore nominale è la portata.
Corrente di sovraccarico (di un circuito)
Sovracorrente che si verifica in un circuito elettricamente sano.
Corrente di cortocircuito (franco)
Sovracorrente che si verifica in seguito a un guasto di impedenza trascurabile fra due punti fra i quali esiste tensione in
condizioni ordinarie di esercizio.
Corrente di guasto
Corrente che si stabilisce a seguito di un cedimento dell'isolamento o quando l'isolamento è cortocircuitato.
Conduttore equipotenziale per il collegamento di masse estranee
Conduttore che collega fra di loro e all'eventuale nodo o anello equipotenziale le masse estranee.
Nodo od anello equipotenziale del locale
Elemento dell'impianto nel quale confluiscono i conduttori, di protezione e/o equipotenziali.
Egualizzazione del potenziale
Provvedimento protettivo che mediante un collegamento elettrico tra le masse e/o le masse estranee accessibili in un
locale, o in un gruppo di locali, fa sì che le stesse assumano il medesimo potenziale.
Detto provvedimento deve essere completato con il collegamento al conduttore di protezione (PE di Fig.1).
- APPARECCHI
Parte conduttrice accessibile
Parte conduttrice di un apparecchio che può essere toccata (vedi 2.1.22) senza l'uso di un utensile.
dispense5.doc
99
Documentazione annessa
Documentazione annessa all'apparecchio o ad un accessorio, che contiene tutte le informazioni importanti per
l'utilizzatore, l'operatore, l'installatore o montatore dell'apparecchio riguardanti particolarmente la sicurezza.
Parte applicata
Complesso di tutte le parti dell'apparecchio, compresi i conduttori collegati al paziente, che vengono intenzionalmente
messe in contatto con il paziente sotto esame o cura. Per alcuni tipi di apparecchi, le Norme Particolari possono
considerare le parti in contatto con l'operatore come parti applicate.
Per alcuni apparecchi, una parte applicata di tipo F si estende, vista dalla parte del paziente verso l'apparecchio, fino
al/ai punto/i dove l'isolamento e/o impedenza di protezione sono realizzati come prescritto.
Involucro
Superficie esterna dell'apparecchio comprendente:
- tutte le parti metalliche accessibili, pomoli, maniglie e simili;
- gli alberi accessibili, e
- ai fini delle prove, un foglio metallico di dimensioni specificate, a contatto con parti della superficie esterna di materiale
a bassa conduttività o di materiale isolante.
Sorgente elettrica interna
Sorgente incorporata nell'apparecchio e destinata a fornire l'energia elettrica necessaria per far funzionare l'apparecchio
stesso.
Parte collegata alla rete
Complesso di tutte le parti dell'apparecchio destinate per avere un collegamento conduttore con la rete di alimentazione.
Nel contesto della presente Norma il conduttore di protezione non viene considerato come facente parte della parte
collegata alla rete.
Apparecchiatura d'alimentazione
Apparecchiatura che fornisce energia elettrica ad una o più parti dell'apparecchio.
Parte accessibile
Parte dell'apparecchio che può essere toccata senza l'uso di un utensile.
Apparecchio elettromedicale
Apparecchio elettrico, munito di non più di una connessione a una particolare rete di alimentazione destinato alla
diagnosi, al trattamento o alla sorveglianza del paziente sotto la supervisione di un medico, e che entra in contatto fisico
o elettrico col paziente e/o trasferisce energia verso o dal paziente e/o rivela un determinato trasferimento di energia
verso o dal paziente.
Distanza in aria
Il minor percorso tra due parti conduttrici, misurato in aria.
Isolamento fondamentale
Isolamento di cui sono munite le parti sotto tensione per fornire la protezione fondamentale contro i pericoli elettrici.
Distanza superficiale
Il minor percorso tra due parti conduttrici, misurato lungo la superficie del materiale isolante.
Corrente di dispersione verso terra
Corrente fluente dalla parte collegata alla rete verso il conduttore di protezione attraverso o lungo l'isolamento.
Corrente di dispersione sull'involucro
Corrente fluente dall'involucro o parte dell'involucro, escluse le parti applicate, accessibile all'operatore o al paziente in
uso ordinario, attraverso un collegamento conduttore esterno diverso dal conduttore di protezione verso terra o un'altra
parte dell'involucro.
dispense5.doc
100
Corrente di dispersione
Corrente che non è funzionale. Si definiscono le seguenti correnti di dispersione: corrente di dispersione verso terra,
corrente di dispersione sull'involucro e corrente di dispersione nel paziente.
Corrente di dispersione nel paziente
Corrente fluente dalla parte applicata al paziente verso terra, o fluente dal paziente verso terra attraverso una parte
applicata di tipo F a causa del verificarsi non intenzionale sul paziente di una tensione dovuta ad una sorgente esterna.
dispense5.doc
Prof. Silvano Dubini
LABORATORIO DI ESAMI
INDICE
1.
PREMESSA .............................................................................................................4
2.
ASPETTI CLINICI ....................................................................................................5
3.
ASPETTI ORGANIZZATIVI .....................................................................................7
4
3.1
Prelievo del sangue...........................................................................................7
3.2
Tipologie di laboratorio ......................................................................................9
3.3
Evoluzione tecnologica del laboratorio ............................................................10
METODICHE DI LAVORO .....................................................................................13
4.1
Chimica clinica ................................................................................................13
4.1.1
Biochimica................................................................................................13
4.1.1.1
Fotometria ad assorbimento luminoso........................................................................................................14
4.1.1.2
Fotometria end-point e cinetica enzimatica ................................................................................................16
4.1.1.3
Schemi realizzativi per fotometria ad assorbimento ...................................................................................18
4.1.1.4
Realizzazzione della sorgente luminosa .....................................................................................................19
4.1.1.5
Realizzazzione del monocromatore............................................................................................................21
4.1.1.6
Realizzazione dei rivelatori ........................................................................................................................21
4.1.2
Elettroliti ...................................................................................................24
4.1.2.1
La fotometria a fiamma ..............................................................................................................................24
4.1.2.2
Sensore a elettrodo specifico ......................................................................................................................25
4.1.3
pH ematico, pO2 e pCO2 .........................................................................28
4.1.4
Proteine....................................................................................................28
4.1.4.1
4.1.5
Ormoni e farmaci......................................................................................31
4.1.5.1
Gascromatografo ........................................................................................................................................33
4.1.5.2
Sensore a ioni e sensore a cattura di elettroni .............................................................................................35
4.1.5.3
HPLC .........................................................................................................................................................37
4.1.6
4.1.6.1
4.2
Elettroforesi................................................................................................................................................29
Urine ........................................................................................................38
Chimica secca.............................................................................................................................................38
Ematologia ......................................................................................................40
4.2.1
Elementi figurati del sangue .....................................................................40
4.2.1.1
Conteggio manuale dei corpuscoli ematici.................................................................................................42
4.2.1.2
Conteggio automatico con macchina di Coulter.........................................................................................43
4.2.1.3
Conteggio automatico con metodo di misura TOA ....................................................................................47
2
4.2.2
4.2.2.1
4.3
Antigeni ed anticorpi.................................................................................53
4.3.1.1
Sistema di misura RIA (RadioImmunoAssay) ...........................................................................................55
4.3.1.2
Tecniche di biologia molecolare.................................................................................................................59
4.3.2
Gruppi sanguigni ......................................................................................62
microbiologia ...................................................................................................64
4.4.1
Batteri.......................................................................................................64
4.4.2
I miceti......................................................................................................67
4.4.3
Parassiti ...................................................................................................68
4.4.4
Virus.........................................................................................................69
4.5
5
La misura della coagulazione .....................................................................................................................51
Immunologia....................................................................................................53
4.3.1
4.4
Coagulazione ...........................................................................................49
citologia e istologia ..........................................................................................71
4.5.1
Cellula e tessuto.......................................................................................71
4.5.2
Citogenetica .............................................................................................72
AUTOMAZIONE.....................................................................................................73
5.1
Realizzazzione degli strumenti di prelievo liquidi ............................................73
5.2
Tecnica SMA per automatizzazione fotometria (multianalizzatore seriale) .....76
5.3
Realizzazzione di fotometria a profilo variabile ...............................................81
3
1. PREMESSA
Il seguente rapporto vuole introdurre i partecipanti al corso alle problematiche del
laboratorio di analisi. Le brevi informazioni fornite sono propedeutiche allo svolgimento
della ricerca e servono per porre sullo stesso piano di conoscenza di base tutti i discenti
a prescindere dalla loro estrazione culturale.
4
2. ASPETTI CLINICI
In
un
laboratorio
clinico
vengono
effettuate
indagini
sia
per
restringere
progressivamente le ipotesi diagnostiche iniziali formulate dal medico clinico (fino ad
ottenere una diagnosi il più possibile sicura), sia per avere un supporto oggettivo al
giudizio prognostico che al monitoraggio del decorso della malattia e delle terapie
approntate.
Tali indagini vengono condotte prevalentemente su campioni prelevati dal paziente,
costituiti da liquidi biologici o talvolta da parti di tessuto prelevate per biopsia.
I liquidi biologici possono suddividersi essenzialmente in: sangue (sangue intero,
plasma e siero), urina e, in minor misura, liquido cerebrospinale, liquido amniotico,
liquido seminale, feci, escreato, succhi gastrico e duodenale, ecc.
I campioni così definiti vengono sottoposti a trattamenti ed analisi di varia natura: fisici
(come ad esempio la centrifugazione), chimici (come ad esempio l'aggiunta di sostanze
e reagenti), microscopici (sia a fresco che dopo colorazione) e biologici (reazioni
immunologiche, ecc.).
Le informazioni diagnostiche oggi ottenibili con le indagini di laboratorio, sono
schematizzate in Tab.1.
•
Stato funzionale di organi e sistemi
•
Natura ed entità delle lesioni cellulari e tessutali
•
Costituenti biochimici normali e patologici
•
Risposta immunitaria dell'organismo
•
Agenti infettivi e reazioni generali
•
Presenza e quantificazione di sostanze introdotte
nell'organismo a scopo terapeutico o tossico
Tabella 1
Informazioni diagnostiche ottenibili con le indagini di laboratorio. (Rif.2)
E' comunque opportuno sottolineare che i parametri di valutazione clinica dipendono
dalle diverse fasi della malattia. Le indagini di laboratorio vengono svolte in tutte le fasi
della malattia, latenti, palesi e nell'evolversi di uno "stato morboso", con risultati
alquanto diversi.
5
Per seguire l'andamento della malattia, dalla fase iniziale, che per lo più si sottrae
all'indagine clinica, alla fase di conclusione del processo, si può utilizzare la
schematizzazione di fig.2 in cui sono riportati in ascissa i tempi (t) di sviluppo della
malattia ed in ordinata la fasi dello sviluppo stesso relativamente alla comparsa dei
segni clinici (sC) e di laboratorio (sL). L'andamento della malattia disegna una curva
(appunto definita "curva dell'andamento della malattia"), il cui primo tratto (A-B) è
definibile come "intervallo delle non conoscenze", perché‚ in questo tratto, dal presunto
momento dell'inizio della malattia (A) fino al tempo tL) della comparsa dei primi segni di
laboratorio (sL), poche sono le possibilità di indagini per ottenere elementi diagnostici
utili. Nel grafico la curva percorre poi il tratto B-C, che va dal momento (tL) della
comparsa dei primi segni di laboratorio fino al momento (tC) della comparsa dei segni
clinici (sC). Questo intervallo è chiamato anche "α" o "intervallo clinicamente muto" o
"intervallo occulto" e rappresenta oggi giorno l'ambito di maggior impegno per la
diagnostica di laboratorio, in quanto le manifestazioni cliniche non sono percettibili dal
soggetto mentre è possibile dimostrare alterazioni biochimiche o strutturali con
significato diagnostico presuntivo o assoluto. Infine troviamo il tratto C-D che è definibile
"dell'evidenza clinica", perché‚ sono presenti in varia misura segni clinici e la malattia,
nella maggioranza dei casi, è di tutta evidenza. Il tratto delle "non conoscenze" va
sempre più riducendosi di pari passo con l'accrescersi delle conoscenze di base e con
lo sviluppo tecnologico.
D
C
Sviluppo
sC
sL
B
∝
A
tL
Tempo
tC
Fig. 2 Diagramma detto "curva dell'andamento della malattia". (Rif.2)
6
3. ASPETTI ORGANIZZATIVI
3.1
Prelievo del sangue
Il prelievo del campione rappresenta un punto fondamentale dell'impegno del
laboratorio. Il primo requisito per assicurare l'affidabilità del risultato è rappresentato da
un corretto prelievo.
Per la maggior parte degli esami di laboratorio occorre che il paziente sia a digiuno da
un certo numero di ore per evitare l'interferenza con il metabolismo del cibo. A seconda
dell'esame che deve essere eseguito e della tecnica impiegata si può ricorrere al
prelievo di sangue venoso o al prelievo di sangue capillare o periferico. Solo in casi
particolari (determinazione dei gas nel sangue) si ricorre al prelievo di sangue
arterioso.
Il prelievo del sangue venoso, con il quale vengono eseguiti gli esami più comuni
(glicemia, azotemia, ecc.) viene effettuato generalmente dalle vene della regione
anteriore del gomito dopo aver prodotto una modesta stasi stringendo il braccio con un
laccio di gomma. E' opportuno che la stasi così prodotta non sia prolungata e, in certi
casi, è necessario procedere al prelievo senza stasi.
L'uso di siringhe di vetro è ormai abbandonato e per il prelievo si impiegano siringhe di
plastica "a perdere" o aghi collegati a provette in cui è stato praticato il vuoto
(vacutainer di fig.3) così che il sangue viene aspirato direttamente nella provetta non
appena l'ago penetra in vena. In questo sistema, sempre più diffuso per la sua praticità
e sicurezza microbiologica, l'ago, provvisto di una valvola, è montato su un supporto
cilindrico di materiale plastico idoneo per essere facilmente manipolato.
Fig. 3 Vacutainer
7
Una volta che l'ago è penetrato correttamente nel vaso si introduce nel supporto la
provetta tappata e la si spinge verso il fondo in modo che l'estremità dell'ago sporgente
nel supporto attraversi il tappo di gomma rimuovendo durante il passaggio la valvola
che chiude l'estremità dell'ago. In questo modo, appena l'ago entra in vena, il sangue
viene aspirato nella provetta. Togliendo la provetta la valvola arresta la fuoriuscita del
sangue, consentendo così di riempire successivamente diverse provette.
I campioni di sangue così prelevati vengono poi preparati per l'esecuzione delle varie
tipologie di esame. Molte indagini di laboratorio vengono effettuate sul plasma che
necessita di una preparazione particolare. Il sangue viene prelevato in una provetta
contenente sostanze "anticoagulanti" che, con meccanismi diversi, impediscono la
coagulazione. Quindi viene centrifugato per ottenere la separazione della parte
corpuscolare dal plasma. Il plasma così preparato viene inserito in provette ordinate in
appositi contenitori che vanno agli strumenti di misura. L'identificazione delle provette
oggi è superata con l’etichettatura con codice a barre più o meno automatica, ma fino a
poco tempo fa rappresentava un punto critico. Infatti il campionamento si basava sul
principio dell'ordine progressivo occupato in un contenitore che ovviamente era
soggetto a molti "errori umani". Attualmente l’etichettatura e la standardizzazione delle
provette sotto vuoto utilizzate (incentrata sul colore del tappo) hanno pressoché
eliminato l’inconveniente. Inoltre sono stati oggetto di standardizzazione gli additivi
anticoagulanti utilizzati, in modo da garantire, se necessaria, un'azione ottimale (Tab.4).
Colore tappo
Utilizzazione
Grigio
Plasma o sangue intero sodio
Giallo
Prelievo sterile
Verde
Plasma o sangue intero
Rosso
Siero
Blu
Plasma o sangue intero
Additivo anticoagulante
Ossalato di potassio e floruro di sodio
Test eseguibile
Glucosio
-----------------------Eparinato di litio
Emogasanalisi
-----------------------Sodio citrato
Esami coagulativi (PT, PIT,
fibrinogeno), VES
Emocromocitometrico,
piastrine, reticolociti,
Lavanda
Plasma o sangue intero
EDTA (K3)
tipizzazione, linfocitaria,
emoglobinepatologiche,
enzimi eritrocitari
Tabella 4
Provette per un tipo di sistema chiuso di prelievo sottovuoto: colori dei tappi per
un'agevole identificazione dell'uso e dell'additivo contenuto. (Rif.2)
8
Anche l'identificazione del paziente è un punto cruciale delle fasi inerenti il prelievo del
campione.
Alcuni studi hanno dimostrato che l'8% degli errori nell'attribuzione del nome, dell'età,
del sesso del paziente e della sua anagrafica in genere, possono passare inosservati
anche dopo approfondite procedure di controllo. Per questo motivo va posta una grande
attenzione, al momento dell'accettazione del paziente, nella verifica completa di tutti i
dati anagrafici. In particolare è necessario utilizzare i sistemi che permettono di evitare
problemi derivanti da omonimia, analogie nella data di nascita, ecc.
Qualsiasi sia il sistema di accettazione (manuale o automatico) è necessario che tutti i
dati essenziali del paziente compaiano sulle etichette da applicare ai contenitori di
liquido da analizzare. Tali notizie, infatti, non solo garantiscono una limitazione degli
errori di attribuzione del campione, ma possono anche essere utili al personale
incaricato dell'analisi.
Attualmente l'adozione di sistemi computerizzati consente che all'identificazione di un
paziente si accompagni un sistema di archiviazione aggiornabile e tale da permettere il
richiamo di dati precedenti, per confronti, per controlli di plausibilità e per la creazione di
basi di dati orientati per patologie.
Attualmente si tende a preparare in laboratorio e fornire (generalmente via software) in
vari Reparti etichette prestampate con codice a barre (barcode) per l'identificazione
automatica del campione.
Tuttavia, benché‚ la computerizzazione riduca gli errori di identificazione, è sempre
necessario insistere sul fatto che il personale deve eseguire attenti controlli per
verificare la correttezza delle modalità d'identificazione e per riconoscere gli eventuali
errori detti "errore di campionamento". Il metodo oggi più diffuso per verificare un dato
anomalo è la ripetizione dello stesso esame con ovvio e per qualche verso inaccettabile
aumento di costo oltre ad un maggior disagio per il paziente.
3.2 Tipologie di laboratorio
Il laboratorio clinico può essere suddiviso in tre diverse tipologie: Laboratorio di
Analisi Cliniche, Centro Trasfusionale e Anatomia Patologica, nelle quali vengono
svolte metodiche diverse, come riportato in tabella 5.
9
METODICHE
LABORATORIO
CENTRO
ANATOMIA
ANALISI
TRASFUSIONALE
PATOLOGICA
Chimica clinica
X
Ematologia
X
Immunologia
X
Microbiologia
X
X (1)
Citoistologia
X
(1) Nel Centro Trasfusionale vengono effettuati dosaggi immunologici generalmente diversi rispetto
al Laboratorio di Analisi.
Tabella 5
La "X" indica la tipologia di laboratorio dove viene svolta la metodica indicata.
Il Laboratorio di Analisi ha come indirizzo principale quello di eseguire esami clinici,
mentre nel Centro Trasfusionale prevale la raccolta, la tipizzazione, la conservazione e
la distribuzione del sangue umano e dei suoi derivati, sul quale vengono effettuati
diversi tipi di esami immunologici necessari per la tipizzazione e per garantire la
sicurezza delle trasfusioni sanguigne. Infine il laboratorio di Anatomia Patologica svolge
soprattutto una attività di raccolta di campioni, e attività di analisi prevalentemente di
tipo morfologico.
3.3 Evoluzione tecnologica del laboratorio
Negli ultimi anni si è assistito ad un notevole aumento di domanda degli esami di
laboratori sia di tipo qualitativo che di tipo quantitativo.
Esiste un aspetto negativo di questo fenomeno, noto come "consumismo tecnologico",
costituito da una spinta all'utilizzo di esami di laboratorio non sempre giustificato.
Sono anche aumentate in modo differenziato le diverse tipologie di esame. Tale
fenomeno può essere così riassunto:
•
enorme incremento del numero di esami immunologici, seguito da un rilevante
incremento del numero di esami chimico clinici ed ematologici
•
stazionarietà del numero di esami microbiologici e citoistologici
10
•
aumento della domanda di esami che non può essere risolto con un incremento
delle risorse (personale, ampliamento del laboratorio, ecc.) ma necessita di una
risposta tecnologica basata sull'automazione e sull'informatizzazione con una
notevole riduzione dei costi
•
esigenza a contenere i costi.
A tale proposito per verificare l'effettivo vantaggio dell'automazione è necessario
osservare la curva dei costi dell'automazione riportata in fig.6.
Costo esami
Fig. 6
Curva dei costi dell'automazione.
La curva evidenzia un punto detto massa critica al di sotto del quale l'automazione
stessa non risulta vantaggiosa.
Per farsi una idea delle dimensioni operative di un laboratorio si consideri che:
•
un laboratorio di piccole dimensioni effettua circa 500.000-1.000.000 esami/anno
(1.700 esami/giorno)
•
un laboratorio medio 2.000.000 esami/anno (7.000 esami/giorno);
•
un grosso laboratorio esegue circa 7.000.000 esami/anno (20.000) esami/giorno).
11
Poiché su uno stesso campione vengono eseguiti circa 10 esami, il numero di pazienti
trattati giornalmente è:
piccolo laboratorio:
170 pazienti/giorno
medio laboratorio:
700 pazienti/giorno
grande laboratorio
2000 pazienti/giorno
L'elevato numero di campioni che affluiscono ai laboratori e l'introduzione di nuovi test
diagnosticamente efficaci è in continua evoluzione perciò una gestione informatizzata
del laboratorio stesso comporta la presenza in laboratorio di strumentazioni e di sistemi
analitici sempre più automatizzati e integrati con il sistema informativo di gestione.
Infatti la strumentazione di un moderno laboratorio si avvale delle risorse della
meccanizzazione, dell'automazione e della computerizzazione. Nel panorama generale
di continua innovazione del laboratorio, è utile verificare il diverso grado di innovazione
raggiunto nelle metodiche di laboratorio.
In Tab.7 viene riportato il grado di innovazione per ognuna delle metodiche.
METODICA
GRADO DI INNOVAZIONE
Chimica clinica
Moderato
Ematologia
Moderato
Immunologia
Elevato
Microbiologia
Medio
Citologia
Basso
Tabella.7
Grado di innovazione per ognuna delle metodiche
Un altro parametro fondamentale per i sistemi di misura utilizzati nei laboratori è
l'affidabilità. Essa è l'obiettivo principale sul quale si dirige l'innovazione tecnologica.
L'affidabilità di un sistema di misura è spesso molto più importante che non la
precisione della misura stessa.
12
4 METODICHE DI LAVORO
Di seguito si daranno brevi cenni sulle metodiche e sui parametri biologici misurati per
ciascuna metodica riportata in tab. 7.
4.1 Chimica clinica
Le indagini chimico cliniche costituiscono una parte molto vasta di tutta l'attività del
laboratorio e si basano sullo studio delle caratteristiche fisiche (tipo di reazione con la
luce; resistenza al mezzo ecc.) e chimiche (attività chimica con altre sostanze) dei
diversi componenti presenti nei campioni biologici (sangue, urina ecc.).
Va tenuto presente che l'analisi chimica e chimico-fisica dei costituenti, qualitativa e
quantitativa (si parla in quest'ultimo caso di misurazione) riveste in chimica clinica
aspetti del tutto particolari, perché l'oggetto di studio è l'organismo umano e le finalità
della ricerca sono la diagnosi e la terapia. La fase più delicata dell'analisi, quella
dell'interpretazione dei risultati, deve infatti tenere conto che sui test di chimica clinica
hanno peso le influenze più disparate, che sono del tutto inconsuete per la chimica
analitica: fattori genetici, variazioni fisiologiche a breve e lungo termine, pregressa
somministrazione di farmaci e di droghe, ecc.
Le componenti altamente specializzate della chimica clinica sono molto importanti per
l'elevato grado di sofisticazione analitica che richiedono e per il grande interesse
diagnostico.
Le misure chimico-fisiche dei costituenti in esame eseguite con metodiche diverse,
consentono una identificazione o una quantizzazione (o entrambe) degli stessi.
Di seguito sono riportate le metodiche caratteristiche della chimica-fisica e le loro
applicazioni in laboratorio. I principi di funzionamento verranno illustrati nei capitoli
successivi.
4.1.1 Biochimica
La misura della concentrazione della maggior parte dei comuni costituenti presenti nei
fluidi biologici quali, l'urea, il glucosio, le proteine totali, il colesterolo, i trigliceridi, gli
enzimi ecc., viene effettuata con l'utilizzo della fotometria ad assorbimento. Tale
metodica si basa sulla misura dell'assorbimento ottico presentato in modo selettivo da
molte sostanze in soluzione.
13
La misura fotometrica del dosaggio dei diversi costituenti può essere eseguita con due
diverse modalità: misura end point e cinetiche enzimatiche.
Nell'end point occorre aspettare un determinato tempo (dipendente dalla reazione fra
reattivo e sostanza incognita necessaria per qualsiasi lettura fotometrica ad
assorbimento) prima di eseguire la misura; mentre nella cinetica enzimatica viene
misurata la velocità di reazione, ma, rispetto all'end point, impone l'esecuzione di più
misure in tempi prefissati, ciò porta a vincoli notevoli per l'evoluzione di sistemi
automatici basati sulla cinetica enzimatica.
4.1.1.1 Fotometria ad assorbimento luminoso
La misura della fotometria ad assorbimento luminoso usa la legge di Lambert-Beer
composta da due leggi quella di Lambert e quella di Beer, una analizza l'assorbimento
dell'energia luminosa in funzione delle dimensioni della provetta e l'altra in funzione
della concentrazione di una certa sostanza disciolta in soluzione.
La legge di Lambert-Beer è stata studiata tramite due esperimenti che hanno permesso
di analizzare la quantità di luce assorbita al variare della grandezza della provetta d e
della concentrazione C delle soluzioni usate.
Nei due esperimenti si è prima variata la grandezza d della provetta lasciando inalterata
la concentrazione, poi lasciando la stessa provetta si è variata la concentrazione della
sostanza contenuta, supponendo ogni volta la prima provetta identica alla seconda.
Nella figura seguente lo schema dell'esperimento.
14
La sorgente di luce I0 passando attraverso la prima provetta subisce la stessa
attenuazione che I1 subisce passando attraverso la seconda provetta, permettendo così
infine di formulare una legge finale che consentisse di conoscere l'assorbimento al
variare dei parametri C e d:
I = I 0 ⋅ e − K ⋅ d ⋅C
Dalla legge precedente di può ricavare il seguente risultato:
log
I0
= K ⋅d ⋅C
I
Il fattore K varia il proprio valore al variare della lunghezza d'onda della sorgente di luce
I0 e della sostanza in soluzione, come rappresentato nel grafico seguente, dove vi è una
famiglia di curve una per ogni sostanza, al variare della lunghezza d'onda.
Dal grafico si nota che le curve si sovrappongono e che per una certa lunghezza d'onda
si possono avere più sostanze che danno un contributo non trascurabile al valore di K.
PROBLEMA: Nel caso si abbia una sola sostanza disciolta in una soluzione allora si
avrebbe il contributo al valore K solo di una curva visto che le altre sostanze sono
assenti, ma nel caso del siero si hanno moltissime sostanze insieme e quindi sarebbe
impossibile distinguere il contributo di una sostanza dall'altra.
15
La soluzione al problema presentato nel riquadro è stata quello dell'uso di particolari tipi
di reagenti.
I reagenti usati sono composti chimici che in presenza di una particolare sostanza da
analizzare formano un prodotto che ha una curva di K molto stretta intorno ad un certo
valore preciso della lunghezza d'onda, hanno cioè un picco in corrispondenza di un
certo lambda preciso.
Le lunghezza d'onda per cui si hanno i picchi dei reagenti sono tali che il contributo
delle curve relative alle altre sostanze sia trascurabile avendo quindi come unico
contributo significativo quello relativo al prodotto ottenuto dal reagente, permettendo
così di potere misurare con precisione la concentrazione del prodotto ottenuto dalla
reazione del reagente e della sostanza desiderata.
Esiste quindi un reagente per ogni sostanza di cui si desidera conoscere la
concentrazione.
I reagenti possono essere di due tipi:
•
Monoreattivi: se per ottenere il prodotto finale è sufficiente mischiare il reagente
direttamente con la soluzione.
•
Plurireattivi: se per ottenere il prodotto finale bisogna ottenere prima più prodotti
intermedi, avendo quindi più passaggi ( da notare che per potere ottenere un
prodotto intermedio bisognava aspettare che fosse finita la reazione precedente
e quindi che si fosse ottenuto il prodotto precedente, avendo così un processo
molto lento).
I primi reagenti erano di tipo plurireattivo, ma oggi sono praticamente tutti monoreattivi
risultando tali tipi di reagenti di più semplice e veloce utilizzo.
La distanza d viene mantenuta costante usano nelle misure sempre la stessa provetta
divenendo cioè le dimensioni della provetta standard.
4.1.1.2 Fotometria end-point e cinetica enzimatica
La fotometria end-point usa il principio di assorbimento dell'energia luminosa e quindi
usa la legge di Lambeer-Beer per la determinazione della concentrazione di una certa
sostanza.
16
Il nome stesso della fotometria ne descrive il funzionamento, cioè le misure di
concentrazione vengono eseguite a fine reazione, cioè quando la reazione tra reattivo e
siero è terminata.
Quando il reattivo viene inserito nel siero la reazione impiega un certo tempo (qualche
minuto) per avvenire e successivamente, a reazione avvenuta è possibile fare una
misura.
Dopo la reazione va ricordato che la misura deve essere effettuata entro un certo tempo
(qualche decina di minuti), altrimenti il prodotto ottenuto comincia a degradarsi e la
misura fotometrica risulta imprecisa.
Le misure di cinetica enzimatica avvengono sempre usando il principio di assorbimento
ma le misure non vengono effettuate solo a fine reazione, ma vengono effettuate
durante il corso di tutta la reazione, ed in particolare i valori di misura usati sono quelli in
zona lineare.
Quello che si vuole misurare è il valore della derivata nel tratto lineare, cioè in quel
tratto in cui la derivata si presenta circa costante.
Il primo problema è quello di determinare quando si è in zona lineare, questo è
determinabile andando a controllare quando per un certo numero di misure effettuate
l'incremento è circa costante.
Una volta individuato il tratto di zona lineare basta andare a determinare il valore della
derivata prima nella zona lineare (prendendo ad esempio il valore di due punti nella
zona lineare e andando a calcolarne il coefficiente angolare della retta passante tra i
due punti).
La velocità della reazione dipende dai seguenti parametri:
Cx
concentrazione catalizzatore parametro da misurare
Cs
concentrazione solvente
parametro noto
PH
acidità della soluzione
mantenuta costante tramite soluzioni tampone
T
temperatura
tenuta fissa e nota tramite termostatazione
Mantenendo costanti alciuni parametri e misurandone altri tra cui la velocità è possibile
risalire al valore di Cx.
17
Quando la pendenza del grafico nella zona lineare è troppo ripida, la velocità di
campionamento può risultare non sufficiente.e quindi la concentrazione è troppo elevata
e va diluita (in genere con acqua distillata, provando più diluizioni successive,
normalmente provando fino a 3 volte).
4.1.1.3 Schemi realizzativi per fotometria ad assorbimento
La fotometria ad assorbimento sia nel caso di end-point che di cinetica enzimatica
rispetta il seguente schema di principio.
Nello schema si notano i seguenti elementi:
•
Sorgente: è una sorgente di luce che emetta negli spettri interessati
•
Monocromatore: permette di selezionare lo spettro desiderato fra tutti quelli generati
dalla sorgente
•
Cuvetta: è il contenitore contenente il prodotto ottenuto usando un certo tipo di
reattivo
•
Rivelatore: è un sensore che permette di trasformare la radiazione ricevuta in
segnale elettrico
•
Amplificatore logaritmico: è un amplificatore che permette di compensare il
logaritmo di I0/ I1 ottenendo I0/ I1
•
OUT: uscita segnale elettrico direttamente proporzionale a I0/ I1
Vi è un problema che porta ad adottare a volte anche un'altra soluzione derivata dallo
schema precedente con qualche modifica.
Il problema è quello della misura della luce emessa dalla sorgente utile per una
eventuale taratura fatta con una soluzione a concentrazione nota, in quanto la luce
18
trasmessa alla cuvetta può andare incontro a dei cambiamenti dovuti a varie cause
(monocromatore sporco, filamento della sorgente consumato, …).
Per potere effettuare sia la misura tradizionale sia la misura di I0 senza dovere togliere
la provetta dal proprio alloggiamento si usa il sistema a doppio raggio, in cui compaiono
una serie di specchietti riflettenti come nello schema seguente.
Nello schema si possono notare i seguenti elementi aggiunti:
•
SF: specchi fissi, sono specchi fissi posizionati a 45° usati per dirigere il raggio
•
SM: specchio mobile, è uno specchio in grado di assumere due posizioni
permettendo di fare misure fotometriche facendo passare il raggio attraverso la
cuvetta o di misurare I0 senza attraversare la cuvetta
Il tratteggio rappresenta il persorso del raggio nel caso di specchio mobie abbassato e
quindi di misura con cuvetta, mentre quello continuo riflesso dagli specchi fissi
rappresenta il percorso del raggio luminoso con lo specchio mobile alzato e quindi in
posizione di misura di I0.
Tramite cicli alternati è possibile alternare a misure di concentrazione misure di I0 e
quindi avere il valore attuale di I0 per ogni misura effettuata.
4.1.1.4 Realizzazzione della sorgente luminosa
La sorgente luminosa usata nelle misure è in genere una lampada ad incandescenza
che ha la proprietà di generare uno spettro molto ampio di luce.
La caratteristica principale della sorgente luminosa è quella che dovrebbe fornire
un'intensità luminosa costante in maniera da non provocare variazioni di I0.
La stabilità della radiazione luminosa emessa dipende da diversi fattori:
•
Corrente di alimentazione della lampada di incandescenza
19
•
Dimensioni fisiche del filamento (sezione, lunghezza)
•
Scambi energetici con l'esterno
Per ogni fattore di variazione è stata trovata una soluzione:
•
La corrente di alimentazione della lampada ad incandescenza può essere
mantenuta costante in maniera molto precisa dagli attuali stabilizzatori
•
Le dimensioni fisiche del filamento non rimangono costanti con il passare del
tempo, la dimensione della sezione si degrada e diminuisce, ma è un fenomeno
lento, per cui si può benissimo eliminare l'inconveniente tramite la taratura.
•
Gli scambi energetici con l'esterno o possono essere ridotti tramite isolamento
termico oppure si può rendere il loro effetto poco influente tramite l'aumento della
massa termica del filamento.
L'aumento della massa termica avviene mettendo una massa metallica intorno al
filamento (massa isolata elettricamente ma non termicamente dal filamento).
Tale massa metallica è completamente chiusa intorno al filamento (tranne un forellino
da cui esce la radiazione luminosa) ed è dipinta di colore nero (in maniera da assorbire
radiazione).
Lo svantaggio della massa termica è quello che il tempo per raggiungere la temperatura
di regime aumenta.
La radiazione ideale dal punto spettrale sarebbe la luce solare, che viene detta luce
bianca, in quanto contiene tutte le frequenze e viene assimilata equivalentemente alla
radiazione emessa da un corpo nero a 8000°C.
Le lampade conosciute non riescono a generare uno spettro ampio quanto quello della
luce solare, ma ogni tipologia di lampade genera uno spettro non costante e incentrato
intorno ad una certa banda.
•
Lampada ad idrogeno
•
Lampada ad incandescenza
visibile, infrarosso vicino
•
Lampada ai vapori di mercurio
nel giallo
ultravioletto
Per cercare di coprire tutto lo spettro di interesse si usano in genere una combinazione
di lampade.
20
La luce usata dalle apparecchiature fotometriche inoltre viene detta fredda, in quando la
componente radiante dell'infrarosso che renderebbe una luce capace di scaldare viene
eliminata da un filtro interno al bulbo della lampada come nella figura sopra.
4.1.1.5 Realizzazzione del monocromatore
Il monocromatore è quel componente che da una radiazione luminosa ad ampio spettro
seleziona una radiazione di una certa lunghezza d'onda ben precisa.
Le tecnologie realizzative sono diverse e usano principi diversi per potere selezionare
una lunghezza d'onda tra le altre presenti nella radiazione di ingresso.
•
Monocromatore a prisma: questo monocromatore usa un prisma per scindere la
luce nelle varie radiazioni da cui è composta.
È il monocromatore pìu semplice, ma presenta il difetto di non essere selettivo, in
quanto il lobo presenta una larghezza eccessiva.
•
Monocromatore a piastra: è un monocromatore che sfrutta la differente velocità
di propagazione della luce in un materiale a seconda della lunghezza d'onda.
Rispetto il moncromatore a prisma quello a piastra è molto più selettivo ed ha
una larghezza del lobo di circa 1nm.
•
Monocromatore a diffusione: questo monocromatore sfrutta la diffusione della
luce ed in particolare le sorgenti Huygens, per cui oggetti di dimensioni
paragonabili alla lunghezza di diffusione diventano sorgenti loro stessi di luce..
4.1.1.6 Realizzazione dei rivelatori
I rivelatori sono i sensori atti a rivelare la luce e a trasformarla in segnale elettrico.
I sensori usati possono essere di diversi tipi, a seconda della tecnologia usata, anche
se i più usati sono di due tipi:
21
•
Sensore a tubo a vuoto (fotomoltiplicatore): è un dispositivo che sfrutta la
tecnologia dei tubi a vuoto (valvole) per rilevare una radiazione luminosa ed
amplificarla.
Lo schema del tubo a vuoto è il seguente:
Quando una radiazione luminosa colpisce il catodo si formano elettroni che attratti
dall'anodo vanno a colpirlo ed esso a sua volta rilascia altri elettroni in quantità
maggiore di quanti lo hanno colpito.
Gli elettroni passano da un'anodo all'altro e arrivando all'ultimo anodo sono sufficienti a
formare una corrente elettrica fornendo così un segnale elettrico.
Il fotomoltiplicatore ha uno schema di connessione particolare in cui si deve alimentare
il catodo con una tensione elevata di 1000-2000V e gli anodi con un'opportuna corrente
di polarizzazzione ottenuta tramite resistenze, come nello schema sottostante.
22
Il segnale elettrico viene prelevato attraverso la capacità di disaccoppiamento C che ha
il compito di bloccare la corrente di polarizzazzione degli anodi.
Alcuni svantaggii del fotomoltiplicatore sono quello di avere una certa dimensione non
trascurabile e che richiede tensioni molto maggiori di quelle richieste per l'elettronica
digitale a fronte però del fatto che il fotomoltiplicatore non ha fonti di rumore
caratteristiche dei semiconduttori.
•
Sensore a semiconduttore (fotodiodi, fototransistor, fotoresistenze): questa
tipologia di sensori usa materiali semiconduttori (silicio, germanio) per
trasformare una radiazione luminosa in segnale elettrico.
Questo tipo di sensori è piccolo, leggero, robusto e più pratico da usare dei
fotomoltiplicatori, ma presenta lo svantaggio di avere fonti di rumore
caratteristiche di questo tipo di sensore (per questa ragione spesso li si raffredda,
riducendo il rumore).
23
4.1.2 Elettroliti
I liquidi dell'organismo umano sono costituiti da soluzioni il cui solvente è l'acqua nella
quale sono contenute le varie sostanze organiche ed inorganiche (soluti).
Queste soluzioni permettono il passaggio di corrente elettrica se poste in un campo
elettrico. I soluti di tali soluzioni, che in acqua si dissociano in ioni positivi e negativi
liberi di migrare, si chiamano elettroliti.
Tra gli elettroliti, assumono notevole importanza gli ioni sodio (Na+) potassio (K+) e
cloro (Cl-).
Non si conoscono processi metabolici che non siano dipendenti o interessati dagli
elettroliti; fra le altre funzioni, vanno ricordati il mantenimento della pressione osmotica,
della compartimentazione molecolare dell'acqua nei vari distretti organici, del pH, delle
funzioni muscolare e cardiaca.
Le alterazioni degli elettroliti sono pertanto o causa o conseguenza di una grande
varietà
di disordini metabolici. I risultati delle loro determinazioni sono interpretati
generalmente come una definizione di stato di equilibrio, piuttosto che una indicazione
di una specifica patologia.
La misura di questi elettroliti veniva eseguita con l'utilizzo della fotometria ad
assorbimento atomico o ad emissione atomica (fotometro a fiamma) nella quale
viene sfruttata la capacità di un atomo o di eccitarsi tramite l'energia di una fiamma o
allo stato fondamentale di assorbire energia sotto forma di radiazione luminosa, per
passare ad uno stato eccitato.
La fotometria a fiamma è stata oggi superata dall'uso di elettrodi ione-specifici.
4.1.2.1 La fotometria a fiamma
La fotometria a fiamma differisce in diversi aspetti dalla fotometria tradizionale in quanto
si basa sulla misura dello spettro di emissione.
La sorgente non è più una lampada ad incandescenza ma è un sistema in cui non si
misura più l'assorbimento della luce da parte della sostanza contenuta in una cuvetta,
ma si spruzza la sostanza su una fiamma e, tramite un monocromatore posizionato
prima del rilevatore, se ne misura lo spettro emesso, come in figura seguente.
24
Dalla misura della radiazione emessa, effettuata col rivelatore, è possibile risalire alla
concentrazione della sostanza.
Dalla figura si nota che il monocromatore è un disco con tre filtri:
•
Filtro per selezionare la lunghezza d'onda emessa da sodio.
•
Filtro per selezionare la lunghezza d'onda emessa dal potassio.
•
Filtro per selezionare la lunghezza d'onda di un’altra sostanza (ad esempio il
Litio, che non è èpresente nell’organismo), inserita nel campione da misurare e
usata per tarare l'apparecchiatura.
L’uso dei ter filtri si rende necessario in qunto, a causa della non costanza della fiamma,
potrei avere errori di misura; è possibile ridurre tali errori facendo opportuni calcoli
basati sul rapporto fra le misure delle singole lunghezza d’onda.
La fiamma viene generata bruciando un gas, in genere l'idrogeno.
L'uso del monocromatore è necessario al fine di filtrare tutte le frequenze generate dalla
fiamma che oltre a generare la luce la cui lunghezza d'onda viene misurata genera
anche radiazioni spurie.
4.1.2.2 Sensore a elettrodo specifico
Questa tecnica è stata sviluppata per la misura specifica di sodio, potassio e metalli
pesanti.
Il suo principio di funzionamento è basato sulla legge di Nerst:
E = ( Eb − Ea) − k ⋅ lg
Ca
Cb
25
I vari termini della formula di Nerst (riferiti all'esempio precedente) hanno il significato di:
E = potenziale rilevato ai capi dei due elettrodi
Eb = potenziale caratteristico elettrodo metallico B
Ea = potenziale caratteristico elettrodo metallico A
K = costante di proporzionalità (RT/nF)
Ca = concentrazione soluzione vista da elettrodo A
Cb = concentrazione soluzione vista da elettrodo B
Se i due elettrodi vengono realizzati con lo stesso metallo, nel caso della figura
precedente il potenziale E è nullo, in quanto Ea=Eb e Ca=Cb.
Se invece della provetta precedente si avesse la situazione rappresentata dalla figura
sottostante si potrebbero fare misure della concentrazione di una certa sostanza.
26
La cuvetta di misura è divisa in due sezioni separate da una membrana semipermeabile
che, ad esempio, lasci passare solo le particelle di Cloro (Cl-).
Secondo le leggi della chimica il movimento delle particelle tende ad avvenire dalla
zona a più alta concentrazione a quella a concentrazione minore. Quindi le soluzioni dei
due elettrodi tendono ad assumere un certo equilibrio, ed il passaggio di ioni Cloro
cesserà quando si sarà raggiunto un certo equilibrio elettrodinamico, cioè quando gli
ioni, essendo portatori di carica elettrica, generano un differenza di potenziale che si
oppone ad una ulteriore migrazione attraverso l'interfaccia (membrana) dovuta alla
differenza di concentrazione. All’equilibrio misuro la differenza di potenziale raggiunta e,
usando la legge di Nerst, posso risalire alla concentrazione incognita che voglio
misurare.
I problemi di questa metodica sono:
•
La misura varia al variare della temperatura.
•
La qualità della misura si degrada con l'usura della membrana e l’invecchiamento
degli elettrodi.
Questa tecnica viene usata in diversi settori, ad esempio:
•
analisi PH ematico
•
misura della concentrazione parziale di anidride carbonica
27
4.1.3 pH ematico, pO2 e pCO2
La determinazione del pH ematico e delle pressioni parziali dell'ossigeno e dell'anidride
carbonica nel sangue viene chiamata emogasanalisi.
Questi esami sono molto importanti clinicamente in quanto determinano lo stato
dell'equilibrio acido-base nel paziente.
Tali meccanismi suddivisi schematicamente in ematici, respiratori e renali, agiscono
coordinatamente e con meccanismi interdipendenti.
L’emogasanalisi richiede risposte immediate per cui è effettuata non in laboratorio ma
presso il paziente. L’applicazione più tipica dell’emogasanalizzatore è nelle terapie
intensive per pazienti critici e nel laboratorio di fisiopatologia respiratoria su pazienti non
critici. Sebbene l’apparecchio sia utilizzato fuori dal laboratorio esso deve essere
“gestito” dal laboratorio per quanto riguarda la taratura, la manutenzione preventiva, le
prove prestazionali di qualità, ecc. Oggi tali apparecchi, sempre più numerosi, e che
misurano sempre più analiti, vengono chiamati “point in care”.
4.1.4 Proteine
Le proteine rappresentano la classe di composti biochimici più strettamente correlati
con la vita animale. Il loro nome sottolinea il ruolo primario nella materia vivente e nei
fenomeni vitali dal punto di vista chimico.
Le proteine sono sostanze organiche complesse contenenti almeno quattro elementi
fondamentali (carbonio, idrogeno, ossigeno ed azoto) ai quali si associano spesso lo
zolfo, il fosforo ed altri e sono caratterizzate da un peso molecolare molto elevato (da
10.000 a diversi milioni di Dalton).
Esse sono costituite dall'unione di composti organici quaternari detti amminoacidi legati
fra loro da un legame chimico detto legame peptidico. In tal modo si vengono a
formare lunghe catene polipeptidiche caratterizzate dalla sequenza degli amminoacidi
che le costituiscono, a seconda del numero e della qualità con la serie di amminoacidi si
formano un numero estremamente grande di proteine diverse.
Dalla complessità del mondo proteico appare evidente che la diagnostica di laboratorio
delle proteine presenta numerose possibilità di studio analitico, ciascuna delle quali, pur
28
con indirizzi diversi e con diversissimi livelli di approfondimento, ha un suo significato ed
una precisa utilità diagnostica.
La determinazione del contenuto proteico totale viene effettuata essenzialmente con
metodi fisici rifrattometrici, densimetrici e spettrofotometro nell'UV. Invece per la
suddivisione delle proteine plasmatiche (e delle proteine presenti negli altri liquidi
biologici) nelle varie frazioni, sicuramente più importanti per un laboratorio di analisi
chimiche, vengono utilizzate soprattutto tecniche che si basano sulla diversa migrabilità
in campi elettrici su diversi substrati (elettroforesi).
La suddivisione delle cinque principali frazioni proteiche (albumina, alfa-1-globulina,
alfa-2-globulina, beta-globulina, gamma-globulina) del siero, viene effettuata con
l'elettroforesi in acetato di cellulosa, con successiva determinazione densitometrica.
Esistono inoltre tecniche con potere risolutivo superiore (es: elettroforesi su gel di
agarosio) con le quali si possono distinguere 8-9 frazioni proteiche.
Un supporto per applicazioni particolari è costituito infine dal gel di poliacrilamide
utilizzato nella isoelettrofocalizzazione.
In questa tecnica il mezzo di supporto possiede un gradiente di pH stabile e le singole
molecole proteiche migrano fino a raggiungere la zona in cui il pH è uguale al loro punto
isoelettrico.
In questa zona la carica netta della proteina si avvicina a zero e la migrazione cessa. In
questo modo l'elettroforesi delle proteine del plasma fornisce oltre venti frazioni.
Al frazionamento per elettroforesi si può affiancare un altro criterio molto più selettivo
che si basa sulle proprietà immunologiche delle proteine. Su questo criterio si fonda ad
esempio la nefelometria, tecnica che si basa su una particolare applicazione della
fotometria.
La nefelometria viene impiegata in particolare per il dosaggio quantitativo di proteine
specifiche (immunoglobuline, ceruloplasmina ecc.).
4.1.4.1 Elettroforesi
Il nome elettroforesi indica separazione elettrica e viene usata nell'ambito di misure di
concentrazione e di tipizzazzione delle proteine contenute nel sangue.
Il principio si basa sul fenomeno per cui ogni frazione proteica ha un carica elettrica
diversa e specifica.
29
Sottoponendo il sangue un campo elettrico, tramite una differenza di potenziale si avrà
una migrazione delle proteine, dovuta al fatto che sono cariche elettricamente.
Cambiando la carica da proteina a proteina cambierà anche la forza da cui verranno
sospinte le proteine stesse per cui dopo un po’ di tempo si avranno che ciascuna
proteina sarà migrata percorrendo un certo tratto, diverso da proteina a proteina.
Inoltre la diversa distanza percorsa dipenderà anche dalla grandezza delle proteine,
che a seconda delle dimensioni fisiche opporranno più o meno resistenza
all'avanzamento.
La migrazione delle proteine, avviene su una lastra di materiale conduttore con
resistenza elevata (cella di migrazione) a cui viene applicata una differenza di
potenziale, ed in seguito facendola scorrere a velocità costante la si analizza con
metodi fotometrici, come in figura sottostante.
Lo strato della cella di migrazione su cui viene depositato il sangue deve avere la
caratteristica di diffondere poco il campione in analisi, altrimenti le misure saranno
sfalsate.
Il tracciato che si ottiene dalla misura effettuata viene detto tracciato elettroforetico, ed
assume la forma seguente.
30
Ogni picco del tracciato elettroforetico corrisponde al passaggio di una proteina sotto il
sistema fotometrico, quindi ogni picco rivela la presenza di una proteina.
Per determinare la concentrazione delle varie frazioni è sufficiente fare il calcolo delle
aree sottese a ciascun picco.
Sistemi automatizzati riescono a distinguere casi patologici da casi normali, sollevando
il medico dal gravoso compito di osservare tutti i tracciati.
4.1.5 Ormoni e farmaci
Gli ormoni sono i prodotti di secrezione delle ghiandole le quali versano gli ormoni
stessi direttamente nel sangue.
In questo modo essi vanno a svolgere azioni metaboliche specifiche a livello delle
cellule di ben determinate strutture periferiche chiamati organi bersaglio.
Da un punto di vista chimico queste sostanze sono molto diverse e si suddividono in
ormoni steroidei se determinati da un solo amminoacido e in ormoni polipeptidici in
tutti gli altri casi.
La maggior parte degli ormoni ha comunque una struttura di tipo polipeptidico, le loro
molecole sono infatti costituite da una sequenza di amminoacidi.
In laboratorio gli ormoni vengono rilevati anche con metodi basati sulla cromatografia,
gli stessi metodi che servono per la determinazione di alcuni farmaci e droghe di abuso.
31
La determinazione dei farmaci e dei loro metaboliti nei liquidi e nei tessuti costituisce un
settore di analisi di laboratorio di grande interesse scientifico, che in questi ultimi anni
ha avuto un eccezionale sviluppo.
Per molte decine di anni nella cura dei malati la dose ottimale di un farmaco è stata
ricercata e stabilita attraverso tentativi ed errori. Al paziente veniva somministrata una
dose fissa di un farmaco e se non si avevano effetti positivi la dose veniva aumentata
fino all'ottenimento del risultato o fino alla comparsa dei segni clinici di tossicità, nel qual
caso il farmaco veniva sospeso; se un farmaco risultava inefficace, se ne provava un
altro e così via fino ad esaurimento del repertorio.
Per molti farmaci, e il loro numero è in progressivo confortante aumento, questo modo
empirico di procedere è stato abbandonato perché‚ la pratica laboratoristica del
monitoraggio
dei
livelli
plasmatici
dei
farmaci
consente
una
precisa
individualizzazione della terapia. Questo è possibile perché‚ sono diventate chiare le
relazioni esistenti fra la concentrazione di un farmaco in un sistema biologico e la sua
attività farmacologica.
La tecnica cromatografica può essere rappresentata come un insieme di sistemi
analitici versatili per la separazione, identificazione e il dosaggio quantitativo di una
grande varietà di analiti, rappresentati soprattutto da ormoni e farmaci e droghe da
abuso.
La separazione cromatografica si basa sulle differenze tra la velocità di trasporto dei
vari analiti sciolti in una fase mobile (liquido o gassosa) che attraversa un'appropriata
fase stazionaria (solida o liquida).
Le due tecniche cromatografiche più utilizzate in laboratorio sono la gascromatografia
e l'HPLC (cromatografia liquida ad elevata risoluzione).
Nella gascromatografia i componenti in forma volatile presenti in una fase mobile
gassosa vengono separati nel passaggio attraverso la fase stazionaria (generalmente
liquida) costituita dal materiale di riempimento delle colonne.
L'HPLC , invece, è un particolare tipo di cromatografia liquida in cui la fase mobile è
liquida (solvente che corre lungo la colonna) mentre la fase stazionaria è solida.
32
4.1.5.1 Gascromatografo
La gascromatografia è un metodo fisico di separazione dei vari componenti di un
miscuglio basato sulla proprietà di determinate sostanze di adsorbirne altre e di
rilasciarle dopo un certo tempo.
Si distinguono due fasi:
•
Fase fissa o stazionaria: è costituita da un letto stazionario (una qualsiasi forma
in cui possa essere impiegata la fase stazionaria, costituita dal riempimento di
una colonna o da uno strato) attraverso il quale si muove, percolando, la fase
mobile; in generale la fase fissa è un liquido o un solido.
•
Fase mobile: fase gassosa inerte rispetto al campione ed alla fase fissa, che
serve a trasportare il campione senza interagire con il sistema di rivelazione del
campione stesso.
Il processo gascromatografico è il risultato di una serie ripetuta di azioni di
adsorbimento e desorbimento durante il movimento dei componenti di un campione
attraverso il letto stazionario, in cui la separazione è dovuta alla differenza dei
coefficienti di distribuzione dei singoli componenti del campione fra le due fasi.
In pratica si raggiunge il risultato voluto facendo in modo che un vettore, sostanza che
non interagisce né con la fase fissa né con quella mobile, trasporti il campione lungo un
percorso (ad esempio un tubo in cui le pareti sono rivestite della fase fissa), durante il
quale le varie componenti vengono adsorbite e rilasciate dalla fase fissa più o meno
frequentemente a seconda della natura del componente stesso; alla fine del percorso si
ottiene che usciranno per primi i componenti che hanno avuto un numero minore di
adsorbimenti, mentre progressivamente usciranno quelli che, a causa di un numero
maggiore di adsorbimenti, cioè di “soste” lungo il percorso, hanno impiegato più tempo.
Bisogna sottolineare che l’adsorbimento di una molecola è un processo casuale con
distribuzione normale, per cui, basandosi anche sui principi della Teoria delle Code, si
può affermare che la probabilità che una molecola sia adsorbita dipende in buona parte
dalla lunghezza del percorso compiuto; se fisso l’attenzione ad una certa distanza
dall’inizio osserverò una certa distribuzione della sostanza A, una della sostanza B, etc.
È importante che queste distribuzioni non si sovrappongano molto l’una con l’altra se si
desidera avere una buona selettività (cioè la capacità di distinguere A da B): tale scopo
33
si raggiunge con lunghezze di questi percorsi che arrivano anche alle centinaia di metri
(vedi anche le considerazioni alla fine del paragrafo).
Lo schema risultante dell'apparato di misura è quello seguente.
Dallo schema precedente si denotano i seguenti elementi:
•
Contenitore gas eluente: contiene un gas che riporta in soluzione, con opportuno
solvente, le sostanze adsorbite da un mezzo adsorbente
•
Colonna cromatografica: è una colonna formata da più elementi (piatti teorici)
•
Piatti teorici: nome dei singoli elementi che compongono la colonna
cromatografica, nome derivato dalla somiglianza funzionale con i piatti delle
colonne di rettifica
•
Scarico: è lo scarico da cui escono le sostanze usate nella misura
•
Rb: sono resistenze sensibili alla conducibilità termica dei gas
•
Ra: resistenze variabili destinate ad azzerare (equilibrare) il ponte
•
V: generatore di tensione in continua
•
A: amplificatore differenziale
•
OUT: uscita segnale elettrico misurato
L'azzeramento dell'apparato di misura si ottiene facendo circolare sono il gas eluente,
ottenendo quindi il bilanciamento del ponte.
34
Quando si inietta la sostanza da analizzare il ponte si bilancia in funzione della
conducibilità termica dei vari gas, infatti su una resistenza Rb passa il gas eluente nella
sua condizione iniziale, mentre sull'altra Rb passa il gas al termine del suo cammino
ormai frazionato e con conducibilità termica diversa da prima (frazionamento ad opera
della colonna cromatografica): il valore di Rb dipende dalla sua temperatura di esercizio,
che a sua volta dipende dalla quantità di gas con cui scambia calore e dal coefficiente
termico del gas stesso (NB: resistività di un materiale = ρ= ρ(T)). Questo tipo di
rivelatore è detto anche “a filo caldo”.
Nel segnale di uscita posso riconoscere la presenza dei vari gas perché ho tarato lo
strumento su una serie di segnali di riferimento.
Rimangono da notare alcuni punti:
•
L'apparato di misura deve essere a temperatura costante, quindi si realizza
l'apparecchiatura con una grande massa termica e la si stabilizza in temperatura.
•
La colonna cromatografica è composta in genere da piatti sottili ed è molto lunga,
ma non potendola fare lineare la si realizza arrotolata con un raggio di curvatura
molto più grande del diametro del tubo (che in genere è di 2-3 decimi di mm),
infatti, supponendo un moto lineare in un tubo, il moto lo si può considerare
lineare anche se il tubo viene avvolto in una matassa, con l'unica accortezza che
il raggio di curvatura della matassa sia molto maggiore del diametro del tubo,
come nella figura sottostante.
4.1.5.2 Sensore a ioni e sensore a cattura di elettroni
Il sensore a ioni è un tipo di sensore, usato anche nell'industria, il cui principio si basa
sulla ionizzazione degli atomi.
Lo schema di principio è raffigurato nella figura seguente.
35
La fiamma ha il compito di ionizzare gli atomi scindendoli in un elettrone libero e in uno
ione positivo.
Lo ione sarà attratto dal polo negativo generando una corrente che sarà misurata dalla
resistenza R e sarà proporzionale alnumero di elettroni che passano, cioè alla
concentrazione della sostanza incognita da misurare.
La fiamma viene alimentata da gas combustibile in cui confluisce anche la sostanza
incognita.
Questa tecnica è utile per misurare per esempio sodio e potassio. In generale lo posso
usare solo con alcuni tipi di fase mobile (ad esempio lo posso usare se la fase mobile
non è infiammabile); è comunque indicato con sostanze da rivelare che si adattano
bene a questa tipologia di rivelatore.
Altra tecnica è quella del sensore a cattura di elettroni.
Questa tecnica, molto selettiva, differisce dal sensore a ioni in quanto per ionizzare non
viene usata una fiamma, ma bensì una sostanza radioattiva.
36
Il sistema di misura presenta il seguente schema.
Nel tubo di flusso vi passa il gas incognito, che viene ionizzato passando
nell'alloggiamento della sostanza radioattiva (generando quindi ioni positivi ed elettroni).
Gli elettroni generatosi vengono attirati dal polo positivo e genera una corrente che
viene misurata tramite R ed amplificata da A. Il problema principale di questo dispositivo
è nella presenza della sorgente radioattiva, che deve essere a decadimento lungo per
evitare che debba essere sostituita spesso, ma che, per lo stesso motivo, risulta difficile
da gestire.
4.1.5.3 HPLC
In questo apparecchio la fase mobile è un liquido, mentre la fase fissa è un solido
costituito da cristalli che si presenta in forma di grani che riempiono una colonna.
È un apparecchio critico con la temperatura e deve essere termostatato in modo molto
efficace e difficile da gestire.
È importante che il flusso del liquido di trasporto sia costante: poiché il flusso è
proporzionale alla differenza di pressione, a temp. e sezione del tubo costanti, è
possibile assicurare questa caratteristica ad esempio prelevando una “piccola quantità”
di liquido da un serbatoio di grandi dimensioni mentre l’altra estremità del tubo è alla
pressione atmosferica.
In generale l’uso di un tipo di apparecchio o di un altro non è casuale, ma è legato alla
sostanza da rivelare, in quanto il tipo di sostanza condiziona contemporaneamente sia
la scelta della fase mobile, che non deve interagire, che quella del rivelatore, che deve
essere sensibile alla frazione da rivelare ma non alla fase mobile.
37
4.1.6 Urine
Le urine rappresentano l'altro liquido biologico insieme al sangue, sul quale vengono
effettuate analisi quantitative e qualitative di sicuro interesse diagnostico.
L'urina è il liquido fisiologico prodotto dall'attività funzionale dei reni ed emesso
periodicamente nella quantità giornaliera di circa 1000-1800 cm3.
La composizione chimica dell'urina è estremamente variabile, contiene sostanze
inorganiche (cloro, zolfo, sodio, potassio, calcio ecc.) e sostanze organiche (urea, acido
urico, creatinina, pigmenti urinari ecc.). Attraverso l'urina si eliminano gran parte dei
prodotti finali del metabolismo e molte delle sostanze introdotte a scopo terapeutico
nell'organismo.
L'esame delle urine è di fondamentale importanza per la diagnosi di numerose malattie
ed è in grado di fornire dati importanti non solo sullo stato funzionale del rene ma anche
sullo stato funzionale di molti altri organi.
La misura dei vari analiti nelle urine è effettuata con fotometria a secco ovvero
attraverso barrette su cui sono posti tutti i reattivi degli analiti da ricercare; dette barrette
sono immerse nel campione di urina e dopo il tempo di reazione (alcune decine di
secondi) ciascuna zona di misura è letta per fotometrica.
4.1.6.1 Chimica secca
La chimica secca si differenzia dalle metodologie precedentemente analizzate, in
quanto i reattivi sono in forma solida o sono liofilizzati (privati della parte liquida),
permettendo di ottenere apparati di misura più compatti e semplici nel loro utilizzo.
Lo schema di misura tipico di un elemento di misura di chimica secca è il seguente.
38
Su un supporto si trova il materiale assorbente che ha il compito di assorbire una
quantità ben precisa di campione.
Sotto il materiale assorbente si trova il reattivo secco che a contatto con la parte di
campione assorbita reagisce con il reattivo stesso formando una soluzione.
Il supporto presenta sulla facciata inferiore una superficie specchiante che permette di
effettuare con metodo fotometrico (a riflessione) le misure desiderate.
39
4.2
Ematologia
Nel settore ematologico di un laboratorio clinico vengono diagnosticate le eventuali
alterazioni delle cellule sanguigne e dei processi di coagulazione e di emostasi.
Il campione ematologico è per larga parte rappresentato dal sangue intero. La
diagnostica ematologica di laboratorio comprende la determinazione del numero e lo
studio della forma della struttura chimica e della funzionalità dei differenti tipi di cellule
che compongono il sangue sia a livello periferico che midollare; lo studio dell'attività
proliferativa delle cellule degli organi emopoietici; La determinazione di taluni costituenti
biochimici del siero in parte di origine metabolica generale, in parte intimamente
connessi con gli elementi cellulari sanguigni.
La diagnostica della coagulazione e dell'emostasi comprende lo studio dei fattori della
coagulazione, dello stato della parete vascolare e delle piastrine.
In questo settore del laboratorio i metodi e la strumentazione (limitati fino a pochi anni fa
al solo microscopio) si sono fatti talmente sofisticati per complessità e livelli di
automazione, da raggiungere quelli della chimica clinica.
4.2.1 Elementi figurati del sangue
Il sangue, mezzo di trasporto delle varie sostanze in tutto il corpo, può essere
considerato un particolare tipo di tessuto corporeo costituito da cellule libere (elementi
figurati) e da una sostanza fluida (plasma) che rappresenta oltre la metà del volume
totale di sangue.
Gli elementi figurati appartengono a tre categorie: globuli rossi (o emazie o eritrociti);
globuli bianchi o leucociti; piastrine o trombociti.
La percentuale in volume degli elementi figurati (46%) costituisce il cosiddetto valore
ematocrito del sangue normale.
Nel sangue periferico i globuli rossi sono presenti nella quantità media di
5.000.000/mm3 nell'uomo e di 4.500.000/mm3 nella donna.
I globuli rossi sono ricchi di un pigmento contenente ferro, ovvero l'emoglobina che
conferisce al sangue il caratteristico colore rosso.
I globuli bianchi o leucociti sono meno numerosi dei globuli rossi. Il rapporto è di 1 a 600
per cui il numero medio nell'uomo adulto normale è di 6.500 - 7000/mm3.
40
Essi si suddividono in tre categorie principali: granulociti, linfociti e monociti con
funzioni diverse.
I granulociti a seconda della loro affinità per i vari coloranti istologici si suddividono in
neutrofili, eosinofili e basofili.
La composizione percentuale secondo queste categorie costituisce la formula
leucocitaria che, mediamente è così suddivisa: granulociti neutrofili 66%, granulociti
eosinofili 1,5%, granulociti basofili 0,5%, linfociti 26%, monociti 6%.
Le piastrine o trombociti, sono piccoli elementi anucleati di forma irregolare. Hanno una
dimensione molto inferiore dai globuli rossi (1-3 æm) e il loro numero è di 300.000/mm3
di sangue.
Le piastrine hanno un ruolo fondamentale nella regolazione dell'emostasi cioè di quei
meccanismi che si oppongono alla fuoriuscita del sangue dal letto vascolare.
Il complesso di dati ematologici di base necessari per effettuare un'indagine
ematologica viene definito esame emocromocitometrico.
Tale esame comprende: il dosaggio dell'emoglobina, il valore ematocrito (volume
eritrocitario in una quantità di sangue totale conosciuta), il conteggio degli eritrociti, il
volume eritrocitario medio (MCV), il conteggio dei leucociti con il numero assoluto delle
popolazioni (e principali) e quello delle piastrine
L’esame microscopico evidenzia la morfologia, il corredo enzimatico, le resistenze
globulari, la struttura molecolare dell'emoglobina e della membrana eritrocitaria, ecc.
Per le piastrine l'approfondimento, oltre alla morfologia, dovrà comprendere prove
funzionali ed indagini sulle proteine di membrana.
Per i leucociti, oltre alla microscopia con particolari colorazioni, possono essere attuati
lo studio citochimico, prove di funzionalità cellulare, e la tipizzazione immunologica
(essenzialmente dei linfociti), insieme alla determinazione delle sotto popolazioni in cui
possono essere suddivisi i linfociti di notevole significato clinico per diverse patologie.
La tecnica utilizzata per la determinazione delle sotto popolazioni linfocitarie insieme
alla tipizzazione immunologica dei linfociti è rappresentata dalla citometria a flusso
(citofluorimetro) in cui le cellule da analizzare sono portate in sospensione ed analizzate
mentre fluiscono di fronte ad una sorgente di luce propriamente collimata
(preferibilmente una luce laser).
41
4.2.1.1 Conteggio manuale dei corpuscoli ematici
Il primo tipo di conteggio effettuato sui corpuscoli ematici è stato quelle manuale con
ausilio del microscopio ottico.
La misura manuale iniziava depositando una goccia di sangue su una apposito vetrino
(con dei rialzi laterali), come nella figura seguente.
In seguito si posava un altro vetrino sopra il precedente vetrino base e il sangue finiva
per occupare quasi tutta la superficie del vetrino, come in figura seguente.
Conoscendo l'altezza h dei rialzi del vetrino base e la superficie occupata dal campione
di sangue è possibile sapere il volume occupato dal campione di sangue in analisi.
Il conteggio avveniva contando tipicamente 100 corpuscoli e prendendo nota della loro
tipologia.
Il problema era che con 100 corpuscoli di alcune tipologie ve ne potevano essere 3-4,
quindi dal punto di vista statistico l'errore poteva essere grande. Si poteva pensare di
ridurre l’errore ripetendo la misura oppure contarne di più, ma non era conveniente in
quanto sarebbe stato troppo lento l'esecuzione dell'esame; per questo motivo vennero
condotti studi su metodi di realizzare l'esame con macchine a conteggio automatico.
42
4.2.1.2 Conteggio automatico con macchina di Coulter
Il conteggio automatico dei corpuscoli ematici rappresentò un passo in avanti in queste
attività di laboratorio, col risultato che i tempi di esecuzione dell'esame diminuirono
enormemente, così come l'errore commesso.
Lo scopritore della prima tipologia di macchina per conteggio automatico fu Coulter che
brevettò e produsse lui stesso il dispositivo.
Il principio di funzionamento è quello che i globuli (bianche e rossi) presentano una
resistenza elettrica abbastanza elevata rispetto a certe tipologie di soluzioni che
presentano invece una resistenza elettrica notevolmente più bassa.
Lo schema di principio della macchina di Coulter risulta quello nella figura seguente.
Il campione di sangue viene messo nel contenitore 1 e poi nei contenitori vengono
create le pressioni P1 e P2 in maniera che il sangue venga spinto a passare dal
contenitore 1 al contenitore 2 per differenza di pressione.
Il sangue che viene messo nel contenitore 1 non è puro, ma è miscelato insieme ad una
sostanza a resistenza elettrica molto più bassa della resistenza elettrica dei globuli.
Quando un globulo passa dal contenitore 1 al contenitore 2 la resistenza tra i due
elettrodi aumenta in quanto si viene ad avere uno schema elettrico equivalente come
quello nella figura seguente.
43
Le resistenze R1 ed R3 sono resistenze della soluzione in cui sono immersi i corpuscoli
ematici, mentre R2 è la resistenza elettrica del globulo.
Risultando R2 molto maggiore di (R1+R3), al passare del globulo la resistenza totale
Rtot=R1+R2+R3 ha un brusco aumento indicando così il passaggio di un globulo.
Per la misura della resistenza si usa una configurazione a ponte, come nello schema
seguente.
Le resistenza Ra sono uguali e fisse ed Rb è variabile in maniera da bilanciare il ponte
rendendo l'uscita OUT il più possibile prossima a 0.
Rtot è la resistenza totale del capillare in cui passano i globuli (misurata attraverso gli
elettrodi).
Quando nel capillare passa un globulo OUT assume la seguente forma.
44
Dal grafico si vede che quando il globulo passa attraverso il capillare, OUT assume un
certo valore "a" dipendente dal volume del globulo e dalla sezione del capillare.
Mentre la durata dell'impulso "d" dipende dalla lunghezza del capillare.
Il valore "a" dal punto di vista del rapporto SNR è meglio che sia il più grande possibile,
anche se per averlo grande si dovrebbe restringere il capillare fino a farci passare un
solo globulo in maniera da fare toccare al globulo stesso le pareti; ciò porterebbe ad
intasare con molta facilità il capillare, e quindi la sezione del capillare stesso è un
compromesso tra le esigenze di alto valore di SNR e bassa probabilità di intasamento
(anche se oggi il tubo si è praticamente ridotto ad un foro in una membrana).
Volendo determinare anche il volume del globulo tramite la misura di "a" è necessario
che nel capillare ci passi un solo globulo alla volta, visto che essendo i globuli di
dimensione molto variabile non sarebbe possibile distinguere se un valore molto grande
di "a" sia dovuto ad un globulo molto grosso o a due globuli piccoli.
Per fare si che il capillare sia attraversato da un solo globulo alla volta si usa diluire il
sangue da analizzare con una quantità di soluzione tale da rendere statisticamente
improbabile l'attraversamento contemporaneo di due globuli.
Il problema di avere un flusso costante si riduce ad avere ΔP=P1-P2 costante, in
quanto ΔP è proporzionale al flusso attraverso il capillare. Il flusso costante permette di
avere la durata "d" di OUT costante per ogni impulso dovuto al passaggio di un globulo.
Se si vuole contare un tipo preciso di corpuscolo (globulo bianco, rosso o piastrine), è
possibile usare delle sostanze che hanno la proprietà di lisare (rompere, spaccare, fare
a pezzetini) determinati componenti corpuscolari del sangue.
45
Le sostanze usate sono principalmente di due tipi: quella capace di lisare i globuli
bianchi e quella capace di lisare i globuli rossi.
A seconda delle misure che si vogliono fare si usano le seguenti combinazioni di
sostanze:
•
Conteggio globuli bianchi: si lisano i globuli rossi
•
Conteggio globuli rossi: si lisano i globuli bianchi
•
Conteggio piastrine: si lisano sia i globuli bianchi che quelli rossi (anche se le
piastrine sono più piccole dei globuli comunque sono sempre più grandi dei pezzetti
dei globuli lisati).
Per eseguire invece la misura della formula leucocitaria è necessario fare delle
modifiche allo schema principale di misura, in quanto non è possibile distinguere la
tipologia dei globuli bianchi dalla semplice misura di resistenza effettuata in continua.
Viene allora introdotto un sistema di misura in alternata, che permette di trovare 3
funzioni discriminanti, cioè tre funzioni attraverso la cui combinazione è possibile
determinare la percentuale delle tipologie di globuli bianchi presenti.
Le combinazioni di tipologie di globuli bianchi, attraverso le tre funzioni discriminanti
danno luogo a risultati simili a quello della figura seguente.
Il grafico è in 3 dimensioni, dipendendo da tre funzioni discriminanti dove le linee
tratteggiate rappresentano lo soglie.
46
Ciascuna popolazione di globuli bianchi è rappresentata da una nuvola di valori, situata
tra ben precise soglie.
Quando una nuvola di valori supera una soglia allora il sistema automaticamente
riconosce una forma patologica e la segnala al medico.
Versioni successive della macchina di Coulter, hanno apportato come modifica la
riduzione della lunghezza del capillare fino a farlo diventare semplicemente un foro
(eliminando problema dell'occlusione del capillare), come visibile da figura sottostante.
4.2.1.3 Conteggio automatico con metodo di misura TOA
Questo metodo di misura, è stato inventato dai giapponesi, con l'idea di risolvere i
problemi di cui erano affette le prime versioni delle macchine di Coulter.
Il principio di funzionamento non è più elettrico ma ottico, e sfrutta alcune tecniche
tipiche dell'ingegneria aeronautica.
Lo schema della macchina è il seguente.
47
Dentro un contenitore di profilo aerodinamico viene versato il sangue da esaminare in
soluzione.
Un fluido trasparente e inerte rispetto al campione (cioè che non reagisce con esso)
viene fatto scorrere all'esterno del contenitore del sangue, all'interno di un tubo, in
maniera da formare un flusso lamellare di liquido, evitando cioè la formazione di
turbolenze (grazie anche al profilo aerodinamico).
Il contenitore del sangue è forato in maniera da fare fuoriuscire un globulo alla volta,
che incanalato dal flusso lamellare percorrerà un percorso rettilineo delimitato non più
da un capillare reale, ma da linee di flusso del liquido inerte che fungono da “capillare
virtuale”.
Questo capillare, non essendo più di tipo solido, non corre il rischio di intasarsi.
Un laser ed un rivelatore sono posti a formare una barriera ottica che rivela ogni
passaggio di globuli e ne consente la conta.
La selezione di globuli rossi, bianchi e piastrine viene sempre effettuata tramite
sostanze che premettono di lisare i componenti non desiderati.
Le prime versioni non permettevano di fare l'analisi della formula leucocitaria, in quanto
disponevano di un solo rivelatore.
48
Per potere effettuare la misura di formula leucocitaria era necessario di disporre di più
rivelatori, uno per ciascuna funzione discriminante.
L'utilizzo di più rivelatori con un laser era possibile grazie al fenomeno di scattering
(diffusione), che avveniva in presenza del passaggio dei globuli, come nella figura
seguente.
Ogni rivelatore è specifico per un particolare tipo di radiazione emergente dopo
l’interazione del raggio laser col globulo; l’insieme dei rivelatori “ricostruisce”
praticamente il lobo di emissione della radiazione luminosa rivelata. Ogni rivelatore
fornisce in uscita il valore di una funzione discriminante in maniera del tutto simile alle
ultime versioni della macchina di Coulter, fornendo quindi gli stessi risultati.
4.2.2 Coagulazione
Le piastrine partecipano, insieme ad altri fattori, all'emostasi, cioè all'arresto del
sanguinamento che si verifica quando un vaso è leso. L'emostasi consiste in una serie
di eventi successivi il cui risultato finale è il tamponamento della soluzione di continuo
della parete vasale. Il fenomeno iniziale consiste in una costrizione del vaso sanguigno,
alla quale segue la formazione di un tappo temporaneo di piastrine agglutinate che è
poi convertito in coagulo vero e proprio. L'ultimo evento è la retrazione del coagulo.
49
Le piastrine svolgono un ruolo importante in tutti questi tre processi, grazie alla loro
proprietà di aderire alla parete del vaso leso agglutinandosi e di liberare le sostanze in
esse contenute.
Le piastrine aderite alla parete vasale si agglutinano formando un tappo piastrinico
che rapidamente si ingrossa via via che vi aderiscono altre piastrine, occludendo la
soluzione di continuo del vaso leso.
Il tenue agglomerato di piastrine del tappo temporaneo viene convertito in coagulo in
seguito alla precipitazione del fibrinogeno proteina plasmatica solubile, in fibrina
insolubile. Le molecole di fibrina si polimerizzano formando una rete di filamenti che
imbriglia nelle sue maglie le piastrine, i globuli rossi e gli altri elementi figurati del
sangue; si determina così una chiusura più ermetica della soluzione di continuo del
vaso.
Il meccanismo di formazione della fibrina comporta una complessa serie di reazioni
intermedie "a cascata", alle quali partecipano fattori normalmente presenti nel sangue e
sostanze liberate dalle piastrine e dai tessuti lesi. La conversione del fibrinogeno in
fibrina, che è la reazione fondamentale nella coagulazione del sangue, è catalizzata da
un enzima chiamato trombina che non è un normale costituente ematico (altrimenti si
verificherebbe una coagulazione entro il sistema circolatorio). La trombina si forma da
un precursore circolante inattivo, la protrombina. La trasformazione della protrombina
inattiva in trombina attiva avviene per azione di una serie di fattori in parte liberati dai
tessuti lesi, in parte presenti normalmente nel plasma ed in parte diffusi dalle piastrine.
Alla formazione del coagulo segue la retrazione del coagulo, un lungo processo
durante il quale i filamenti di fibrina si accorciano riducendo così la dimensione del
coagulo; gli elementi figurati del sangue rimangono imbrigliati nelle maglie del reticolo di
fibrina ed il liquido che si separa costituisce il siero. Nella retrazione del coagulo svolge
un ruolo fondamentale la contrazione delle piastrine aderite ai filamenti di fibrina, ad
opera delle proteine contrattili in esse contenute.
L'equilibrio emostatico del sangue è mantenuto da una serie di fattori plasmatici ad
azione limitante od attivante, da composti con azione fibrinolitica (fibrinolisina) e da
sostanze anticoagulanti come, ad esempio, l'eparina liberata dai granulociti basofili e
dai mastociti che inibisce i meccanismi di attivazione della protrombina e blocca
l'interazione della trombina col fibrinogeno.
50
Esistono numerosi apparecchi automatici per la determinazione del tempo di
coagulazione (coagulometri) fra i quali un metodo molto usato è quello centrifugo che
mette in contatto campione con reattivo contemporaneamente per tutti i campioni del
contenitore (da 20 a 50).
4.2.2.1 La misura della coagulazione
La misura della coagulazione avviene sempre con metodi fotometrici, ed in particolare
per nefelometria (in trasparenza), basandosi sulla constatazione che “più il sangue si è
solidificato più è opaco”.
Quando si effettua il prelievo del sangue, la provetta di prelievo contiene già al suo
interno una sostanza anticoagulante, in maniera che la coagulazione non cominci prima
di sottoporre il sangue alla misura sulla coagulazione.
Una volta effettuato il prelievo la macchina fa iniziare l'esame nel momento in cui il
sangue viene addizionato di un farmaco che annulla l'effetto dell'anticoagulante, dando
così inizio alla coagulazione.
Anche in questo caso si è resa necessaria l'automazione, in quanto il numero di esami
richiesti è elevato.
Il problema dell'automatizzazione è che tutte le coagulazioni devono iniziare nello
stesso momento.
Per risolvere l'inizio contemporaneo di tutte le coagulazioni è stato inventato un sistema
rotante come quello nella figura sottostante.
51
Ogni cuvetta di misura è provvista di due sezioni: in una va il sangue e nell’altra vi è il
farmaco per annullare l'effetto dell'anticoagulante; finche il disco è fermo le due
sostanze rimangono separate, ma quando il disco inizia a girare il sangue viene a
contatto con il farmaco ed inizia la coagulazione.
Il sistema al passaggio di ogni cuvetta esegue una misura la volo usando un metodo
nefelometrico (di cui nello schema sono visibili la sorgente e il monocromatore, in
quanto il ricevitore sta sotto il disco).
La tecnica appena descritta è nata come applicazione per la cinetica enzimatica, dove
nelle due sezioni della cuvetta di misura trovavano posto il reattivo (enzima) ed il
campione: al momento dell'avvio della rotazione del disco la reazione enzimatica
iniziava insieme al campionamento alla ricerca della zona lineare.
Una tecnica usata per vedere lo stato della coagulazione del sangue era l'uso di una
pallina contenuta all'interno della provetta di misura. La pallina, durante la rotazione
della provetta, veniva più o meno sospinta dalla forza centrifuga verso il bordo della
provetta stessa a secondo dello stato di coagulazione del sangue (cambiando la densità
del sangue al variare della coagulazione cambiava la mobilità della pallina all’interno del
contenitore).
52
4.3
Immunologia
La diagnostica immunologica ha raggiunto in questi ultimi tempi livelli altissimi di
sviluppo attivando tecniche avanzate per la diagnosi dei più complessi ed oscuri
disordini patologici.
l'immunologia studia le reazioni del sistema immunitario, reazioni che non possono
essere spiegate in uno scenario n‚ propriamente chimico, n‚ propriamente fisico.
Una componente operativa di rilievo è l'immunoematologia. Questa disciplina
presenta affinità sia con l'immunologia che con l'ematologia perché‚ studia le reazioni
immunologiche relative ai componenti morfologici del sangue.
Le applicazioni fondamentali ma certamente non uniche di questa disciplina sono:
fornire le basi immunologiche alla sicurezza delle trasfusioni sanguigne; fornire dati
sulla patogenesi, prevenzione, diagnosi e terapia dell'immunizzazione Rh; contribuire
alla preparazione e al monitoraggio dei trapianti d'organo.
Una parte applicativa importante si riferisce alle attività trasfusionali, quali la gestione
delle cosiddette banche del sangue, termine con cui si intende il servizio atto a
raccogliere, classificare, conservare e distribuire il sangue in toto o i suoi costituenti
separati; e l'emoterapia, pratica definita come attinente la scelta, la preparazione e
l'infusione di appropriate quantità di sangue intero o di singoli derivati in modo mirato
per un dato paziente.
4.3.1 Antigeni ed anticorpi
Il contatto con agenti infettati determina nell'organismo uno stato di protezione
(immunità) nei confronti di questi stessi agenti. Lo stato di immunità si instaura dopo il
primo contatto con l'agente infettante stesso. Per questo motivo un organismo in genere
non subisce la stessa malattia infettiva più di una volta nel corso della vita.
Questa protezione è mediata dagli anticorpi prodotti dall'organismo in risposta agli
agenti infettanti (virali, batterici ecc.).
Questi infatti in seguito alla reazione con l'anticorpo, vengono neutralizzati e quindi
eliminati.
Le molecole che hanno attività anticorpale sono rappresentate essenzialmente da
proteine estremamente eterogenee per dimensioni, peso molecolare, carica elettrica e
vengono indicate con il termine generico di immunoglobuline (Ig). Tutte quelle
53
sostanze che, introdotte nell'organismo, sono capaci di produrre una risposta
immunitaria cellulare o umorale oppure entrambe e sono, inoltre, capaci di reagire con i
prodotti specifici del sistema immunitario (immunoglobuline e cellule t attivate) sono
chiamati antigeni.
Le metodiche attualmente utilizzate per ricercarne il complesso antigene-anticorpo sono
rappresentate dalla immunofluorescenza in cui la reazione antigene-anticorpo è
evidenziata dalla fluorescenza acquisita dall'antigene con cui si è legato l'anticorpo
coniugato.
I complessi fluorescenti possono essere poi visualizzati al microscopio a luce
ultravioletta.
Sono inoltre adottati metodi immunoenzimatici (ELISA, EIA) e radioimmunologici
(RIA) che utilizzano come traccianti l'uno enzimi, l'altro isotopi radioattivi.
La coniugazione degli antigeni o degli anticorpi con tali marcatori deve lasciare
inalterata la reattività immunologica.
L'amplificazione prodotta dalla misura della radioattività o dall'azione dell'enzima sul
suo substrato assicura una eccellente sensibilità alle due metodiche.
Le metodiche che impiegano isotopi radioattivi presentano alcuni inconvenienti:
•
i reagenti hanno scadenza piuttosto breve essendo dotati di un "decadimento";
•
rischio per l'operatore da parte di radiazioni ionizzanti;
•
problema per lo smaltimento dei rifiuti radioattivi.
Tutti questi problemi vengono superati se come traccianti si utilizzano gli enzimi ma non
sempre si ottengono sensibilità o specificità migliori.
Infine un'altra metodica utilizzata per la misura dei complessi antigene-anticorpo è
rappresentata dalla nefelometria.
I vari metodi utilizzati in laboratorio per evidenziare una reazione antigene-anticorpo si
differenziano tra loro non solo per il principio su cui si basano, ma anche per il grado di
sensibilità (quantità di antigeni o di anticorpi che sono capaci di evidenziare), per la
specificità e per la possibilità di quantizzare o meno il reagente ignoto.
54
Per questo l'interpretazione di tali reazioni deve tenere conto di un gran numero di
variabili: tra cui la classe immunoglobulinica interessata, il tipo di metodica impiegata,
l'epoca di comparsa degli anticorpi evidenziati, ecc.
4.3.1.1 Sistema di misura RIA (RadioImmunoAssay)
Quello che si vuole rilevare è la presenza e la quantità di un certo tipo di antigene
specifico.
Questo metodo utilizza tecniche radioisotopiche per misurare la presenza degli antigeni
ricercati.
Nella metodologia usata fondamentale è il ruolo dell'antigene radioattivo, cioè di un
antigene a cui è stato sostituito un atomo con un suo radioisotopo radioattivo (non
cambiando così nulla dal punto di vista chimico).
La simbologia usata nella descrizione delle metodiche successive è la seguente:
•
Agb = antigene bound (legato)
•
Agf = antigene free (libero)
•
Agt = antigene totale (libero+legato)
•
Acb, Acb1, Acb2 = anticorpo bound (legato)
•
Acf = anticorpo free (libero)
•
Act = anticorpo totale (libero+legato)
•
Agb* = antigene marcato bound (legato)
•
Agf* = antigene marcato free (libero)
•
Agt* = antigene marcato totale (libero+legato)
La metodica (RIA competitiva) è la seguente:
•
Nel corpo vi è un certo numero incognita di antigeni Agt.
•
Si iniettano anticorpi Act (in eccesso) ed antigeni marcati Agt*.
•
Nell'organismo si avrà (Agb Acb1+Agb* Acb2+Agf+Agf*).
•
Per filtrazione si separano (Agb Acb1+Agb* Acb2) e (Agf+Agf*).
•
Con due misure sulla radioattività è possibile ottenere (Agb* Acb2) ed (Agf*)
•
È possibile impostare il seguente sistema (visto che Ag* e Ag sono
chimicamente equivalenti e si comportano quindi equivalentemente):
55
Ag F∗
Ag F
=K=
∗
Ag B
Ag B
Ag B∗ + Ag B = Act
•
Act è noto, Agf* ed Agb* sono misurati con metodi radioattivi, quindi dal sistema
è possibile ricavare Agf ed Agb
•
Sommando si ottiene Agt=Agf+Agb
Questo metodica presenta due problemi:
•
Le misure da effettuare sono due
•
Esiste il problema della gestione di materiale pericoloso legato all'uso di materiali
radioattivi (tempo di decadimento, scorie radioattive dopo l'esame)
Per risolvere il primo problema della doppia misura si è cambiato il procedimento per
effettuare l'analisi ottenendo la seguente metodica (RIA sequenziale):
•
Nell'organismo vi è una certo numero incognita di antigeni Agt.
•
Si iniettano anticorpi Act (in eccesso).
•
Nell'organismo si avrà (Agb Acb+Acf).
•
Si iniettano antigeni radioattivi Ag* (in eccesso).
•
Nell'organismo si avrà (Agb Acb1+Agb* Acb2+Agf*).
•
Per filtrazione si separano (Agb Acb1+Agb* Acb2) e (Agf*).
•
Con una misura sulla radioattività si ottiene (Agb* Acb2).
•
Sottraendo si ottiene Ag=Act-Agb* Acb2.
Riguardo la radioattività e i rifiuti radioattivi che rimangono dopo la misura rimane
inalterato il problema della gestione di queste sostanze; la soluzione migliore rimane
quella di non usare traccianti radioattivi, ma di trovare traccianti con altre proprietà.
I traccianti non radioattivi usati sono di tipo a fluorescenza e sono costituiti da zuccheri
che hanno la proprietà di legarsi con gli antigeni.
La fluorescenza si genera quando una radiazione colpisce l'antigene modificato, come
in figura seguente.
56
La radiazione che colpisce l'antigene è ad energia minore di quella che esce, per cui la
lunghezza d'onda della radiazione che colpisce l'antigene è minore della lunghezza
d'onda che esce.
NOTA: l'energia associata ad una radiazione è la seguente: E = h ⋅ν
con i termini della formula che hanno il significato seguente:
E = energia della radiazione
h = costante di Plank
ν = frequenza radiazione ν =
1
λ
cioè è l'inverso della lunghezza d'onda
Nonostante che i metodi a fluorescenza presentino il vantaggio di non avere
componenti radioattive, ancora oggi non esistono zuccheri per tutti i tipi di antigeni
conosciuti e quindi il metodo radioattivo viene ancora usato in questi casi.
L'automatizzazzione delle operazioni di quantizzazione degli antigeni avviene tramite
mezzi fisico chimici.
Un metodo utilizzato è quello che usa un ago di misura speciale ed un contenitore
diviso in più sezioni.
L'ago è strutturato come segue.
57
Sulle pareti dell'ago vi è una colla speciale con cui sono attaccati gli anticorpi in
eccesso, che si combineranno con gli antigeni quando il sangue verrà aspirato.
Il procedimento di analisi è il seguente:
•
Si aspira il campione nell'ago (contenente antigeni Agt)
•
Gli anticorpi contenuti nell'ago si combinano con gli antigeni presenti nel sangue
(ma alcuni anticorpi non si combinano in quanto sono in eccesso) ottenendo
(Agb Acb+Acf)
•
Si immettono in eccesso anticorpi marcati (Agb Acb1 + Agb* Acb2+Agf*)
•
Si sciacqua l'ago con una soluzione neutra eliminando Agf* ed isolando quindi
(Agb Acb1 + Agb* Acb2)
•
Poi si aspira un diluente, che scioglie la colla e libera gli anticorpi, che viene poi
messo nella vaschetta di misura
•
Nella vaschetta tramite una misura fotometrica (nel caso fluorescenza) si
determinano gli (Agb* Acb2)
•
Sottraendo si ottiene Ag=Act-Agb* Acb2
Il contenitore suddiviso in più sezioni si presenta come segue.
58
La numerazione delle sezioni indica la sequenza delle provette interessate alla misura.
Nella prima provetta si mette il campione nella successiva gli anticorpi marcati e nelle
seguenti la soluzione detergente.
Infine con l'ago si aspira il diluente e si rilascia il contenuto diluito nell'ultima vaschetta,
che presenta facce piane e parallele in maniera da potere effettuare la misura
fotometrica.
Il codice a barre infine permette di individuare automaticamente il tipo di contenitore in
base alla misura da effettuare.
Le provette 2,3,4,5 contengono già i liquidi necessari per effettuare la misura, infatti in
genere sono tappate con un velo di alluminio che viene rotto dall'ago durante la misura.
4.3.1.2 Tecniche di biologia molecolare
La biologia delle molecole ed in particolare le tecnologie di ingegneria genetica hanno
sviluppato metodologie di enorme utilità nel campo dell'immunologia.
La base dell'ingegneria genetica è il DNA (acido desossiribonucleico) che è composto
da 4 componenti dette basi (A, B, C, D).
Il DNA viene schematizzato con una doppia elica, in cui ogni elica è formata da una
combinazione delle 4 basi, come nella figura sottostante.
59
Nella figura si vedono le due eliche che si intrecciano e che portano una sequenza di
basi.
I tratti di collegamento tra un'elica e l'altra rappresentano la corrispondente posizione di
una base nell'altra elica.
La particolarità delle eliche è che ad una base presente in una certa posizione su una
delle due eliche corrisponde una base ben precisa su quell'altra elica, secondo le
seguenti corrispondenze:
•
A con C
•
B con D
Una delle tecniche più usate è quella della polimerasi, tramite cui si riesce a moltiplicare
la quantità di materiale genetico a disposizione.
Questa tecnica è una tecnica di amplificazione, ed utilizza un enzima (poliferasi) che
riesce a staccare le due spirali del DNA separandole, ed ottenendo due mezze spirali.
Mettendo le due mezze spirali ottenute in una soluzione contenente tutte le quattro basi,
ad una certa temperatura (60°C circa), si ha un fenomeno di ricombinazione per cui le
due mezze spirali si ricombinano con le basi in soluzione e formano due spirali doppie
complete (avendo così due campioni di DNA originale).
Reiterando il processo è possibile ottenere esponenzialmente una quantità sempre
maggiore di materiale genetico.
60
Purtroppo non è possibile reiterare il processo più di quattro volte, perché oltre tale
numero di iterazioni si hanno delle mutazioni (fenomeno mutogeno), cioè alcune basi
nelle eliche non corrispondono più all'originale e si ha DNA diverso (alterazione delle
sequenze di DNA).
La tecnica della polimerasi è molto utile nel caso in cui per l'analisi degli antigeni si
abbia poco materiale a disposizione.
Un'altra tecnica tipica dell'ingegneria genetica è quella della sostituzione di parti del
DNA tramite alcuni batteri.
Le sequenze di basi presenti nelle eliche sono suddivise in pezzi (sottosequenze)
tenute legate tra di loro a formare un'unica sottosequenza, come nella figura seguente.
I batteri non fanno altro che tagliare una ben precisa sottosequenza compresa tra due
punti si legame e di sostituirla con un'altra sottosequenza.
Questo sistema è alla base degli OGM (organismi geneticamente modificati), cioè di
tutti quegli organismi (piante, animali, uomini) il cui DNA originale è stato modificato.
Un'interessante applicazione medica è quella riguardante la produzione dell'insulina
umanizzata ricavata dal pancreas del maiale.
L'insulina estratta dal pancreas del maiale è un tipo di insulina che differisce da quella
umana per un gene e quindi è possibile sostituire il gene non umano con uno umano,
ottenendo l'insulina umanizzata.
61
Un'altra tecnica, molto usata nell'industria farmaceutica, è quella delle catene cellulari.
Le catene cellulari derivano dai tumori, cui sono precursori.
Le cellule tumorali infatti si moltiplicano a dismisura e non hanno limiti nel moltiplicarsi,
al contrario delle cellule normali.
Il numero delle volte cui si può moltiplicare una cellula normale è di 40 volte.
Potendo fare moltiplicare le cellule senza più alcuna limitazione è possibile ottenere
grandissime quantità di sostanza in poco tempo.
Un esempio ne è l'insulina, che venendo prodotta con questa tecnica ha permesso di
abbassarne notevolmente il costo.
Una volta che si è dato via ad una catena cellulare, la moltiplicazione avverrà senza
limiti di tempo, continuando a produrre la sostanza desiderata all'infinito.
Infine una tecnica, anche essa molto importante, è quella delle sonde DNA.
Questa tecnica è di estrema importanza in quanto permette di determinare la presenza
di un virus prima che lo si possa capire indirettamente dalla presenza degli antigeni
(periodo finestra in cui non ci sono ancora abbastanza antigeni da potere essere
rivelati), quindi permette di cominciare una cura molto prima che con le normali
metodiche aumentando le possibilità di riuscita della cura.
La tecnica si basa sulla sostituzione delle sottosequenze caratteristiche di un elemento
patogeno (di un virus per esempio) con sottosequenze note che fanno da segnalatore e
permettono, tramite la loro ricerca di individuare un virus in maniera diretta (non tramite
individuazione degli antigeni).
4.3.2 Gruppi sanguigni
La trasfusione del sangue è la più diretta conseguenza dell'immunoematologia,
specialmente per quanto riguarda la trasfusione degli eritrociti (globuli rossi), le cui
caratteristiche antigeniche (e, per contro, i relativi anticorpi) possono essere definite con
tecniche relativamente semplici in qualsiasi laboratorio.
I gruppi sanguigni (tra cui i sistemi A-B-0 e l'RH) sono caratteri ereditari degli eritrociti o
globuli rossi con carattere di antigene, che introdotti in un organismo geneticamente
differente possono portare alla formazione di anticorpi specifici.
62
Tra i gruppi sanguigni il sistema AB0 è di particolare importanza in quanto la sua
conoscenza condiziona in modo immediato ed obbligante la sicurezza e l'efficienza
della trasfusione di sangue.
Il sistema AB0 infatti si distingue da tutti gli altri sistemi di gruppo per il fatto che
anticorpi anti-A e anti-B sono presenti in maniera costante al di fuori di ogni apparente
immunizzazione.
La membrana degli eritrociti può presentarne uno solo, tutti e due o nessuno dei due
antigeni A e B cosicché‚ il gruppo di un individuo può essere A; B; AB o 0.
La metodica più comunemente adottata per la determinazione del gruppo AB0 è
rappresentato dall'agglutinazione.
Inizialmente le prove di determinazione del gruppo sanguigno, venivano effettuate
manualmente. Vi erano a disposizione dei supporti sui quali erano presenti gocce di
sangue con gruppo sanguigno noto al quale veniva aggiunta una goccia di sangue da
determinare; a seconda della presenza o meno della reazione di agglutinazione si
risaliva al gruppo sanguigno.
Queste tecniche manuali erano alquanto pericolose in quanto esisteva la possibilità di
trasfondere al paziente sangue non compatibile con conseguenze gravissime.
Attualmente esistono metodi automatici che garantiscono una notevole affidabilità.
Tali metodiche sono in atto nel centro trasfusionale.
63
4.4
microbiologia
La microbiologia clinica è la branca del laboratorio dedicata essenzialmente alla
diagnosi delle malattie da infezioni.
Essa si avvale di tecniche microscopiche, culturali, immunologiche e di biologia
molecolare che possono essere applicate ai più svariati liquidi e tessuti prelevati
dall'organismo (compresi naturalmente i campioni tipici della chimica clinica). In questa
disciplina di laboratorio la conoscenza delle caratteristiche obiettive o sintomatologiche
del paziente è essenziale per la corretta interpretazione del reperto: l'isolamento di un
microorganismo o il risultato di una risposta immunologica ad un particolare antigene
microbico, costituiscono di rado infatti prova diagnostica valida e sufficiente.
Poiché‚ l'agente responsabile di una malattia infettiva può appartenere ad una larga
varietà di microorganismi, le procedure tecnico-diagnostiche della microbiologia clinica
sono ascrivibili a diverse sub-specializzazioni, a seconda che vengano ricercati batteri,
virus, protozoi o miceti.
Il termine "microbiologia clinica" comprende ed indica pertanto correttamente la
batteriologia, la virologia, la parassitologia e la micologia.
4.4.1 Batteri
I batteri sono piccoli microorganismi unicellulari, con un organizzazione cellulare di tipo
procariotico ossia con un nucleo primitivo senza una membrana limitante tra il
cromosoma e il restante citoplasma. Non possiedono infatti una struttura cromosomica
organizzata: il materiale genetico è libero nel protoplasma e consiste in un'unica
molecola circolare di DNA non associata ad altri componenti molecolari.
Inoltre essi presentano una estrema semplicità delle strutture morfologicamente
evidenti.
Le loro dimensioni sono tali che vengono misurati in unità di micron e di nanometri.
I batteri contengono le strutture ed i materiali necessari per un'esistenza autonoma ed
entrambi i tipi di acido nucleico (DNA ed RNA).
La morfologia della cellula batterica può essere riportata essenzialmente a tre tipi:
forma sferica, o quasi sferica (cocchi); forma cilindrica (batteri e bacilli); forma
cilindrica ricurva con una sola curvatura (vibrioni), due curvature (spirilli), più di due
curvature con aspetto a molla di letto (spirochete).
64
Per esplicare le loro attività, i batteri richiedono adatte condizioni ambientali. Se queste
condizioni mancano, essi sono però capaci di sopravvivere in uno stato di quiescenza.
Ad esempio, i batteri presenti nell'aria o quelli che si trovano su un oggetto qualsiasi
non esplicano nessuna attività, ma se vengono a trovarsi in condizioni ambientali più
favorevoli, si sviluppano e si moltiplicano rapidamente. Perché‚ esplichino la loro attività
è necessaria in primo luogo una adeguata temperatura, che varia da specie a specie.
La maggior parte dei batteri vive ad una temperatura media, tra 25°C e 40°C. I batteri
che provocano le malattie infettive nell'uomo si sviluppano bene a 37°C, cioè alla
temperatura normale del corpo umano.
Altra condizione richiesta per lo sviluppo dei batteri è l'umidità. Le cellule batteriche in
stato di attività sono costituite per il 90% di acqua. Se si vengono a trovare in un
ambiente secco, si disidratano e diventano inattive; molte specie di batteri muoiono se
l'essiccamento è prolungato.
Anche la luce inibisce l'attività di molte specie batteriche. Esposti alla luce solare, i
batteri rallentano il loro sviluppo; i raggi ultravioletti li uccidono.
Infine, un'altra condizione per lo sviluppo dei batteri è la disponibilità di sostanze
nutritizie. Molti batteri utilizzano qualsiasi sostanza alimentare, altri hanno invece
bisogno di sostanze particolari. I batteri patogeni, ad esempio, si sviluppano soltanto nei
tessuti viventi o in mezzi chimicamente affini.
Altro fattore fondamentale per lo sviluppo dei batteri è rappresentato dall'ossigeno
atmosferico.
Alcuni di essi vivono infatti solo in presenza di ossigeno, altri vivono solo in sua
assenza; altri, infine, sono capaci di adattarsi alle due condizioni.
Alcuni batteri richiedono per la respirazione ossigeno atmosferico, come la maggior
parte delle piante e degli animali. Questi, detti aerobi, nella respirazione scindono le
molecole di glucosio in anidride carbonica e acqua. Questo gruppo comprende
moltissimi batteri saprofiti ovunque presenti e, tra i batteri patogeni, quelli della difterite,
quelli della tubercolosi e quelli del colera.
All'opposto, vi sono batteri classificati come anaerobi, che in presenza di ossigeno
atmosferico non si sviluppano. Anche tra questi, molti sono saprofiti; tra i parassiti i più
noti sono i batteri del tetano e quelli del botulismo.
Esistono quindi molti fattori che condizionano, lo sviluppo e la crescita batterica.
65
Alcune specie sono capaci infatti di crescere in un raggio ampio di condizioni, ma altri,
sono molto esigenti.
Per quanto sia difficile riprodurre esattamente le condizioni ambientali naturali dei
batteri patogeni, per la maggior parte sono stati individuati adatti terreni colturali
artificiali.
Lo sviluppo della batteriologia infatti ebbe inizio solo quando fu trovata la possibilità di
coltivare i batteri in vitro nei terreni di coltura, costituiti da sostanze più o meno
complesse capaci di mantenere la vitalità e di permettere la riproduzione dei batteri fuori
dal loro ambiente naturale di vita.
I batteri hanno una distribuzione ubiquitaria per la loro capacità di adattamento e quindi
di colonizzare qualsiasi ambiente per cui anche superfici e cavità in comunicazione con
l'esterno degli organismi animali sono colonizzati da una popolazione batterica.
Un batterio patogeno per l'uomo può essere quindi definito come un batterio in grado
di invadere i tessuti di un organismo umano e di moltiplicarvisi danneggiando il normale
funzionamento dell'organismo ospite con la produzione di sostanze tossiche.
Contro i batteri patogeni sono state individuate sostanze ad azione selettiva per
determinate strutture o su particolari tappe metaboliche, capaci di inibire la crescita o
uccidere i batteri già insediati nell'organismo.
Le sostanze dotate di queste proprietà vanno sotto il nome di antibiotici. L'utilizzazione
in terapia di queste sostanze dipende oltre che dalla loro attività antibatterica anche da
caratteristiche tossicologiche-farmacologiche, tali per cui siano in grado di agire sui
batteri ad una concentrazione tollerata dai tessuti dell'ospite possedendo quindi una
tossicità selettiva per i microrganismi.
Un grosso problema connesso con l'uso degli antibiotici deriva dalla comparsa di
resistenza in stipiti di batteri prima sensibili ed è questo il principale motivo della
continua ricerca di nuovi farmaci antibatterici.
Per una corretta terapia antibatterica è quindi necessario conoscere oltre all'identità
dell'agente patogeno anche la sua sensibilità ai farmaci antibatterici.
Per tutti questi motivi l'impiego della prova di sensibilità batterica in vitro agli antibiotici
(antibiogramma), va acquistando sempre maggior importanza.
L'antibiogramma permette di selezionare antibiotici selettivi per una determinata
patologia batteriologica evitando l'uso di antibiotici ad ampio raggio, che hanno
66
un'azione di "tabula rasa" su tutta la flora batterica, anche su quella utile all'organismo
umano.
Le prove di sensibilità in vitro vengono oggi eseguite quasi esclusivamente con metodi
automatici.
L'introduzione di sistemi automatici o semi-automatici ha come scopo il raggiungimento
di un maggior grado di efficienza (rapidità delle risposte), ma anche di una maggiore
conformità dei risultati in quanto vengono standardizzati automaticamente dei
procedimenti che nelle metodiche manuali subiscono spesso una valutazione
soggettiva come la standardizzazione dell'inoculo e la lettura dei risultati.
I sistemi automatizzati attualmente esistenti sono basati sul rilievo strumentale della
torbidità di un terreno liquido, contenente un dato antibiotico, nel quale è stato coltivato
il microrganismo in esame.
La lettura viene eseguita per confronto con lo stesso terreno liquido seminato e non
contenente antibiotico ed i risultati espressi in termini di "sensibile", "moderatamente
sensibile", "resistente".
Con qualche sistema è possibile anche fare una determinazione quantitativa della
sensibilità (MIC) ma limitata tuttavia a pochi antibiotici.
I sistemi automatizzati disponibili allo stato attuale consentono in misura diversa
l'eliminazione di alcuni procedimenti manuali portando così ad una maggiore uniformità
dei risultati.
Un problema legato all'utilizzo di sistemi automatici è dato della possibile alterazione
delle vaschette di esame.
Per questo esiste il marker costituito da una vaschetta con solo brodo di coltura per
verificare se lo sviluppo dei batteri avviene regolarmente.
Possono esserci più markers, ad esempio uno con un antibiotico a vastissimo spettro
(spesso si usa un antibiotico labile): se questo reagisce vuol dire che la misura è giusta
ed il sistema funziona.
4.4.2 I miceti
I miceti sono organismi primitivi superiori caratterizzati da una struttura cellulare
eucariotica, costituita cioè da un nucleo provvisto di membrana e un citoplasma
organizzato come quello delle cellule animali; essi posseggono una parete cellulare
67
rigida strutturalmente più semplice di quella dei batteri. Per questi caratteri si
distinguono da batteri la cui cellula è procariotica.
Dal punto di vista metabolico i funghi sono chemiosintetici, ricavano cioè energia
dall'ossidazione di composti chimici vari e sono privi di clorofilla e di altri pigmenti
capaci di utilizzare l'energia solare.
Sono inoltre eterotrofi in quanto necessitano di composti organici del carbonio che non
sono in grado di sintetizzare; sono generalmente aerobi o anaerobi.
I funghi possono essere distinti in endogeni ed esogeni; i primi vivono allo stato
saprofitario nell'organismo ospite ed acquistano potere patogeno in particolari
condizioni, i secondi vivono liberamente in natura ed infettano l'uomo per mezzo delle
loro spore che penetrano nell'organismo o attraverso la cute o attraverso le vie
respiratorie.
I funghi possono determinare malattie assai diverse dette micosi. Le micosi vengono
generalmente distinte in quattro gruppi a seconda del tipo di tessuti infettati: micosi
superficiali, micosi cutanee, micosi sottocutanee e micosi profonde o sistemiche (in
organi interni come polmoni, fegato, milza e reni). Queste ultime infezioni possono
essere asintomatiche ed evidenziabili solo per mezzo di test immunologici e con esami
radiologici.
La ricerca e l'identificazione dei diversi miceti patogeni viene eseguita essenzialmente
con l'esame microscopico del materiale infettato o con un esame colturale.
4.4.3 Parassiti
La parassitologia si occupa essenzialmente della diagnostica delle malattie provocate
dai protozoi patogeni e degli elminti o vermi. Entrambi parassiti dell'organismo
umano anche se molto diversi fra loro.
La localizzazione delle varie forme parassitarie è diversa prediligendo alcune l'intestino,
altre il fegato o l'apparato polmonare, la vescica, i genitali, i muscoli, il sistema linfatico,
il sistema venoso, ecc. Anche le vie attraverso cui gli elminti infestano l'uomo sono
diverse, potendo la loro penetrazione avvenire o per via orale o per via cutanea o,
raramente, per via aerea.
68
In rapporto alla localizzazione sono svariate anche le modalità di eliminazione (rettale,
urinaria, aerea, cutanea); generalmente gli elminti fuoriescono dall'organismo o sotto
forma di larve o di uova.
La possibilità di diagnosticare una parassitosi è in gran parte affidata all'indagine di
laboratorio o mediante il riscontro diretto del parassita o mediante il riconoscimento
microscopico delle uova.
4.4.4 Virus
I virus sono le entità viventi più semplici conosciute prive di vita propria, sono parassiti
endocellulari obbligati e come tali possono moltiplicarsi solo come parassiti delle cellule,
usufruendo dei sistemi enzimatici di queste. I rapporti che si stabiliscono tra virus e la
cellula parassitaria sono vari, ma, nei casi interessanti la patologia infettiva, si
concludono con la distruzione della cellula; a questo livello di organismi pluricellulari
(animali o piante), si traduce abitualmente in una malattia e talvolta nella morte.
La malattia virale è una malattia infettiva, conseguenza di un'associazione parassitaria
fra due forme viventi, che può provocare nel parassitato un danno evidente, la malattia
clinicamente conclamata, o può non dare un danno evidente, infezione subclinica senza
malattia.
L'impossibilità per un virus di sopravvivere, se non in casi eccezionali, nell'ambiente, fa
sì che il persistere delle malattie virali dipenda da un'interrotta serie di associazioni
parassitarie, cioè di individui infetti che trasmettono i virus ad altri individui, con
presenza o meno di manifestazioni cliniche.
I criteri convenzionali per la diagnosi di malattia virale si basano sull'isolamento e
identificazione di un virus da uno o più campioni clinici selezionati (con l'impiego di
metodiche diverse fra le quali prevale l'immunofluorescenza) e sulla determinazione del
titolo anticorpale specifico nei confronti del virus isolato in una coppia di sieri prelevati in
fase acuta e convalescente di malattia. Tali due ordini di indagini devono essere
eseguiti in parallelo e solo dalla valutazione critica dei risultati ottenuti con l'isolamento
e le indagini sierologiche si può trarre una conclusione diagnostica affidabile.
La diagnosi sierologica a determinazione degli anticorpi nel siero ha lo scopo di
diagnosticare l'avvenuta infezione di un organismo ad opera di un agente virale. Tale
diagnosi si basa sull'utilizzo di materiali che diverse fra le quali prevalgono metodi ad
69
immunofluorescenza,
i
metodi
immunoenzimatici
(ELISA)
ed
i
metodi
radio
immunologici (RIA).
Negli ultimi anni nei laboratori di virologia vengono sempre più utilizzate sonde costituite
da acidi nucleici (da impiegarsi in metodiche di ibridazione) che permettono la diagnosi
delle patologie infettive.
L'impiego di tali sonde è di estrema importanza soprattutto in quei casi di infezione
virale in cui il virus non è coltivabile, quando non sono disponibili reagenti immunologici
specifici, quando è necessario identificare specificamente le cellule in cui sia presente il
virus, o l'acido nucleico virale. Le sonde genetiche impiegate in diagnostica virologica
sono costituite da sequenze di acidi nucleici complementari a quelle ricercate.
70
4.5
citologia e istologia
La citologia, che studia la morfologia e la funzione cellulare, può essere distinta in una
citologia normale che esamina gli elementi cellulari in assenza di malattia ed in una
citologia patologica che indaga la struttura cellulare nel caso delle diverse affezioni
morbose dell'organismo. Uno degli scopi principali della citopatologia che consente di
formulare una diagnosi di malattia attraverso lo studio delle modificazioni patologiche
della cellula.
La citodiagnostica copre un ambito di aspetti della patologia clinica che spazia dai
programmi di prevenzione alla diagnosi diretta di lesioni tumorali e non tumorali
(processi infiammatori, degenerativi, malformativi, ecc.). Vengono svolte indagini per
l'identificazione dei precursori dei carcinomi del collo e del corpo dell'utero, del polmone
e delle vie urinarie, in soggetti apparentemente sani, appartenenti a categorie a rischio.
Inoltre l'esame citologico può consentire la diagnosi della patologia tumorale (benigna e
maligna) e non-tumorale.
Lo studio citologico si effettua su elementi cellulari che si sono distaccati dalla cute o
dalle mucose, spontaneamente o a seguito di leggeri traumi meccanici (citologia
esfoliativa), oppure su elementi prelevati da organi o tessuti aggredibili dall'esterno con
mezzi strumentali (citologia non esfoliativa).
La diagnostica citologica deve talora essere integrata da una successiva indagine
morfologica dei tessuti interessati detta indagine istologica.
Gli esami istologici hanno una applicazione soprattutto intraoperatoria, in particolare
quando viene effettuato un intervento demolitivo sul tumore.
4.5.1 Cellula e tessuto
Le cellule sono le unità fondamentali che compongono, insieme ai loro prodotti, i tessuti
dell'organismo. Esse variano per forma, dimensioni, funzione e sono costituite
essenzialmente da 3 componenti fondamentali, il nucleo, il citoplasma e la membrana
cellulare.
Lo studio delle modificazioni patologiche della cellula e le successive indagini
istologiche si avvalgono soprattutto dell'uso del microscopio come mezzo strumentale.
Accanto al microscopio ottico (M.O.), indispensabile e di uso quotidiano, si ha la
disponibilità del microscopio elettronico (M.E.) utile per lo studio ultrastrutturale delle
71
cellule. Indagini particolari richiedono l'uso del microscopio a contrasto di fase, a
fluorescenza, a luce ultravioletta, a luce polarizzata ed interferenziale.
L'attendibilità della diagnosi citologica (ed istologica) dipende in modo preponderante
dalle tecniche preparative.
Questa è la fase nella quale può essere raggiunta una certa automazione.
Il materiale per l'esame citologico può essere un fluido che viene inviato al laboratorio
come tale oppure materiale strisciato sui vetrini dal medico che ha effettuato il prelievo.
Questi campioni devono subire una serie di trattamenti (in particolare l'inclusione in
paraffina e la colorazione) per i quali sono necessari tempi lunghissimi (ore).
Esistono
strumentazioni
in
grado
di
effettuare
le
diverse
fasi
preparative
automaticamente, evitando in tal modo tutte le operazioni manuali con notevole
risparmio di tempo.
Infine per gli esami istologici intraoperatori sono state messe a punto tecniche
preparatorie molto rapide che permettono una lettura grossolana che indica solo la
tipologia del tumore, indicazione necessaria per decidere se asportare la parte
interessata o no.
4.5.2 Citogenetica
La citogenetica studia le basi morfologiche della genetica, in particolare il numero e la
morfologia dei cromosomi (mappe cromosomiche).
Le anomalie cromosomiche possono essere sia congenite che acquisite, e queste
ultime possono risalire al danno da radiazioni ionizzanti e da numerose sostanze
chimiche, nonché‚ da agenti biologici quali i virus.
Un campo di applicazione particolarmente utile è quello delle neoplasie, soprattutto
quelle del sistema emopoietico.
In questi casi la ricerca citogenetica non serve solo per la diagnosi, ma è utilizzata
anche per il monitoraggio della terapia. Un altro campo applicativo importante è lo
studio della cromatina sessuale formata da un cromosoma X fortemente spiralizzato ed
addensato.
72
5 AUTOMAZIONE
5.1
Realizzazzione degli strumenti di prelievo liquidi
Nell'ambito del prelievo di sostanze liquide (campioni e reattivi in fotometria) si possono
usare diverse soluzioni:
•
Pipette graduate: questa soluzione prevede l'impiego di pipette (per lo più di vetro)
con camera di pressione di gomma, come nella figura sottostante.
Premendo la camera di compressione con le dita si crea una despressione che fa
penetrare il liquido in cui è immersa la punta del corpo di vetro della pipetta.
In genere se ne preleva una quantità eccessiva e il rimanente lo si espelle tramite
opportuna pressione della camera di compressione.
•
Siringhe manuali a pistone: il principio è quello delle comuni siringhe per iniezione,
cioè vi è un cilindro situato in una cavità cilindrica in cui vi si muove, come nello
schema sottostante.
73
Le siringhe manuali a pistone si usano in maniera simile alle pipette ma invece di agire
su una camera di compressione si muove manualmente il cilindro interno in maniera da
aspirare la giusta quantità di liquido espellendo eventualmente l'eccesso.
•
Siringhe automatiche a pistone: il principio è molto simile a quello delle siringhe a
pistone manuali, ma in più hanno un meccanismo che permette di prelevare quantità
sempre uguali di liquido ad ogni prelievo (avendo un meccanismo di blocco
automatico) secondo lo schema mostrato qui sotto.
Facendo scorrere la cremagliera tramite pressione, il cilindro interno si alza e comincia
ad aspirare il liquido fino a che la cremagliera giunge al blocco di fine corsa
(preventivamente posizionato a seconda della quantità di liquido da aspirare).
•
Siringhe motorizzate: questo genere di siringhe è in pratica una semplice siringa a
pistone ma invece che manualmente il cilindro interno viene fatto muovere da un
74
motore tramite una vite, come nello schema successivo (quindi adatto per sistemi
automatici di prelievo).
•
Materiale ad assorbimento: per prelevare campioni in maniera precisa si può anche
non usare sistemi meccanici in movimento ma sfruttare il principio dell'assorbimento
dei materiali.
Per prelevare una quantità precisa di liquido basta studiare la caratteristica di
assorbimento di un certo materiale in maniera che sia nota la quantità di liquido che
viene assorbita ad ogni prelievo.
La forma del materiale assorbente può essere della più disparata in base alle
esigenze, quindi può essere a forma aghiforme, a piastrina, …
75
Nel seguito un esempio di materiale assorbente aghiforme (in cui il materiale
prelevato rimane aderente anche grazie alla tensione superficiale del liquido stesso).
•
A volte per particolari esigenze (prelievo contemporaneo di più campioni,
nell'elettroforesi per esempio) si ha un pettine di materiali aghiformi come
nell'immagine seguente.
5.2
Tecnica SMA per automatizzazione fotometria (multianalizzatore seriale)
L'elevato numero di esami da effettuare, come ad esmpio nei sistemi di misura basati
sulla fotometria, e la ripetitività della tipologia di alcuni esami hanno portato a studiare
sistemi di automazione.
Il primo sistema completo per l'analisi fotometrica automatizzata è stato quello utilizzato
nelle apparecchiature SMA.
76
Il sistema creato era un sistema di analisi di un flusso continuo di campioni che
permetteva di fare un elevato numero di esami in maniera veloce; presentava tuttavia
un problema: era poco flessibile, permettendo solo di fare quel numero preciso di esami
per cui era stata progettata la macchina, anche se non tutti erano necessari per i
campioni inseriti nel ciclo, ed era perciò detto “a profilo fisso”.
Il flusso continuo sfrutta un sistema idraulico di tubazioni appositamente calibrate in
lunghezza e sezione.
L'idea è quella di fare passare campioni di più pazienti attraverso lo stesso tubo, in
maniera sequenziale, tenendoli separati uno dall'altro attraverso l'utilizzo di bolle d'aria
interposte tra un campione e l'altro, come nella figura seguente.
Se il sistema fosse ideale ogni campione dovrebbe viaggiare ad una velocità costante e
non contaminare la superficie del tubo, lasciando cioè la superficie interna del tubo
pulita al passaggio del campione stesso.
Il campione in realtà contamina la superficie del tubo e per questo è necessario inserire
tra un campione e l'altro un liquido detergente, come nella figura sottostante.
Il sistema per inserire bolle d'aria tra campioni è raffigurato nello schema seguente.
77
Il funzionamento del sistema di inserimento di bolle d'aria è il seguente:
•
Si accende la pompa che comincia ad aspirare il liquido contenuto nella cuvetta
•
Il liquido entra nel tubo fino a superare il giunto a T per un certo tratto (a seconda
della quantità di campione da prelevare) e la pompa si ferma.
•
In corrispondenza dello spegimento della pompa si apre la valvola e l'aria per
depressione entra tramite il giunto a T e continua ad entrare per tutto il tempo che
la valvola è aperta (entro un certo range).
•
La valvola si chiude e l'aria non può più entrare e la pompa quindi riparte
facendo scorrere il campione prelevato e prelevando dalla cuvetta il materiale per
il secondo campione.
Il ciclo può essere ripetuto e quindi si possono ottenere così tanti campioni quanti ne
necessitano.
L'ago di prelievo è di tipo usa e getta, in quanto viene cambiato ogni volta che si cambia
il contenuto della cuvetta.
L'asse di sincronismo serve a sincronizzare l'apertura della valvola con lo spegimento
della pompa.
La pompa usata è una pompa peristaltica, utile in tutti i casi in cui non voglio contatto
con il contenuto del tubo e capace di garantire un flusso costante grazie alla possibilità
offerta dai moderni motori di garantire una velocità di rotazione costante del rotore.
NB: flusso = cost. • sezione • velocità angolare (ω).
78
Se ipotizziamo poi un sistema di sincronismo con la valvola che usa un solo motore,
abbiamo allora lo schema rappresentato nella figura seguente.
La pompa peristaltica imita il funzionamento del tubo digerente.
Il movimento peristaltico del tubo digerente permette, tramite un'onda di contrazione
anulare, preceduta da un'onda di dilatazione, di espellere il contenuto alimentare del
tubo stesso.
Il vantaggio di una pompa peristaltica rispetto ad una normale è quello di non
contaminare la pompa stessa con il liquido pompato, in quanto il liquido rimane
all'interno del tubo.
In genere in una apparecchiatura SMA vi è un solo motore e più pompe e valvole unite
da un asse di sincronismo che ne sincronizza il funzionamento.
Tramite giunti a T è possibile anche miscelare reattivo e campioni del paziente come
mostrato nella figura seguente.
79
Per sincronizzare reattivo e campioni la macchina necessita di una messa a punto,
effettuata con il taglio dei tubi di trasporto (i tubi di trasporto sono realizzati in gomma e
quindi possono essere facilmente tagliati). È importante sottolineare che il campione ed
il reattivo devono rispettare questo sincronismo per giungere contemporaneamente al
giunto a T dove si mescolano; tale sincronismo si garantisce, come detto, agendo sulla
lunghezza deel tubo: se il reattivo arrivasse in ritardo allora basterebbe accorciare il
tubo di quanto necessita (in genere si lavora per approssimazioni successive).
Dopo che il campione ed il reattivo sono stati miscelati è necessario aspettare un po’ di
tempo affinché avvenga la reazione e quindi il ritardo si effettua facendo scorrere la
soluzione in un tubo molto lungo (abbastanza per fare avvenire la reazione). È da
notare che il rimescolamento fra campione e reattivo è assicurato anche dal fatto che il
bolo si muove rotolando all’interno del tubo, e ciò è giustificato dalla prevalenza
dell’attrito radente sull’attrito volvente.
In genere il tubo di ritardo, dovendo essere molto lungo, per occupare meno spazio
viene arrotolato.
Va sottolineato che tutte queste operazioni di messa a punto rendono la macchina poco
flessibile.
80
La soluzione di reattivo e del campione una volta che la reazione è avvenuta, per
essere analizzata con la fotometria passa attraverso una cella a flusso, come qui di
seguito.
Il rivelatore inizialmente utilizzato era cosìddetto “di tipo XY”, a trascinamento di carta
(anni ’70).
Le apparecchiature SMA si distinguevano da un numero che le accompagnava e che
identificava il numero di esami per cui la macchina era stata progettata, così ad
esempio SMA3 eseguiva tre esami, SMA6 eseguiva 6 esami, etc.
5.3
Realizzazzione di fotometria a profilo variabile
Il problema delle macchine SMA è quello che il numero di esami da fare e il tipo è già
predeterminato e non è possibile farne in numero e una tipologia diversa, quindi le
macchine SMA si presentano come macchine a profilo fisso.
Il profilo fisso porta a fare esami spesso inutili e ridondanti, per cui si è cercato di
trovare soluzioni al problema cercando di potere fare solo gli esami necessari.
La prima soluzione al problema del profilo fisso è stata di tipo organizzativo, senza
introdurre sostanziali modifiche alle macchine di analisi SMA.
La soluzione prevede di usare macchine che effettuassero 1 o 2 analisi (macchine
monocanale o bicanale).
81
L'organizzazzione era tale da individuare delle linee analitiche, cioè di raggruppare
provette di pazienti diversi per tipo di esame, in maniera che in ogni linea fossero
presenti le provette di tutti quei pazienti per cui era necessario effettuare l'esame
associato alla linea, come nell'esempio successivo.
ESEMPIO: si suppone di avere 2 pazienti (A e B) e 3 possibili esami (azotemia,
bilirubina, glicemia), quindi 3 linee guida e 3 raccoglitori con più provette , uno per ogni
esame. Si suppone inoltre che i due pazienti debbano fare i seguenti esami:
paziente A: azotemia, glicemia
paziente B: azotemia, bilirubina
Si avranno le provette dei due pazienti disposte nelle linee guida come in figura.
In genere ogni linea guida era identificata da un colore (rosso, bianco,…) e le provette
da mettere in ciascuna linea guida erano del corrispondente colore, in maniera da
evitare il più possibile errori di associazione. La soluzione di tipo organizzativo
prevedeva personale specializzato, tecnici di laboratorio esperti e gli errori effettuati
nello scambiare provette di persone diverse non era raro.
Le macchine per analisi monocanale usate avevano uno schema come quello
dell'immagine seguente.
82
Dallo schema si possono notare i seguenti componenti:
Siringa reattivo: è una siringa a pistone mosso da motore e serve ad aspirare il reattivo
Siringa campione: è sempre una siringa a pistone motorizzata ma di sezione ridotta
rispetto la siringa del reattivo, visto che la quantità di campione da aspirare è molto
minore della quantità del reattivo
Cella di flusso: qui usata non nella fase di misura, ma per questioni di contaminazione e
di risciacquo delle tubature
83
Disco di selezione: permette alle siringhe di potere essere collegate, a seconda della
posizione assunta dal disco (1,2,3) alla provetta del campione, al reattivo o alla cuvetta
di misura
Provetta campione
Contenitore reattivo
Cuvetta di misura
Lo schema presentato è si capace di effettuare solo gli esami voluti, in quanto una
apparecchiatura effettua un solo esame alla volta, ma così necessitano di una
apparecchiatura per ogni esame, problema risolto con i sistemi seriali attuali.
I sistemi seriali attuali sono sistemi che combinano il vantaggio di potere fare solo esami
richiesti e di potere fare più tipi di esami in una sola apparecchiatura.
Lo schema realizzativo di un sistema seriale attuale è quello raffigurato nella figura
seguente.
84
I componenti del sistema automatizzato sono i seguenti:
Disco porta siringhe: è il disco che ruotando nelle posizioni 1 o 2 o 3 porta la testa
portasiringhe rispettivamente sopra il disco porta-reattivo, sopra il disco porta-campioni
o sopra il disco porta-cuvette
Disco porta reattivo: è il disco che porta i vari tipi di reattivi necessari a fare tutti i tipi di
misura necessari
Disco porta-campioni: è il disco che porta i campioni da misurare e permette per
esempio per una stessa misura di analizzare più pazienti
Disco porta cuvette: è un disco che porta delle cuvette di misura vuote che vengono
riempite con soluzione di reattivo e campione, quindi ogni cuvetta viene usata per una
sola misura alla volta in quanto non vengono sciacquate
Monocromatore: rappresentato da un disco che porta dei filtri selezionabili a seconda
della misura da fare
Sorgente: è la sorgente del sistema fotometrico di misura
Testa porta siringhe: è una testa che porta un sistema di siringhe che hanno il compito
di prelevare e miscelare i reattivi e i campioni
Il problema che si pone è che nella metodica esposta precedentemente il tempo di
esecuzione di ciascuna misura veniva fissato dalla misura che durava di più e quindi in
tutte quelle misure che duravano di meno bisognava aspettare un tempo morto.
Soluzioni migliorative furono raggiunte quando si decise di rendere ciascun piatto
indipendente
dall'altro
usano
un
motore
per
ciascun
piatto
(al
contrario
precedentemente si usava un solo motore per tutti), permettendo quindi di non
aspettare più un giro completo del disco del reattivo prima di riavere il reattivo
desiderato (cominciando così una misura subito alla fine della precedente).
Sistemi di automatizzazzione diversi sono stati studiati per risolvere principalmente due
tipi di problemi:
•
Il problema che una volta finiti gli esami bisognava asportare il piatto e ricaricarlo
con nuove provette
•
Le cuvette di misura erano da lavare alla fine delle misure sul disco (risolto con
disco portaprovette con provette incorporate e monouso)
Per non avere tempi morti viene studiato un sistema di automatizzazzione parallelo.
85
Il sistema parallelo presenta più sezioni dello stesso tipo (solo con reagenti e
impostazioni dei monocromatori diverse a seconda del tipo di esame da effettuare).
Il tipico schema di una singola sezione è il seguente.
I componenti dello schema sono i seguenti:
Nastro trasportatore campioni: è un nastro che permette di fare scorrere le provette con
i campioni e tramite fori antistanti le provette stesse di fare arrivare la soluzione reattivo
e campione nelle cuvette di misura sottostanti
Nastro trasportatore cuvette: trasporta cuvette di misura vuote che vengono riempite
con la soluzione cuvette e campione
Diluitore: permette tramite aspirazione dei campioni e apertura della valvola del reattivo
di miscelare reattivo e campione stesso e di immetterlo, tramite i fori del nastro
trasportatore dei campioni, nelle cuvette di misura del nastro sottostante
Sorgente, monocromatore, rivelatore, amplificatore: componenti del sistema di misura
fotometrico
Lo schema presentato permette la misura di un solo tipo di esame, ma più schemi
ripetuti messi in una unica apparecchiatura permettono di avere un'apparecchiatura in
grado di eseguire più tipi di esami, uno per ogni schema.
86
Scarica