Articoli - Associazione Italiana di Radioprotezione

advertisement
2012
Anno XXXIX | volume 171 | numero 3,4 | agosto 2012 |ISSN 1591-3481 | e-ISSN 2281-180X
bollettino
IRPA
Associazione Italiana
di Radioprotezione
IRPA
Anno XXXIX Volume 171
n. 3, 4 - agosto 2012
Associazione Italiana
di Radioprotezione
ISSN 1591-3481 | e-ISSN 2281-180X
Associazione Italiana
di Radioprotezione
AIRP
Editoriale
affiliata alla
International Radiation Protection
Association (IRPA)
Sovrapposizione delle tracce nei dosimetri a tracce nucleari:
caratterizzazione della risposta ad elevate concentrazioni di Radon
D. Franci, F. Cardellini, T. Aureli....................................................................................... 7
Consiglio Direttivo 2010 | 2012
Sandro Sandri, Presidente
Marie Claire Cantone, Vicepresidente
Mauro Magnoni, Segretario
Claudia Fontana, Tesoriere
Daniele Giuffrida
Sabrina Romani
Rosabianca Trevisi
2012
Direttore responsabile
Marie Claire Cantone
bollettino
Comitato di redazione
Daniela de Bartolo
Francesco Mancini
G. d’Amore e M. Magnoni ............................................................................................... 3
Radiazioni Ionizzanti | Articoli
Aspetti tecnici e metodologici nella bonifica dal radon
nelle strutture scolastiche della provincia di Lecce
A. P. Caricato, M. Fernández, F. Leonardi, S. Tonnarini,
R. Trevisi, T. Tunno, M. Veschetti, G. Zannoni ............................................................... 13
L’influenza di un disegno campionario preferenziale
sulle statistiche aggregate per aree territoriali:
il caso delle campagne di misura della concentrazione
di radon indoor in Lombardia
R. Borgoni, D. de Bartolo............................................................................................... 21
Sistemi informativi territoriali: studio dei parametri correlati
alla distribuzione di radon indoor in Friuli Venezia Giulia
C. Giovani, M. Garavaglia, S. Pividore, F. Cucchi, L. Zini .............................................. 29
Aspetti di radioprotezione nell’ambito delle gammagrafie industriali
C. Giovani C., M. Garavaglia, P. Di Marco, L. Piccini .................................................... 37
Misure di 90Sr per effetto Cerenkov impiegando un rivelatore
a scintillazione liquida: possibile utilizzo in caso di emergenza nucleare
M.C. Losana, G. Garbarino, M. Magnoni ....................................................................... 43
Misura dell’attività alfa-beta totale nelle acque mediante LSC:
influenza dello spillover e ottimizzazione dei parametri sperimentali
M. Forte, R. Rusconi, P. Badalamenti., S. Costantino, D. Lunesu ................................. 51
Tipografia
Pixart Printing
Accumulo di radionuclidi naturali ed artificiali in formazioni crioconitiche
di alcuni ghiacciai delle Alpi Occidentali
M. Faure Ragani, C. Operti, G. Agnesod, S. Bertino,
G. Garbarino, M. Magnoni, M. Ghione .......................................................................... 59
Progetto grafico
MV Comunicazione, Milano
Modello per la stima delle concentrazioni alfa totale e beta totale
nel particolato atmosferico in situazioni di emergenza
L. Albertone, L. Porzio .................................................................................................... 65
Per informazioni
e corrispondenza
T 02 50317212
F 02 50317630
Radiazioni Non Ionizzanti | Articoli
Registrazione del Tribunale di Milano
n. 228 del 10 aprile 2008
Distribuzione gratuita ai soci AIRP
Tutti i soci dell’AIRP sono vivamente invitati a contribuire al Bollettino inviando
articoli, commenti, recensioni, notizie e
informazioni su argomenti di specifico
interesse per la radioprotezione. I contributi dovranno essere firmati dall’autore o dagli autori. Gli articoli pubblicati
riflettono esclusivamente le opinioni
degli autori.
Strumenti e metodi a baso costo per monitoraggio selettivo
dell’esposizione umana a segnali Wi-Fi
A. Rodríguez de la Concepción, D Renga, R. Stefanelli, D. Trinchero .......................... 75
Misure di campo elettrico da stazioni radio base UMTS
e analisi della relazione con la potenza in antenna
M. Mathiou, V. Bottura, M. Cappio Borlino, D. Vaccarono, S. D’Elia, S. Adda ............... 81
Stima del rischio di superamento del valore di attenzione sulla base
di misure spot di campo magnetico generato da linee ad alta tensione
S. Adda, E. Caputo, L. Anglesio, G. d’Amore, ............................................................... 91
In copertina | Copertine storiche del Bollettino A.I.F.S.P.R. del 1974.
Monitoraggio nel dominio dei codici di celle UMTS/HSPA
e misura del parametro ρCA
A. Barellini, G. Licitra, A. Pinzauti, A. M. Silvi .................................................................. 97
Modelli semplificati per la dosimetria elettromagnetica in regime quasi-stazionario
Bottauscio O., Chiampi M., Zilberti L. .......................................................................... 103
Il fattore di rischio ambientale da radiazione solare UV-A
B. H. Petkov, C. Lanconelli, V. Vitale, C. Tomasi,
E. Gadaleta, M. Mazzola, A. Lupi, M. Busetto .............................................................. 111
Esposizione occupazionale a campi magnetici con forma d’onda complessa: tre casi
studio in ambito industriale e sanitario
N. Zoppetti, D. Andreuccetti, A. Bogi, I. Pinto ............................................................. 119
Intervento di mitigazione su una linea a 132 kV
nella città di Pisa e riduzione dell’esposizione della popolazione
N. Colonna, G. Licitra .................................................................................................. 127
Metodi e procedure per l’analisi di emissioni elettromagnetiche
generate da impianti HVDC
M. Borsero, O. Bottauscio, M. Chiampi, G. Crotti, L. Zilberti ....................................... 135
Metodi di indagine per studi epidemiologici di coorte
di popolazioni esposte a livelli elevati di campo magnetico a 50 Hz
L. Fazzo, A. Polichetti, P. Comba................................................................................. 143
Circuito d’Interconfronto ISPRA IC015
Misure selettive di campi elettromagnetici ad alta frequenza:
Analisi dei fattori d’influenza attraverso l’elaborazione statistica dei risultati
L. Ardoino, E. Barbieri, S. Barbizzi, L. Anglesio, G. d’Amore, A.M. Silvi ....................... 149
Misure mediante dosimetria a polisolfone per la quantificazione dell’esposizione
individuale alla radiazione solare ultravioletta
G. R. Casale, A. M. Siani, S. Modesti, H. Diémoz, G. Agnesod, A. Colosimo ............. 157
Risultati della prima campagna di interconfronto italiana
di strumentazione per la misura della radiazione ultravioletta solare
H. Diémoz, A. M. Siani, G. R. Casale, A. di Sarra,
B. Serpillo, B. Petkov, S. Scaglione, A. Bonino,
S. Facta, F. Fedele, D. Grifoni, L. Verdi, G. Zipoli ........................................................ 165
Caratterizzazione di radiometri ultravioletti solari a banda larga
presso il Laboratorio di Ottica dell’ARPA Piemonte
e interconfronto con altri laboratori europei
S. Facta, S. Saudino Fusette, A. Bonino, H. Diemoz,
M. Vaccarono, L. Anglesio, G. d’Amore, J. Gröbner.................................................... 171
Dosimetria numerica a bassa frequenza:
risultati preliminari di un interconfronto tra diversi software
R. Falsaperla, D. Andreuccetti, L. Ardoino, E. Barbieri,
G.M. Contessa, R. Pinto, A. Polichetti, N. Zoppetti...................................................... 179
Editoriale
Questo numero del Bollettino AIRP è completamente dedicato al V° Convegno Nazionale sul Controllo
Ambientale degli Agenti Fisici, organizzato da Arpa Piemonte, assieme ad AIRP, che si è tenuto a Novara nei
giorni 6, 7 e 8 giugno 2012.
Si tratta di un evento, giunto ormai alla sua V edizione, che periodicamente coinvolge la comunità scientifica
nazionale che si occupa del monitoraggio e dello studio degli agenti fisici in campo ambientale. In occasione
di questi Convegni, esperti che lavorano nelle ARPA (Agenzie Regionali per la Protezione dell’Ambiente), nelle
Università e negli Enti di controllo e ricerca nazionali (ISPRA, ENEA, ISS, INAIL, CNR, ecc.) trovano l’occasione
per un incontro informale dove dibattere liberamente, al di fuori dei rispettivi ruoli, assieme agli aspetti più
strettamente scientifici, anche le non meno importanti questioni pratiche di applicazione e interpretazione delle
norme di legge.
Per Arpa Piemonte che ha “lanciato”, nell’ormai lontano 2001, la prima edizione di questa serie di Convegni, è
motivo di profonda soddisfazione aver trovato un partner come AIRP che ha creduto nella validità della proposta
scientifica e si è quindi resa disponibile a condividere l’impegno organizzativo e anche, diciamolo pure, il
rischio economico, sempre presente, soprattutto di questi tempi, quando si organizzano eventi di questo tipo.
Per fortuna, tutto è andato per il verso giusto. Il successo dell’iniziativa sul piano numerico è stato notevole, con
il raggiungimento di più di 200 iscrizioni, e anche l’aspetto scientifico non ha deluso le aspettative.
Siamo quindi molto soddisfatti che AIRP abbia voluto ulteriormente valorizzare questa esperienza accettando
di ospitare nel proprio Bollettino una selezione dei lavori presentati a Novara.
I lavori scelti sono stati selezionati non solo sulla base dell’interesse e della rilevanza scientifica e innovativa dei
contenuti, ma ovviamente anche per la loro aderenza agli scopi di una rivista, quale il Bollettino AIRP, che tratta
tematiche inerenti la protezione dalle radiazioni. La valutazione è stata pertanto ristretta al solo sottoinsieme dei
lavori presentati al Convegno che riguarda le radiazioni ionizzanti e non ionizzanti. Per questi temi si sono inoltre
privilegiati i contributi più orientati al mondo del sistema delle Agenzie per l’Ambiente al quale, in via principale,
si rivolge il Convegno. Quest’ultimo criterio di scelta si palesa in modo evidente osservando il maggior peso
che, in questa pubblicazione, hanno le radiazioni non ionizzanti rispetto alle radiazioni ionizzanti che, per ovvi
motivi, tradizionalmente sono di solito al primo posto in gran parte delle iniziative AIRP.
Come sempre in questi casi, la scelta degli articoli non è stata agevole e lo spazio limitato ha purtroppo
imposto l’esclusione di molti lavori di sicuro interesse. Crediamo tuttavia che in questa pubblicazione siano
rappresentate in modo efficace una buona parte delle più importanti attività di sviluppo e ricerca realizzate in
campo nazionale sui metodi di misura e sui modelli di simulazione finalizzati alla protezione ambientale da
radiazioni.
I temi trattati spaziano su un’area di interesse molto vasta. Si va dalle problematiche della misura e della
mappatura del radon sul territorio, ai metodi di misura della radioattività ambientale in situazione di emergenza,
alle tecniche di analisi dei segnali digitali utilizzati nelle telecomunicazioni, alla valutazione degli effetti indotti
da elettrodotti e dalla componente ultravioletta della radiazione solare. Crediano che tutti questi temi, oggetto
degli studi presentati a Novara, possano essere di sicuro stimolo e interesse per tutti i soci AIRP e per tutti i
tecnici e gli esperti che lavorano nel vasto campo della radioprotezione.
Giovanni d’Amore e Mauro Magnoni
3
Radiazioni
Ionizzanti
Articoli
Sovrapposizione delle tracce nei dosimetri a tracce nucleari:
caratterizzazione della risposta ad elevate concentrazioni di Radon
Daniele Franci (1), Francesco Cardellini (2), Tommaso Aureli (1)
ARPA Lazio Sezione Provinciale di Roma, Via G. Saredo 52, 00173 Roma, [email protected]
ENEA C.R. Casaccia, Via Anguillarese 301, 00123 S. Maria di Galeria (RM), [email protected]
casaccia.enea.it
(1)
(2)
INTRODUZIONE
La tecnica di misura passiva dei livelli di Radon mediante rivelatori a tracce nucleari (Khan, 1983) è la
più utilizzata per il monitoraggio di locali indoor. I costi contenuti, la semplicità di installazione e il minimo
ingombro dei rivelatori sono le caratteristiche che hanno contribuito ad elevare tale tecnica al livello di
standard internazionale per misure integrate nel tempo. A fronte di tanti vantaggi, tuttavia, i rivelatori a
tracce nucleari presentano anche diverse limitazioni che possono inficiare l’accuratezza dei risultati ottenuti.
Lo svantaggio principale è rappresentato dalla non linearità della risposta dei rivelatori ad elevati valori di
esposizione al Radon (Guedes, 1998). All’aumentare dell’esposizione, infatti, si osserva una progressiva
sovrapposizione delle tracce prodotte dalle particelle alfa. Al fine di evitare sottostime accidentali del livello
di Radon misurato è quindi necessaria una accurata caratterizzazione della risposta dei rivelatori nelle
diverse condizioni operative di utilizzo.
Lo studio effettuato mira alla determinazione della risposta dei rivelatori a tracce nucleari di tipo CR-39 a
diversi valori di esposizione. La comprensione e correzione dell’effetto della sovrapposizione delle tracce
è fondamentale in quanto il fenomeno si manifesta in molte situazioni di tipo pratico. A titolo di esempio
si consideri che una misura di 6 mesi in un ambiente con concentrazione media di Radon pari al livello di
azione imposto dal D.L. 241/2000 (500 Bq/m3) produce un’esposizione di oltre 2000 kBqh/m3, valore per
cui gli effetti di sovrapposizione possono portare a una sottostima del risultato di oltre il 10%.
A partire da considerazioni di tipo teorico si dimostrerà l’inefficacia di una semplice risposta di tipo lineare
nel caso di elevate esposizioni. A supporto delle considerazioni teoriche verrà presentato uno studio
effettuato attraverso simulazioni Monte Carlo. Infine verranno presentati i risultati della caratterizzazione di
un lotto di rivelatori CR-39, effettuata mediante 6 diverse esposizioni certificate in camera Radon presso
l’INMRI-ENEA del C.R. Casaccia.
SOVRAPPOSIZIONE DELLE TRACCE
Per bassi valori di esposizione al Radon, la relazione che lega la densità di tracce rivelate al valore di
esposizione in kBqh/m3 è del tutto assimilabile ad una retta. All’aumentare del valore di esposizione ci
si aspetta una deviazione dalla linearità sempre più crescente a causa di una progressiva riduzione della
porzione di rivelatore disponibile per l’identificazione di nuove tracce. Infatti la probabilità che una nuova
traccia possa sovrapporsi ad altre precedentemente rivelate cresce all’aumentare della densità totale delle
tracce. Seguendo la trattazione esposta in (Lopez-Coto, 2011) e limitandoci a considerare esclusivamente
sovrapposizione tra coppie di tracce, la relazione tra la densità di tracce rivelate e l’esposizione vera può
essere parametrizzata attraverso un polinomio di secondo ordine. Il modello teorico prevede inoltre che
due tracce sovrapposte vengano registrate dal sistema di acquisizione sempre come una traccia unica.
Il punto di partenza è la probabilità che una nuova traccia si sovrapponga ad una precedentemente rivelata,
definita in (eq. 1)
(1)
dove σ rappresenta l’area media delle tracce, S0 la porzione di superficie del rivelatore non disponibile per
l’identificazione delle tracce, dVERA è la densità di tracce, γ è la sensibilità del rivelatore espressa in densità
di tracce per unità di esposizione e α un fattore di proporzionalità. Come mostrato in (eq. 1), la probabilità
di sovrapposizione cresce all’aumentare del numero di tracce rivelate e dipende dalla dimensione media
7
delle tracce stesse (parametro, quest’ultimo, fortemente influenzato dalle condizioni di etching). A partire
da (eq. 1) si può definire una efficienza di rivelazione dovuta all’effetto di sovrapposizione (eq. 2)
(2)
La densità di tracce misurata sarà legato al valore vero dalla relazione definita in (eq. 3)
(3)
comprende l’effetto delle interazioni di ordine superiore al secondo. Per valori di esposizione
dove
non eccessivamente elevati, (eq. 3) indica che la relazione tra densità di tracce misurata ed esposizione
vera è bene approssimata da una parabola. Nei prossimi paragrafi applicheremo la relazione teorica
appena ottenuta a dati provenienti da una simulazione Monte Carlo e a dati sperimentali ottenuti tramite
esposizioni a sorgenti certificate in camera Radon.
SIMULAZIONE MONTE CARLO
Per validare le considerazioni teoriche esposte nel precedente paragrafo, è stata effettuata una simulazione
Monte Carlo che riproduce l’aspetto di rivelatori CR-39 esposti a diversi livelli di Radon, dopo il processo
di etching. Per semplificare la simulazione, si è assunto che tutte le particelle simulate incidessero
ortogonalmente la superficie del rivelatore, producendo tracce perfettamente circolari. Il raggio delle
tracce prodotte è estratto in maniera casuale secondo una distribuzione gaussiana centrata a 22 μm (che
equivale al raggio medio delle tracce osservate nei CR-39 sviluppati nel laboratorio radiometrico della
Sezione di Roma) e larga 5%. Sono stati simulati cinque CR-39 per diversi valori di esposizione: 410, 911,
2042, 4020, 5987, 8673, 10000, 13000, 17000, 20000 kBqh/m3. E’ stata considerata un’incertezza dal 5%
sul valore nominale di esposizione. Un esempio dell’output della simulazione - un rivelatore CR-39 per ogni
valore di esposizione - è riportato in (fig. 1).
Figura 1 | Simulazione Monte Carlo di CR-39 esposti a 410, 911, 2042, 4020, 5987, 8673, 10000, 13000, 17000, 20000
kBqh/m3.
I rivelatori simulati sono stati analizzati con ImageJ (Abramoff, 2004), un software gratuito per l’elaborazione
delle immagini, il quale implementa un algoritmo per il conteggio delle tracce che permette di simulare
in maniera realistica il processo di analisi a cui vengono sottosti i veri rivelatori CR-39. I risultati della
simulazione Monte Carlo sono presentati in (tab. 1).
8
Tabella 1 | Risultati della simulazione Monte Carlo
Esposizione nominale [kBqh/m3]
Densità di tracce [#/mm2]
Incertezza [#/mm2]
410
11.60
1.44
911
22.75
1.31
2042
44.98
3.24
4020
65.46
2.44
5987
67.94
2.44
8673
59.33
3.07
10000
51.03
2.34
13000
32.77
2.12
17000
12.90
2.42
20000
5.95
0.63
I risultati della simulazione Monte Carlo sono stati interpretati per determinare la relazione che lega il valore
di esposizione reale alla densità di tracce misurata. L’andamento dei dati ottenuti dalla simulazione (fig. 2)
mostra una relazione pressoché lineare per valori di esposizione molto bassi. All’aumentare dell’esposizione
la risposta si discosta sensibilmente dalla linearità per effetto del fenomeno della sovrapposizione, e la
densità misurata cresce fino a raggiungere un massimo assoluto in corrispondenza del cosiddetto valore
di esposizione critica. Per esposizioni ancora superiori, la densità misurata decresce poiché l’effetto
geometrico della sovrapposizione predomina sull’aumento del numero di tracce individuali prodotto da
esposizioni più elevate.
Figura 2 | Andamento dell’esposizione misurata in funzione dell’esposizione reale estrapolato dai dati ottenuti dalla
simulazione Monte Carlo.
La relazione di calibrazione è stata determinata attraverso un fit ai dati mostrati in (fig. 2), utilizzando
l’espressione riportata in (eq. 3). Come precedentemente discusso, un polinomio di secondo ordine
descrive accuratamente l’andamento fino a quando gli effetti della sovrapposizione a tre tracce possono
essere considerati trascurabili. In considerazione degli elevati valori di esposizione investigati, una semplice
parabola non è sufficiente per descrivere l’andamento nell’intero intervallo studiato. Per questo motivo sono
stati considerati tre diversi intervalli di fit e per ciascuno è stato utilizzato un polinomio di ordine differente:
9
• polinomio di 4° ordine per [0 kBqh/m3 , 20000 kBqh/m3];
• polinomio di 3° ordine per [0 kBqh/m3 , 13000 kBqh/m3];
• polinomio di 2° ordine per [0 kBqh/m3 , 5987 kBqh/m3].
I risultati dei fit e i diversi intervalli di esposizione considerati sono presentati in (fig. 3), mostrando un
eccellente accordo tra i dati e l’andamento teorico. Come previsto, l’ordine del polinomio da utilizzare
cresce all’aumentare dell’intervallo di valori di esposizione che vengono considerati. Limitandoci alle sole
sovrapposizioni tra due tracce, si può notare che una semplice curva di calibrazione del secondo ordine
fornisce risultati accurati in un intervallo di valori di esposizione che si estende fino a circa 5000 kBqh/m3. A
titolo di esempio, si consideri che tale valore corrisponde a un’esposizione di un anno in un ambiente con
una concentrazione di Radon costante di circa 570 Bq/m3, valore superiore ai 500 Bq/m3 corrispondenti al
livello di azione nei luoghi di lavoro imposto dal D.L. 241/2000.
Figura 3 | Curve di calibrazione. Curve di calibrazione ottenute da fit ai dati con polinomi di 2°, 3° e 4° grado.
CARATTERIZZAZIONE DEI RIVELATORI CR-39
La caratterizzazione della risposta di un lotto di rivelatori CR-39 è stata effettuata esponendo gruppi di
rivelatori a diverse concentrazioni note di Radon. Le esposizioni certificate sono state effettuate all’interno
della camera Radon presso l’Istituto Nazionale di Metrologia delle Radiazioni Ionizzanti (INMRI), presso il
C.R. ENEA-Casaccia. I rivelatori utilizzati hanno dimensioni di 1 cm x 1 cm e sono assemblati all’interno di
una camera di diffusione di tipo RSKS, costruiti e commercializzati dalla Radosys Ltd (fig. 4).
Figura 4 | Rivelatori Radosys di tipo RSKS Dettaglio della camera di diffusione di tipo RSKS della Radosys Ltd.
10
Sono state eseguite sei misurazioni a diversi valori di esposizione (410, 911, 2042, 4020, 5987, 8673
kBqh/m3) e per ciascuna di esse sono stati utilizzati quattordici rivelatori: dieci esposti all’interno della
camera Radon e quattro utilizzati come transiti. Subito dopo l’esposizione i rivelatori sono stati sviluppati
attraverso un protocollo di etching che prevede l’utilizzo di una soluzione di NaOH al 25% a 90 °C per 4 ore.
Successivamente i rivelatori CR-39 sono stati analizzati attraverso un microscopio a luce trasmessa dotato
di un sistema di lettura automatica delle tracce. I risultati delle sei esposizioni sono riportati in (tab. 2).
Tabella 2 | Risultati della caratterizzazione dei rivelatori CR-39
Esposizione certificata
[kBqh/m3]
Densità di tracce
[#/mm2]
Incertezza
[kBqh/m3]
Esposizione corretta
[kBqh/m3]
410
11.31
0.45
395.35
911
25.55
0.28
926.07
2042
52.14
0.44
2051.84
4020
88.11
0.56
4109.89
5987
105.96
0.69
5878.89
8673
109.72
1.02
8628.4
I risultati della caratterizzazione dei rivelatori CR-39 sono riportati in (fig. 5). Da notare che le misure
sperimentali non possono essere confrontate direttamente con le simulazioni Monte Carlo, in quanto
sono stati utilizzati algoritmi differenti per l’identificazione delle tracce. Il polinomio utilizzato per il fit è del
secondo ordine e l’eccellente accordo con i dati sperimentali conferma che la sovrapposizione a due
tracce continua a essere l’effetto predominante per valori di esposizione oltre gli 8000 kBqh/m3. L’accordo
tra relazione teorica e dati sperimentali dimostra inoltre che l’utilizzo di una funzione di calibrazione del
secondo ordine garantisce risultati molto più accurati rispetto a una semplice relazione di tipo lineare
(retta verde). A titolo di esempio, considerando una densità di tracce rivelate di 40, 60 e 80 tracce/mm2, la
sottostima del risultato ottenuto assumendo una risposta lineare è rispettivamente del 4.7%, 10% e 16%.
A causa della natura quadratica della funzione di calibrazione, essa fornisce risultati attendibili fino al
valore di esposizione critica, che per il lotto di rivelatori preso in esame è 7607 kBqh/m3. Il risultato può
considerarsi molto soddisfacente se si considera che un simile valore di esposizione corrisponde a un
anno di monitoraggio a una concentrazione costante di Radon pari a circa 850 kBqh/m3.
Figura 5 | Caratterizzazione dei rivelatori CR-39. Curva di calibrazione dei rivelatori CR-39 confrontata con l’ipotetica
risposta lineare.
11
Al fine di validare la consistenza del metodo di calibrazione, è stato confrontato il valore del raggio medio
delle tracce rivelate estratto dal fit – parametro σ in (eq. 3) - con quello ottenuto per via diretta, analizzando
le immagini del microscopio con il software ImageJ. L’eccellente accordo riscontrato – 19 μm attraverso il
fit contro 22 μm dalla procedura diretta – fornisce un’ulteriore evidenza della bontà del metodo esposto.
CONCLUSIONI E STUDI FUTURI
A causa dell’effetto geometrico dovuto alla progressiva sovrapposizione delle tracce, la risposta dei
rivelatori a tracce nucleari si discosta dalla linearità in maniera più marcata all’aumentare del valore di
esposizione di Radon. Questo lavoro presenta uno studio teorico e sperimentale del meccanismo di
sovrapposizione delle tracce nei rivelatori CR-39. Partendo da considerazioni di tipo teorico, si è dimostrato
che la risposta dei rivelatori può essere parametrizzata attraverso funzioni polinomiali. A dimostrazione di
ciò, sono state preparate una serie di simulazioni Monte Carlo di rivelatori esposti a diversi livelli di Radon.
I risultati delle simulazioni hanno mostrato un eccellente accordo con il modello teorico previsto. L’ipotesi
iniziale di risposta di tipo polinomiale è stata utilizzata anche per la caratterizzazione dei rivelatori CR-39 e
la determinazione della curva di calibrazione. I dati sperimentali, ottenuti attraverso esposizioni certificate
in camera Radon, si accordano perfettamente con un polinomio del secondo ordine, i cui parametri sono
stati determinati attraverso un fit ai minimi quadrati. La curva di calibrazione così ottenuta consente di
fornire risultati affidabili per valori di esposizione oltre i 7500 kBqh/m3, evitando sottostime accidentali dei
risultati dovute all’effetto della sovrapposizione.
Ulteriori studi sono in corso per estendere l’intervallo di utilizzo dei rivelatori CR-39 e, al tempo stesso,
ridurre l’incertezza associata alla misura dovuta al fenomeno della sovrapposizione. Il metodo è basato su
una curva di calibrazione in due dimensioni, utilizzando la densità di tracce rivelata e una nuova grandezza
che ha il vantaggio di essere funzione monotona crescente del valore di esposizione reale: la percentuale
di superficie del rivelatore coperta da tracce. Gli studi preliminari effettuati (fig. 6) hanno confermato le
potenzialità del metodo. Una calibrazione in due dimensioni permetterebbe infatti di aggirare la limitazione
imposta dal valore di esposizione critica come massimo valore rivelabile attraverso una misura di Radon
con rivelatori CR-39.
Figura 6 | Calibrazione in due dimensioni dei rivelatori CR-39. Studi preliminari sull’utilizzo della percentuale di superficie coperta: andamento in funzione del valore reale di esposizione (sinistra), calibrazione in due dimensioni (destra).
BIBLIOGRAFIA
1. (Khan, 1983) Khan H.A., Brandt R., Khan N.A., Jamil K., Track-registration-and-development characteristics
of CR-39 plastic track detector, Nuclear Tracks and Radiation Measurements 7 129, 1983.
2. (Guedes, 1998) Guedes S., Hadler J.C., Iunes P.J., Paulo S.R. Tello C.A., On the reproducibility of SSNTD
track counting efficiency, Nuclear Instruments and Methods in Physics Research A 418 429,1998.
3. (Lopez-Coto, 2011) Lopez-Coto I., Bolivar J.P., A theoretical model for the ovelapping effect in solid
state nuclear tracks detectors, Nuc. Instr. and Meth. in Phys. Res. A 652, 2011.
4. (Abramoff, 2004) Abramoff M.D., Magalhaes P.J., Ram S.J., Image Processing with ImageJ,
Biophotonics International 11, 2004.
12
Articoli
Aspetti tecnici e metodologici nella bonifica dal radon
nelle strutture scolastiche della provincia di Lecce
A. P. Caricato*, M. Fernández*, F. Leonardi+, S. Tonnarini+, R. Trevisi+, T. Tunno*, M. Veschetti+,
G. Zannoni§
*Dipartimento di Fisica, Università del Salento, Via Arnesano 73100 Lecce
+Dipartimento di Igiene del lavoro, INAIL Settore Ricerca, Via Fontana Candida 1, 00040 Monteporzio
Catone (Rm)
§Dipartimento di Architettura, Università di Ferrara, via Quartieri 8, 44121 Ferrara
INTRODUZIONE
Un’indagine condotta negli anni passati su un campione di 438 edifici scolastici situati nella provincia di
Lecce, ha evidenziato una concentrazione media di radon pari a 209±9 Bq/m3, di gran lunga superiore
rispetto a quella stimata per la Puglia (52±2 Bq/m3) (Bochicchio et al., 2005). Una sintesi dei risultati della
campagna è riportata nella Tabella 1.
L’analisi dei dati ha mostrato che interventi tecnici di abbattimento si rendevano necessari nel 7% delle
scuole del territorio, un terzo delle quali sono scuole dell’infanzia (Trevisi et al., 2009).
E’ stato quindi predisposto un dettagliato protocollo di intervento, a tutt’oggi applicato in nove istituti
scolastici, che vede la collaborazione tra il Dipartimento di Fisica dell’Università del Salento, il Dipartimento
di Igiene del Lavoro di INAIL - Settore Ricerca e il Dipartimento di Architettura dell’Università di Ferrara.
Tabella 1 | Analisi della distribuzione delle concentrazioni medie annue di radon misurate nelle scuole della provincia di Lecce in funzione dei livelli di riferimento.
N. Scuole
438
N. Paesi
122
Range (Bq/m )
21-1608
3
Media±ES (Bq/m )
209±9
3
Mediana (Bq/m )
146
3
Media Geom. (Bq/m )
3
157
Dev. Std. (Bq/m )
190
200 Bq/m3
66%
3
200-400 Bq/m3
22%
401-500 Bq/m
5%
>500 Bq/m
3
3
7%
Il progetto di bonifica ha inizio a seguito della richiesta inviata dall’amministrazione proprietaria dello
stabile all’Università del Salento. Successivamente, a valle di un attento sopralluogo, svolto in presenza
del personale dell’ufficio tecnico del comune interessato, viene presentato il progetto di intervento.
Tali progetti includono tipicamente oltre all’identificazione della tecnica di intervento vero e proprio, una
serie di altre azioni quali la progettazione di un protocollo per il controllo radiometrico pre e post bonifica,
la predisposizione di documentazione informativa per il personale dell’ufficio tecnico (indicazioni operative
da seguire nelle fase di realizzazione dell’intervento), ecc.
Nel presente lavoro vengono forniti i principali elementi relativi alla bonifica dal radon realizzata su 9 edifici
scolastici, le cui informazioni generali sono sinteticamente presentate nella Tabella 2.
Il progetto di bonifica ha previsto una intensa attività di misurazione del radon, preliminarmente per
caratterizzare meglio l’edificio ed individuare i punti sui quali intervenire, successivamente a supporto
dell’intervento stesso e della sua ottimizzazione. Il protocollo sperimentale ha tenuto conto dell’esperienza
maturata dai colleghi sia a livello nazionale che internazionale (Bertolo e Bigliotto, 2007; Vaupotic e Kobal,
2005, LLerena et al., 2010).
13
Tabella 2 | Descrizione del campione di scuole bonificate: a ciascun edificio è stato associato un numero identificativo (ID).
Tipo di scuola –
Comune
ID scuola
Attacco a terra
Anno di costruzione
Scuola dell’infanzia –
Ugento
1
A platea
1981
Scuola dell’infanzia –
Matino
2
A platea
1980
Scuola dell’infanzia –
Surbo
3
Vespaio
1985
Scuola dell’infanzia –
Giorgilorio
4
Vespaio
2004
Scuola dell’infanzia –
Poggiardo
5
Vespaio
1980
Scuola dell’infanzia –
Galugnano
6
Vespaio
1980
Scuola dell’infanzia –
Castro
7
Vespaio
1970
Scuola Primaria –
Lecce
8
Vespaio
1920
Scuola dell’infanzia –
San Donato
9
Vespaio
1980
MATERIALI E METODI
Metodologia di misura
Il protocollo relativo alle misure di concentrazione di radon è stato suddiviso in diverse fasi, di seguito
descritte:
1. monitoraggio integrato di durata semestrale con dosimetri passivi NRPS/SSI e rivelatore plastico di CR39 in tutti i locali della scuola;
2. monitoraggio con dosimetri ad elettrete nei 15 gg precedenti l’intervento di bonifica;
3. monitoraggio con dosimetri ad elettrete nei 15 gg successivi l’intervento;
4. monitoraggio in continuo con camera a ionizzazione (Alphaguard, Genitron - Germania) in un ambiente
“di riferimento”;
5. monitoraggio integrato di durata annua con dosimetri passivi NRPS/SSI dopo la realizzazione della
bonifica.
Per quanto attiene agli aspetti tecnici inerenti la misura con dosimetri passivi a tracce nucleari, (fasi 1
e 5) i dettagli sono stati già descritti altrove (Mishra et al., 2005; D’Alessandro et al., 2010; Trevisi et al.,
2011). Diversamente dalla precedente campagna di misure, il posizionamento della strumentazione è
stato effettuato da personale tecnico dell’Università.
Nei primi edifici in cui si è stata avviata la bonifica, le misure di radon mediante dosimetri ad elettrete
(Kotrappa et al. ,1988; Kotrappa et al., 1990) sono state eseguite con coppie di dosimetri in due diverse
configurazioni, SLT e LST, per apprezzare la riproducibilità della tecnica e selezionare la configurazione
più appropriata per l’obiettivo da conseguire. Nel trattamento del dato sperimentale, è stato applicato il
valore di fondo gamma stimato nella precedente campagna di misure mediante dosimetri a TLD (Trevisi et
al., 2008). L’incertezza di misura è stata calcolata secondo quanto riportato in letteratura (Caresana et al.,
2005) in accordo alla norma UNI EN ISO/IEC 17025:2008.
Principali elementi di progettazione dell’intervento di bonifica
A causa della tipologia di attacco a terra degli edifici scolastici, ed in alcuni casi, di vincoli architettonici,
la maggior parte degli interventi finora realizzati ha utilizzato la tecnica della depressurizzazione del suolo.
Solo in pochi casi si è proceduto con la depressurizzazione del vespaio.
La dimensione media delle scuole in questo territorio, e in particolare nel caso di scuole dell’infanzia, è
piuttosto modesta; questo ha fatto sì che mediamente siano stati realizzati 2 – 3 punti di aspirazione per
14
edificio, tenendo conto che ogni punto di aspirazione ha un raggio di azione di 6 - 8 metri.
Trattandosi di edifici esistenti e data la destinazione d’uso dei locali, in genere si è scelto di intervenire solo
nell’immediato perimetro esterno e mai all’interno dell’edificio, pur sapendo che questo avrebbe ridotto
l’area di influenza e quindi l’efficacia finale della bonifica e avrebbe probabilmente incrementato il numero
di punti di aspirazione.
Per la realizzazione di questi ultimi si è proceduto come illustrato in Fig.1. Il progetto ha previsto uno scavo
di 2 - 3 m di profondità, tale da oltrepassare il piano di fondazione di almeno 80 cm e l’uso di tubi in PVC
(di diametro pari a 100 mm) dotati di fori di circa 30 mm su tutta la superficie aperto all’estremità inferiore,
al fine di favorire al massimo l’effetto aspirante nei confronti del suolo, e collegato al ventilatore all’estremità
superiore. Si è richiesto, inoltre, che le tubazioni forate fossero rivestite con materiale tipo “tessuto non
tessuto” per evitare l’intasamento dei fori stessi. Lo spazio tra scavo e tubo è stato riempito di materiale
incoerente (ghiaia) (Fig. 2).
Figura 1 | Scavo di un pozzetto nel perimetro esterno di un edificio scolastico. In particolare è possibile osservare il
rivestimento del tubo forato in “tessuto non tessuto”.
Ai tubi sono stati applicati ventilatori da 85 Watt, elico-centrifughi con temporizzatori (Fig. 3): la tecnica
appena descritta è collaudata e di facile adozione ma, soprattutto, particolarmente idonea alle stratificazione
geologiche tipiche dell’area in oggetto, costituita in buona parte da roccia calcarea con una permeabilità
superiore alla media (Trevisi et al., 2008) e nella quale l’effetto aspirante dell’impianto riesce ad agire su
di un’area sufficientemente ampia. Nella fase di messa a punto sono state studiate diverse modalità di
temporizzazione del funzionamento del ventilatore al fine di trovare un compromesso tra efficacia del
sistema di aspirazione, costi di funzionamento e usura dell’impianto.
Figura 2 | Particolare del pozzetto riempito con materiale incoerente (ghiaia) dopo il posizionamento del tubo forato.
15
Figura 3 | Particolare del ventilatore temporizzato”.
RISULTATI
Controllo di qualità delle misure di radon
Durante la fase 1 del progetto è stato effettuato un monitoraggio semestrale esteso a tutti i locali posti al
piano terra. I dati di tale monitoraggio sono stati confrontati con quelli ottenuti durante la prima indagine,
nella quale erano stati misurati 3 locali scelti casualmente dal personale scolastico (Trevisi et al. 2012).
Una sintesi è presentata in Tabella 3, nella quale si riportano la concentrazione media annua relativa alla
prima indagine, la concentrazione media valutata nel semestre come media aritmetica dei valori dei singoli
locali e il relativo range di variazione. In tutte le scuole si è riconfermata la necessità di adottare interventi
di bonifica: in alcuni casi gli edifici hanno presentato una situazione abbastanza omogenea, mentre in altri
si ha una forte disomogeneità dei dati.
Complessivamente i valori medi annui e quelli derivanti dalla ripetizione semestrale risultano in ottimo
accordo, spesso sovrapponibili se tenuto conto delle relativa incertezza. Laddove si osserva una scarsa
sovrapposizione, la maggiore estensione del monitoraggio ha portato spesso a riscontrare valori medi
della scuola ancora superiori (vedi scuole 2, 6, 8).
Tabella 3 | Confronto dei dati relativi alle due indagini.
ID Scuola
Concentrazione media annua
Prima campagna di misure
(Bq/m3)
Concentrazione
semestrale prebonifica
(Bq/m3)
Range
(Bq/m3)
1
653 ± 70
651 ± 67
473 - 881
2
648 ±19
938 ±96
875 - 1040
3
576 ± 31
541 ± 56
458 - 708
4
625 ± 60
622 ± 64
459 - 976
5
595 ±103
906 ± 93
880 - 956
6
979 ± 100
1067 ± 109
774 - 1426
7
635 ± 114
1639 ± 166
1361 - 2031
8
522 ± 71
538 ± 56
220 - 962
9
719 ± 10
578 ± 60
523 - 625
Il monitoraggio dei livelli di radon nei giorni immediatamente pre e post bonifica (fasi 2 e 3), è stato effettuato
impiegando i dosimetri passivi ad elettrete: la durata della misura (15 giorni) consentiva di poter optare
tra due diverse configurazioni, la SLT e la LST. Allo scopo di valutare la bontà dei dati conseguiti nelle
due modalità, nelle prime scuole, in ciascun locale, sono stati posizionati due set di dosimetri ad elettrete
(uno per ogni configurazione), e in uno dei locali, anche una camera a ionizzazione quale monitore di
riferimento.
Relativamente alla risposta delle due diverse configurazioni dei dosimetri ad elettrete possiamo considerare
il grafico in Figura 4: il valore del coefficiente angolare della retta prossimo a 1 e il valore del coefficiente R2
16
(pari a 0,9996) evidenziano un ottimo grado di accordo tra i dati. Per il nostro protocollo di monitoraggio,
si possono quindi ritenere le due configurazioni “equivalenti”. Inoltre, il confronto fra i valori ottenuti con
gli elettreti e quelli ottenuti con il monitore di riferimento ha permesso di valutare il loro grado di accordo
come evidenziato in Fig.5. Si fa presente che i dati riportati in ordinata sono la media aritmetica dei valori
acquisiti con i due elettreti.
I dosimetri al elettrete si confermano un ottimo “alleato” nel caso si intendano misurare contemporaneamente
molti locali per tempi non troppo lunghi.
Figura 4 | Correlazione dei dati di radon acquisiti con elettreti SLT, LST – Scuola 2.
Figura 5 | Correlazione tra i dati di radon acquisti con dosimetri ad elettrete e il monitore di riferimento - Scuola 2.
Analisi e ottimizzazione dell’intervento di bonifica
Una sintesi dei valori di concentrazione di radon pre e post bonifica nelle nove scuole è riportata in Tabella
4 e il dettaglio dei dati relativi a ciascun locale è rappresentato in Figura 6. Le percentuali di abbattimento
sono state calcolate nel modo seguente:
Analizzando i dati medi per edificio si osserva che l’abbattimento è compreso tra il 48% e l’85%, anche
se per una valutazione più accurata si attende il completamento del nuovo monitoraggio annuale. Questi
risultati sono in ottimo accordo con quelli ottenuti dai colleghi in altre regioni italiane, come ad esempio
nelle scuole di Bergamo (Arrigoni et al., 2011). Un’ eccezione è rappresentata dalla scuola 8 ove rimane
ancora un locale con concentrazione di radon prossima a 500 Bq/m3 (497 ± 50 Bq/m3) e quattro con valori
maggiori di 400 Bq/m3.
17
Tabella 4 | Confronti risultati della concentrazione di radon prima e dopo l’intervento di bonifica.
Misura pre-bonifica
Misura post-bonifica
Concentrazione media ±
DS (Bq/m3)
Concentrazione media ±
DS (Bq/m3)
Abbattimento %
1
646 ± 160
97 ± 24
85%
2
836 ± 526
366 ± 41
56%
3
337 ± 75
140 ± 105
61%
4
995 ± 141
157 ± 55
84%
5
1163 ± 55
348 ± 16
70%
6
628 ± 194
203 ± 62
68%
7
819 ± 134
294 ± 71
64%
8
703 ± 371
362 ± 122
48%
9
984 ± 144
246 ± 116
75%
Nella maggior parte dei casi le percentuali di abbattimento sono dell’ordine del 60 – 80%: le efficienze
minori si sono verificate laddove gli interventi di depressurizzazione del suolo sono stati realizzati mediante
l’inserimento di tubazioni verticali in posizione non baricentrica rispetto all’edificio. Questo limite è spesso
legato al “fattore salvaguardia” per cui gli interventi su edifici di pregio storico architettonico sono ostacolati
da problematiche relative all’invasività del percorso di uscita dell’impianto, che in certi casi può interessare
prospetti soggetti a vincolo architettonico nei quali non è possibile far transitare canalizzazioni impiantistiche:
questo è quanto avvenuto, ad esempio, nella bonifica della scuola 8. Ulteriori fattori che hanno influenzato
una riuscita non ottimale della bonifica sono molto probabilmente da imputare alla permeabilità del terreno
nella zona interessata ed al fatto che, per l’inserimento dei tubi, si è eseguito, per motivi tecnici, una
“trivellazione” di diametro poco più grande di quello dei tubi stessi anziché uno scavo come di consueto.
Nell’ottimizzazione della bonifica particolare attenzione è stata posta alle modalità di gestione del sistema
aspirante avendo ben presente la necessità di ridurre quanto possibile i livelli di radon indoor e le esigenze
di carattere economico (costi di gestione).
Sono state sperimentate diverse modalità di temporizzazione degli aspiratori: in continuo, ad intervalli di
circa 12 ore (notte ON, giorno OFF) e a cicli brevi (2 ore ON, 30 min OFF) come già fatto in alcune scuole
lombarde (Arrigoni, 2011).
Il funzionamento continuo certamente è il più efficace ma non garantisce una lunga durata dell’aspiratore:
la programmazione di cicli di circa 12 ore ON/OFF si è evidenziata come la meno soddisfacente in quanto
lo spegnimento per un tempo prolungato consentiva la risalita dei livelli di radon. Allo stato attuale la
modalità migliore è risultata quella che prevede cicli di funzionamento ON/OFF molto ravvicinati tra loro:
30 – 60 min OFF e 2 ore di ON sono sufficienti a garantire il raffreddamento dell’aspiratore ma non la risalita
del gas radioattivo. La Figura 7 mostra l’andamento orario del radon tenuto conto del funzionamento del
sistema aspirante nel locale di riferimento della scuola 1: da un abbattimento del 90% ottenuto con un
aspirazione continua si passa al 89% con cicli ON/OFF di 120/30 min.
Nel progetto di bonifica dal radon particolare attenzione è stata posta agli aspetti economici. Relativamente
ai costi di misura, la predisposizione di un accordo tra gli enti partecipanti al progetto ha fatto sì che si
potesse offrire questo servizio ad un costo particolarmente favorevole. Nell’insieme le voci quotate possono
essere così riassunte: a) costi di realizzazione degli interventi; b) costi di gestione.
Per quanto concerne i costi di realizzazione degli interventi, in questa area essi variano tra 1600 e 1800 euro
per pozzetto in funzione della difficoltà relativa alla posizione e alla natura dell’intervento stesso. Infine, per
quanto attiene ai costi di gestione, quali, il consumo di energia elettrica: questi si aggirano intorno ai 100
euro/annui per ogni aspiratore ipotizzando un funzionamento in temporizzazione.
18
Figura 6 | Valori della concentrazione di radon prima e dopo la bonifica nei locali scolastici.
Figura 7 | Rappresentazione degli effetti degli aspiratori sui livelli di radon nella scuola 1.
CONCLUSIONI
Il ciclo di misure semestrali ha confermato i dati della precedente campagna di misure di radon e la
necessità di intervenire nelle scuole considerate.
Un controllo di qualità delle misure ha evidenziato la riproducibilità dei dati acquisti con dosimetri ad
elettrete in due diverse configurazioni e il buon accordo di entrambe con i risultati acquisti con il monitore
di riferimento.
L’esperienza maturata ha ulteriormente dato conferma al fatto che la bonifica dal radon richiede la
predisposizione sia di un protocollo relativo alle misurazioni che di un protocollo operativo di intervento
da condividere con gli uffici tecnici degli enti locali. La stretta collaborazione e supervisione ha garantito
risultati più che soddisfacenti.
Il progetto è stato affiancato da un’intensa attività formativa, organizzata dall’Università del Salento, rivolta
verso il personale degli uffici tecnici.
Nelle nove scuole, la tecnica di intervento adottata è consistita nella depressurizzazione a livello del suolo
mediante la realizzazione di più punti di aspirazione: sono stati studiati gli effetti dei diversi fattori in gioco,
quali la posizione verticale o orizzontale delle tubazioni, la percentuale di foratura della loro superficie, le
19
modalità di temporizzazione del funzionamento del ventilatore.
Le percentuali di abbattimento ottenute variano dal 48 al 85% come media nella scuola, mentre al livello
del singolo locale variano tra il 24% e il 96%.
BIBLIOGRAFIA
1. Arrigoni S., Antonioli L., Capetta C., Cugini A., D’Aloja G., Di Toro M., De Bartolo D., Imbrogno P.,
Pezzera G., Ratti A., Romanelli M., Zannoni G. Risanamenti da radon in edifici scolastici in provincia
di Bergamo. 12 - 14 Ottobre 2011, atti di AIRP - Convegno Nazionale Di Radioprotezione. CODICE
AGENAS 1031-15033.
2. Bertolo A.e Bigliotto C.. Sperimentazione delle azioni di rimedio sugli edifici con alta concentrazione
di gas radon nel Veneto. Febbraio 2007, rapporto conclusivo Padova, http://www.arpa.veneto.it/temiambientali/agenti-fisici/radiazioni-ionizzanti/file-e-allegati/Rapportobonifiche2007.pdf
3. Bochicchio F., Campos-Venuti G., Piermattei S., Nuccetelli C., Risica S., Tommasino L., Torri G.,
Magnoni M., Agnesod G., Sgorbati G., Bonomi M., Minach L., Trotti F., Malisan M.R., Gaidolfi L.,
Giannardi C., Rongoni A., Lombardi M., Cherubini G., D’Ostilio S., Cristofaro C., Pugliese M., Martucci
V., Crispino A., Cuzzocrea P., Sansone Santamaria A., Cappai M.. Annual average and seasonal
variations of residential radon concentration for all the Italian Regions. 2005, Rad. Meas. 40, pag. 686
– 694.
4. Caresana, M., Campi, F., Ferrarini, M., Garlati, L., Porta, A., Uncertainties Evaluation for Electrets
Based Devices Used in Radon Detection. 2005, Radiation Protection Dosimetry 113 1 pag 64-69.
5. D’Alessandro M., Leonardi F., Tonnarini S., Trevisi R. and Veschetti M. Development of a framework
of quality assurance practices for radon passive dosemeter service. 2010, J. Radiol. Prot. 30 pag.149159.
6. Kotrappa P., Depmsey J.C., Hickey J.R., Stieff L.R. An electret passive environmental 222Rn monitor
based on ionization measurement. 1988, Health Physics 54 pag. 47-56.
7. Kotrappa P., Depmsey J.C., Ramsay R.W., Stieff L.R. A practical E-PERM (Electret Passive Environmental
Radon Monitor) system for indoor 222Rn measurement. 1990, Health Physics 58 pag. 461-467.
8. Llerena JJ., Cortina D., Durán I., Sorribas R. An approach to the subslab depressurization remedial
action in a high (222)Rn concentration dwelling. 2010, J Environ Radioact., 101(3):219-25.
9. Mishra R., Orlando C., Tommasino L., Tonnarini S., Trevisi R. A better understanding of the background
of CR-39 detectors. 2005, Rad. Meas. 40, 325-328.
10. Trevisi R., Caricato A., Fernández M., Leonardi F., Luches A., Tonnarini S., Veschetti M. A survey
on natural radioactivity in Schools of South-East Italy. 19-24 October 2008, Proceedings of the 12th
International Congress of the International Radiation Protection Association - IRPA 12 Buenos Aires
(Argentina) www.irpa12.org.ar. (CD-ROM).
11. Trevisi R., D’Alessandro M., Leonardi F., Simeoni C., Tonnarini S., Veschetti M. Campagna di misura
sulla radioattività naturale nelle strutture scolastiche della provincia di Lecce: risultati delle misure di
radon indoor. 28 - 30 ottobre 2009, AIRP - Atti del XXXIV Congresso Nazionale di Radioprotezione,
Frascati ISBN 978-88-88648-10-1 (CD-ROM).
12. Trevisi R., Leonardi F., Tonnarini S., Veschetti M. Il programma di assicurazione di qualità del laboratorio
radioattività naturale: un primo passo verso l’accreditamento ISO/IEC 17025, Atti di AIRP - Convegno
Nazionale Di Radioprotezione, Reggio Calabria 12 - 14 Ottobre 2011. CODICE AGENAS 1031-15033,
vol.1, p.348 – 360. ISBN 978-88-88-648-29-3.
13. Trevisi R., Leonardi F., Simeoni C., Tonnarini S., Veschetti M. A survey on natural radioactivity in
schools of south Italy: results of indoor radon measurements in the province of Lecce. 2012, J Environ.
Radioact. 112. 160-164.
14. UNI CEI EN ISO/IEC 17025:2008-10. Requisiti generali per la competenza dei laboratori di prova e di
taratura.
15. Vaupotič J., Kobal I., Radon exposure in Slovenian kindergartens and schools. 2005, Proceedings
of the 6th International Conference on High Levels of Natural Radiation and Radon Areas: Radiation
Dose and Health Effects. International Congress Series, 1276, 375–376.
20
Articoli
L’influenza di un disegno campionario preferenziale
sulle statistiche aggregate per aree territoriali:
il caso delle campagne di misura della concentrazione
di radon indoor in Lombardia
Borgoni R.1, de Bartolo D.2
Dipartimento di Economia, Metodi Quantitativi e Strategia d’Impresa,
Università degli Studi di Milano – Bicocca, Piazza dell’Ateneo Nuovo, 1, [email protected]
ARPA della Lombardia, Settore Aria e Agenti Fisici, Milano
RIASSUNTO
Negli ultimi anni sono state condotte dalle agenzie ambientali numerose campagne di misura volte a rilevare le
concentrazioni di radon all’interno delle abitazioni e dei luoghi di lavoro con lo scopo di stimare l’esposizione
ed identificare le aree a maggior probabilità di elevate concentrazioni di radon. A tale fine vengono spesso
calcolate delle statistiche aggregate della concentrazione di radon indoor per le aree di interesse, ad
esempio i comuni o le province. Le rilevazioni indoor sono naturalmente clusterizzate nello spazio dato che
gli edifici presentano delle aggregazioni sul territorio. Inoltre le campagne di monitoraggio sono spesso
disegnate in modo intenzionalmente preferenziale con una forte tendenza ad infittire le misurazioni nelle aree
più esposte. La natura clusterizzata e/o preferenziale del campionamento, può impattare negativamente
sulle usuali procedure di stima con effetti che vanno da inefficienze, più o meno marcate, a distorsioni
sistematiche anche rilevanti. In questo lavoro, tramite un ampio studio di simulazione, è stato valutato un
metodo per correggere le distorsioni indotte dalla preferenzialità del campionamento e la sua performance
è stata confrontata con quella di altri metodi di stima che, sebbene usualmente utilizzati, non tengono conto
di questo aspetto. I risultati ottenuti mostrano come le procedure usuali possano produrre stime anche
ampiamente errate in presenza di disegni campionari preferenziali, mentre il metodo qui discusso è molto
meno influenzato da questo aspetto e, in tali circostanze, risulta essere quindi preferibile. Le procedure
considerate sono state applicate ai dati delle campagne di misura del radon indoor condotte da ARPA
Lombardia nel 2003-04 (IReR, 2010, Borgoni et al. 2010) e 2009-2010 (Alberici et al. 2011) per stimare le
concentrazioni medie di alcune province lombarde particolarmente significative.
INTRODUZIONE
Negli ultimi anni sono state condotte dalle agenzie ambientali numerose campagne di misura volte a
rilevare le concentrazioni di radon all’interno delle abitazioni e dei luoghi di lavoro con lo scopo di stimare
l’esposizione ed identificare le aree a maggior probabilità di elevate concentrazioni di radon. A tale fine
vengono spesso calcolate delle statistiche aggregate della concentrazione di radon indoor per aree di
interesse, quali ad esempio comuni o province.
Le concentrazioni di radon indoor dipendono dalle caratteristiche costruttive, dai materiali utilizzati, dalle
modalità di aerazione e ventilazione e dalle abitudini di utilizzo del singolo edificio/unità abitativa. L’impatto
di molti di questi fattori è stato analizzato, sullo stesso dataset considerato nel seguito di questo lavoro
da Borgoni et al. 2011. La concentrazione del radon indoor è inoltre strettamente dipendente dalla zona
geografica e dalle caratteristiche geomorfologiche del sottosuolo.
Questa dipendenza geografica non presenta andamenti regolari. Soprattutto in regioni estese e
geofisicamente eterogenee sono infatti presenti disomogeneità locali o di larga scala legate, ad esempio,
alla struttura litologica del sottosuolo, alla sua porosità, alla presenza di fratture nello stesso che possono
agevolare i movimenti del gas, ma anche a fattori antropici come le tipologie architettoniche o i materiali
da costruzione utilizzati.
In queste condizioni, la possibilità di disporre di punti di misura uniformemente distribuiti sullo spazio
permetterebbe di ottenere delle stime aggregate rappresentative della naturale predisposizione delle
diverse aree a presentare elevate concentrazioni indoor dell’inquinante. In realtà, questa ideale uniformità
della dislocazione spaziale dei punti di misura è raramente presente nelle campagne di monitoraggio. In
primo luogo le rilevazioni indoor sono naturalmente clusterizzate nello spazio dato che gli edifici presentano
21
delle aggregazioni sul territorio. Le campagne di monitoraggio, inoltre, sono spesso disegnate in modo
intenzionalmente preferenziale con una forte tendenza ad infittire le misurazioni nelle aree più esposte.
Questo è dovuto a due motivi principali. Il primo, di tipo tecnico, è legato alla regola (largamente empirica)
in base a cui le aree con più elevate concentrazioni sono anche quelle che manifestano maggiore variabilità
nelle misure (il così detto effetto proporzionale) per cui si trova ragionevole campionare maggiormente
quelle regioni in cui ci si aspetta di essere in presenza di concentrazioni più elevate per compensare, grazie
alla maggior numerosità campionaria, l’eccesso di variabilità. Il secondo motivo è di tipo più pragmatico.
Infatti si pensa spesso che sia meno rilevante e anche meno giustificabile rispetto all’opinione pubblica,
monitorare aree in cui vi siano basse concentrazioni di radon indoor. La conseguenza del clustering naturale
dovuto all’addensarsi degli edifici in alcune parti del territorio è che le stime aggregate a livello di area (per
esempio le concentrazioni medie) presentano delle inefficienze (variabilità più alta di quanto si potrebbe
ottenere con un disegno campionario uniformemente distribuito sullo spazio). La natura preferenziale del
campionamento, invece, può indurre notevoli distorsioni sistematiche (per esempio sovra-stime, nel caso
delle concentrazioni medie).
La figura 1 esemplifica, tramite dei dati fittizi generati per mezzo di un elaboratore elettronico, le due
situazioni. Nel grafico a sinistra (fig. 1-a) è riportato un campionamento preferenziale in cui i punti di misura
si addensano sulle regioni di maggior valore della concentrazione. Nel grafico di destra (fig.1-b), invece, è
riportata una clusterizzazione dei punti indipendente dai valori del campo di concentrazione.
Un approccio ricorrente nello studiare l’andamento territoriale della concentrazione di radon indoor,
consiste nel considerare tale concentrazione come una “variabile regionalizzata”, ovvero come una
funzione aleatoria spazio-dipendente all’interno della regione di interesse: (Y(x), x∈D), dove D⊂R2.
L’esempio in fig. 1 è stato simulato supponendo che il campo aleatorio fosse di tipo gaussiano con media
costante, e pari a 10, su D (quadrato di lato unitario). La stima di tale valore medio ottenuta in base alla
media del campione clusterizzato risulta pari a 9.82, un valore quindi molto prossimo a quello vero usato
per la generazione dei dati, mentre la media aritmetica del campione preferenziale è pari 12.33, quindi il
23.3% più alta del valore che si intendeva stimare. Si tenga inoltre conto che il campione clusterizzato in
questione è molto meno ampio, circa due terzi, di quello preferenziale.
Nel presente lavoro sarà considerato un metodo per correggere le distorsioni indotte dalla preferenzialità
del campionamento e ne sarà confrontata le performance con quella di metodi di stima usuali.
Le procedure considerate saranno infine applicate ai dati delle campagne di misura del radon indoor
condotte da ARPA Lombardia nel 2003-04 (IReR, 2010, Borgoni et al. 2010) e 2009-2010 (Alberici et al.
2011) per stimare le concentrazioni medie per alcune province lombarde.
a
b
Figura 1 | Piano di campionamento preferenziale (a), piano di campionamento clusterizzato (b). I siti campionari sono
rappresentati tramite punti; la superficie rappresenta il campo delle concentrazioni con le sfumature di rosso associate
a valori bassi.
22
STIMA AGGREGATA DI AREA NEL CASO DI CAMPIONAMENTO PREFERENZIALE
Supponendo che la variabile d’interesse, per esempio la concentrazione del radon indoor, possa essere
modellizzata tramite un opportuno campo aleatorio Y=(Y(x), x∈D), l’oggetto del presente lavoro è
considerare delle stime di caratteristiche aggregate sul dominio D delle traiettorie del processo spaziale Y
del tipo φ=φ(D)= ∫Dg(Y(x))dx.
Indicando con |D| l’area di D, tipici esempi sono:
• il totale di Y sulla regione D, caso in cui
g(Y(x))=Y(x)
(1)
g(Y(x))=Y(x)/|D|
(2)
• la media spaziale di Y, caso in cui
• la funzione di contro-ripartizione spaziale di Y, ovvero la probabilità di ottenere valori superiori ad una
soglia τ prefissata. In questo caso si ha
(3)
g(Y(x))=I(Y(x)>τ)/|D|
dove I(A) è la funzione indicatrice dell’insieme A.
Si indichi con S=(x1,…, xn), xi∈D per i=1,...n, un campione di siti e siano Y(x1),…,Y(xn) le corrispondenti
misure ottenute dal campionamento.
Uno stimatore della quantità Y(D)=∫DY(x)dx può essere ottenuto come
con
dove π(x) è chiamata la funzione di densità d’inclusione ed esprime il disegno campionario
(Cordy 1993). Lo stimatore T può essere visto come la generalizzazione al caso di superfici continue
dello stimatore di Horvitz e Thompson (1952), ampiamente trattato dalla letteratura del campionamento
statistico. Una stima della media spaziale
può allora essere ottenuta come
(4)
Più propriamente, dovendosi stimare una quantità aleatoria, i metodi in questione rappresentano delle
previsioni spaziali sulla regione D.
Figura 2 | Mosaico di Voronoi generato dal campione di punti riportato in figura 1-(a).
Un problema ricorrente in molte indagini ambientali è che la funzione π(x) non è definita a priori e non è
specificata analiticamente. In molti casi la densità del campionamento è guidata da criteri qualitativi o
pragmatici per cui, la scelta dei punti di campionamento, è demandata a chi fisicamente si occupa della
campagna più che alla definizione di un disegno analitico e scarsa attenzione è, troppo soventemente,
23
attribuita alla definizione probabilistica del piano campionario. In altri casi, si pensi per esempio all’integrazione
di indagini preesistenti, la scelta dei nuovi siti può avvenire con lo scopo di aggiungere in modo mirato nuove
misurazioni ad un insieme di dati pregressi. In questo caso si trova utile campionare con maggiore intensità
aree dove si erano osservati errori più marcati nella stima delle quantità d’interesse o dove la copertura
campionaria era stata, magari per limiti di budget, troppo scarsa. Una tale strategia per quanto ragionevole,
preclude spesso la possibilità di specificare π(x) in modo analitico. Queste, e altre cause, possono rendere
necessario, per poter implementare lo stimatore in (4), dover stimare il sistema dei pesi.
Lo stimatore considerato nel presente lavoro utilizza un sistema dei pesi stimato mediante il mosaico di
Voronoi (Goovaerts P, 1997). Indicata con V=(V1,…,Vn) la tassellazione della regione d’interesse ottenuta
mediante i poligoni di Voronoi generati dai punti campionari, si pone W(xi)=|Vi| dove Vi è il poligono generato
dalla i-esima locazione campionaria. La figura 2 esemplifica la costruzione del mosaico di Voronoi per
l’insieme di punti simulato nella sezione precedente e raffigurato in figura 1-(a). Applicando la (4) al dataset
simulato della sezione precedente si ottiene una stima pari 11 per la media aggregata di area. Una stima,
quindi, caratterizzata da una distorsione molto inferiore a quella della media aritmetica priva di correzione.
STUDIO DI SIMULAZIONE PER LO STIMATORE CONSIDERATO
In questa sezione si presenta uno studio di simulazione mirato a valutare la performance dello stimatore
suggerito nella sezione precedente. Lo stimatore in questione viene confrontato con altri stimatori
usualmente adoperati nelle applicazioni. In particolare si fa riferimento alla media aritmetica delle misure,
una statistica di sintesi che viene presentata di routine, e alla stima ottenuta tramite una metodologia
geostatistica che va sotto il nome di block-kriging (Chiles e Delfiner, 1999 pag. 195).
Ai fini della simulazione si è ipotizzato che il processo di misura possa essere considerato come la
realizzazione di un processo stocastico Y(x) con x∈D e D quadrato di lato unitario. Oggetto della stima è
cioè la media spaziale della traiettoria del processo.
, dove α1,…,αn sono dei
Il block kriging (BK) è un previsore lineare di Y(D) definito come:
coefficienti di ponderazione (detti pesi del kriging) tali che
. Il vincolo garantisce la proprietà di
correttezza alla previsione ovvero che
. Il previsore in questione è il migliore previsore
lineare nel senso che minimizza la quantità
nella classe dei previsori lineari Y*D di Y(D).
Il valore minimo ottenuto è denominato varianza del kriging. I pesi α1,…,αn sono ottenuti risolvendo le
così dette equazioni del kriging che dipendono dalla struttura di correlazione del campo aleatorio. Questo
significa che per poter calcolare i pesi occorre conoscere la funzione del covarianza o, equivalentemente,
il variogramma del processo. Per i dettagli analitici si rimanda alla letteratura in materia (per es. il già citato
Chiles e Delfiner, 1999). Evidentemente la funzione del variogramma non è nota e, in situazioni reali, deve
essere stimata sulla base delle misure campionarie.
Nella presente analisi di simulazione si è provveduto a generare in modo preferenziale delle misurazioni
campionarie di Y(x) sul quadrato di lato unitario mediante un modello probabilistico. Su ciascun campione
simulato si sono poi calcolati: lo stimatore considerato nella sezione precedente, il BK e la media aritmetica
dei valori simulati. La generazione dei valori Y(x) è avvenuta ipotizzando che Y(x) fosse un campo aleatorio
gaussiano con media costante pari a 10 e con variogramma isotropico wave con soglia pari a 5. La
struttura preferenziale del campionamento è stata ottenuta simulando i punti campionari mediante un
processo di punto di Cox con intensità log-gaussiana. Il processo di Cox è una particolare processo
di punto spaziale che modellizza il verificarsi di eventi aleatori in una regione di R2. La densità dei punti
casuali (eventi) che si verificano nelle diverse regioni del piano è determinata da una funzione aleatoria,
Λ(x), detta intensità, che, nel caso in questione, è stata legata al campo aleatorio Y(x) mediante la relazione
log(Λ(x))=b0+b1Y(x). Questo fa sì che la densità dei punti nello spazio dipenda dal valore del processo
di misura stesso e sia tanto più elevata quanto più elevato il valore delle misurazioni simulate, generando
la struttura preferenziale desiderata. Ho e Stoyan (2008) e Diggle et al. (2010) hanno discusso questa
tematica in dettaglio. La procedura è stata replicata 1000 volte. Su ciascun campione simulato sono stati
calcolati i suddetti stimatori, valutandone:
• la distorsione Monte Carlo percentuale:
• la varianza Monte Carlo:
• l’errore quadratico medio:
dove
;
;
,
dove Tb rappresenta lo stimatore di area di volta in volta considerato calcolato nella b-esima iterazione
24
della simulazione. Per poter calcolare i pesi del kriging e produrre la stima areale tramite BK, si sarebbe
potuto utilizzare il variogramma effettivamente impiegato per simulare i dati rimuovendo, quindi, questa
fonte di errore dalla stime. Tale procedura, tuttavia, è chiaramente inapplicabile nei contesti reali dove il
variogramma non è noto ex ante ma deve essere stimato sui dati rilevati. Si è quindi derivato il valore di
ristimando tramite minimi quadrati ponderati i parametri del variogramma sulla base dei dati simulati,
situazione quest’ultima più vicina alle applicazioni concrete, in modo da valutare quanto, questa componente
di errore, potesse influenzarne la performance. La specificazione analitica del varigramma stimato in
ogni replica Monte Carlo è stata, comunque, quella wave usata in fase di simulazione, risolvendo quindi
l’ulteriore problema, presente invece in un’analisi dei dati reali, di dover identificare la forma funzionale più
appropriata per la struttura spaziale. Le elaborazioni nella presente sezione e nella sezione successiva
sono state effettuate utilizzando il software statistico R (R Development Core Team, 2011). I risultati dello
studio di simulazione sono riportati in tabella 1. Le simulazioni sono state effettuate considerando quattro
livelli diversi di preferenzialità fissando il parametro b1 pari a 0.01 (preferenzialità praticamente assente),
0.25, 0.5 e 0.75 (il parametro b0 è stato mantenuto sempre pari a 0).
Tabella 1 | risultati dello studio di simulazione
media
aritmetica
correzione
poligonale
BK
b1=0.01
media
aritmetica
correzione
poligonale
BK
b1=0.25
V
0.4
0.3
0.4
V
0.6
0.3
0.6
MSE
0.4
0.3
0.4
MSE
1.9
0.4
1.2
RBias (%)
0.1
-0.3
0
RBias (%)
11.5
2.3
7.8
b1=0.5
b1=0.75
V
1.1
0.6
0.9
V
1.4
1
1.2
MSE
5.5
1.2
3.2
MSE
9.2
3.2
6
RBias (%)
20.9
7.6
15.2
RBias (%)
27.9
14.6
21.9
Questi risultati evidenziano come lo stimatore corretto mediante la ponderazione di Voronoi si comporti
sempre meglio della media aritmetica semplice sia in termini di distorsione che di variabilità delle stime
prodotte. Lo stimatore risulta anche superiore allo stimatore kriging allorché si sia in presenza di una
preferenzialità anche moderata. I risultati fanno riferimento al caso in cui il kriging sia derivato ristimando
il variogramma in ciascuna iterazione Monte Carlo. È comunque interessante osservare come anche
derivando il kriging mantenendo la specificazione del variogramma usata per generare i dati, la distorsione
della media corretta con i poligoni di Voronoi è sempre inferiore, in presenza di preferenzialità (casi
b1=0.25, 0.5 e 0.75), a quella del BK sebbene il vantaggio conseguito, in questo caso, sia inferiore.
In effetti la preferenzialità campionaria impatta sensibilmente sulla stima del variogramma. La figura 3
mostra i 1000 variogrammi stimati nel caso b1=0.5 unitamente al variogramma effettivamente utilizzato per
simulare i dati. Risulta evidente come in presenza di una campionamento preferenziale la curva stimata
sia altamente variabile e profondamente distorta: a fronte di un nugget pari a 0, una soglia pari a 5 e un
range pari a 0.1 usati in fase di simulazione, le medie Monte Carlo dei tre parametri ottenute dalle 1000
repliche sono rispettivamente 0.302, 106.12 e 0.82. Il problema della distorsione del variogramma indotta
dal campionamento preferenziale è discusso, tra gli altri, da Diggle et al. (2010) e Olea (2007).
I risultati sopra riportati sono stati confermati anche replicando la sperimentazione per diverse specificazioni
della struttura di dipendenza spaziale sia utilizzando altri modelli di variogramma che valori diversi dei
parametri caratterizzanti di questa funzione.
Infine si è considerato il caso di un campionamento clusterizzato ma non preferenziale. Questo si è
ottenuto simulando il campionamento tramite un processo di Cox la cui intensità è indipendente dalla
simulazione della traiettoria delle misure. Questo scenario di simulazione rappresenta la situazione in
cui le misurazioni risultano essere concentrate in alcune aree del territorio (per effetto, ad esempio, del
naturale raggruppamento degli edifici in cui è possibile effettuare misurazioni indoor), ma la scelta dei
punti di misura non è legata al livello di concentrazione che ci si aspetta di trovare nell’edificio stesso. Si
è infine considerato il caso in cui le locazioni di campionamento siano distribuite in modo uniforme (non
necessariamente, quindi, su una griglia regolare) sulla regione d’interesse.
25
semivariogramma
distanza
Figura 3 | stime del variogramma ottenute via WLS in 1000 repliche Monte Carlo. Sul grafico è evidenziato il variogramma wave usato in fase di generazione dei dati.
Si evidenzia come, aumentando l’incidenza del clustering, si abbia un incremento della varianza, ma
l’effetto sulla distorsione sia modesto. In altri termini questo aspetto del disegno campionario impatta solo
sull’efficienza della stima.
Tabella 2 | risultati dello studio di simulazione: campioni clusterizzati e distribuiti uniformemente sull’area di studio
BK
media aritmetica
correzione
poligonale
BK
media aritmetica
correzione
poligonale
BK
b1=0.75
correzione
poligonale
b1=0.25
media aritmetica
Distribuzione Uniforme
V
0.39
0.34
0.41
0.47
0.32
0.43
1.22
0.58
0.77
MSE
0.39
0.34
0.41
0.47
0.32
0.43
1.22
0.58
0.77
Rbias (%)
-0.06
-0.07
-0.08
0.16
0.13
-0.18
-0.07
0.01
-0.07
APPLICAZIONE ALLE CAMPAGNE DI MISURA LOMBARDE 2003-4 E 2009-10
La metodologia considerata nella sezione precedente è stata applicata ai dati raccolti durante le campagne
di misura condotte da ARPA Lombardia nel 2003-04 e 2009-2010 già citate in precedenza. In particolare si
è fatto riferimento a 2030 rilevazioni effettuate in edifici destinati ad uso abitativo. La dislocazione territoriale
dei punti di misura è riportata in fig. 4, sovrapposta ad una stima del campo delle concentrazioni ottenuta
tramite metodologia kriging come descritto in Borgoni et al. 2011. Appare evidente che i punti di misura
sono più densi nella parte di regione caratterizzata da alte concentrazioni (sfumatura di colore chiaro)
mentre sono più disperse laddove le concentrazioni sono più basse. Questo aspetto si enfatizza in alcune
province, quali ad esempio la provincia di Bergamo evidenziata sulla mappa. Questo era ampiamente
atteso dato il modo in cui sia la prima survey che, soprattutto la secondo, erano state disegnate.
La tabella 3 riporta le stime ottenute utilizzando la ponderazione di Voronoi e le medie aritmetiche semplici
delle concentrazioni di area in quattro province lombarde particolarmente interessanti in quanto caratterizzate
da elevate concentrazioni dell’inquinante e da una popolazione esposta particolarmente numerosa. La
nostra analisi mette in luce come ignorare il problema della preferenzialità del campionamento può indurre
26
sensibili sovrastime degli indicatori medi, anche nell’ordine di alcune decine di Bq/m3. Questo impatto si
ha anche a livello dell’intera regione: la media aritmetica delle misure risulta infatti pari a 142 Bq/m3 mentre,
una volta corretta la stima per tener conto della natura preferenziale della rilevazione, questa si riduce a
117 Bq/m3.
Figura 4 | Dislocazione dei 2030 locali considerati nell’analisi sovrapposti al campo di concentrazione stimato mediante kriging con deriva esterna.
Si osservi infine che l’effetto distorcente del disegno campionario impatta anche su altri parametri della
distribuzione dell’inquinante quali la funzione di ripartizione delle concentrazioni spaziali e, quindi, anche
sulla stima della probabilità di superamento di un determinato valore di riferimento τ. Poiché tale proporzione
rappresenta essa stessa una media, essendo pari a
, dove I(A) è la funzione indicatrice
dell’evento A pari a 1 se A si verifica e 0 altrimenti, si può ricavare una correzione per la stima di queste
probabilità secondo l’approccio descritto in precedenza. Le stime delle probabilità di superamento dei
valori di riferimento di 100, 200 e 400 Bq/m3 sono riportate in tab. 3 in notazione percentuale. Si evidenzia
come l’impatto della correzione risulti rilevante anche in questo caso, soprattutto per le soglie di 200 e i 400
Bq/m3 dove si arriva a riduzioni superiori anche al 50% delle probabilità stimate senza correzione.
Tabella 3 | Stime dei valori medi e delle probabilità di superamento (espresse in percentuale) di valori di riferimento
per quattro province lombarde ottenute utilizzando la correzione per la preferenzialità derivata dal mosaico di Voronoi e in assenza di correzione (semplice).
semplice
correzione
poligonale
semplice
correzione
poligonale
semplice
Milano
correzione
poligonale
Sondrio
semplice
Brescia
correzione
poligonale
Bergamo
174.4
209.4
128.8
169.1
168.0
183.5
80.8
113.1
% > 400 Bq/m
3
10.8
14.9
4.0
8.4
6.0
7.2
1.4
4.2
% > 200 Bq/m
3
27.2
29.8
15.4
21.9
19.0
25.9
5.3
12.5
% > 100 Bq/m
3
49.8
52.9
42.5
47.2
52.8
61.1
27.0
32.1
Media
27
BIBLIOGRAFIA
1. Alberici A, Arrigoni S, Borgoni R, Cugini A, Di Toro M, de Bartolo D, Romanelli M, Tritto V. Campagna di
misura 2009-10 della concentrazione del radon indoor in Lombardia, Atti AIRP- Convegno Nazionale
di Radioprotezione12-14 ottobre 2011
2. Borgoni R, Tritto V, Bigliotto C, De Bartolo D. A Geostatistical Approach to Assess the Spatial
Association between Indoor Radon Concentration, Geological Features and Building Characteristics:
the Lombardy Case, Northern Italy, 2011. International Journal of Environmental Research and Public
Health ISSN 1660-4601www.mdpi.com/journal/ijerph
3. Chiles JP, Delfiner P. Geostatistics: Modeling Spatial Uncertainty. 1999. John Wiley & Sons, New
York
4. Cordy C. An extension of the Horvitz-Thompson theorem to point sampling from a continuous universe.
1993. Statistics and Probability Letters 18, 353-362.
5. Diggle P, Menezes R, Su T. Geostatistical inference under preferential sampling. 2010. Applied
Statistics, 59, 191–232
6. Goovaerts P. Geostatistics for Natural Resources Evaluation, 1997. Oxford University Press, New
York
7. IReR - Istituto Regionale di ricerca della Lombardia – Politiche di sicurezza per lo sviluppo sostenibile
del territorio: rischio reale e percepito. Allargamento ai rischi emergenti in Regione Lombardia - Dossier
Radon, 2010. Milano
8. Ho L, e Stoyan D. Modelling marked point patterns by intensity marked Cox processes. 2008. Statistics
and Probability Letters, 78, 1194–1199.
9. Horvitz, DG e Thompson, DJ. A generalization of sampling without replacement from a finite universe,
1952. Journal of the American Statistical Association, 4, 663-685
10. Olea RA. Declustering of clustered preferential sampling for histogram and semivariogram inference.
2007. Mathematical Geology 39(5):453–467
11. R Development Core Team. R: A language and environment for statistical computing, R Foundation
for Statistical Computing. 2011, Vienna, Austria. ISBN 3-900051-07-0, URL http://www.R-project.org.
28
Articoli
Sistemi informativi territoriali: studio dei parametri correlati alla
distribuzione di radon indoor in Friuli Venezia Giulia
Giovani C.°, Garavaglia M.°, Pividore S.°, Cucchi F.*, Zini L.*
° SOS Fisica Ambientale-LUR-ARPA Friuli Venezia Giulia, Via Colugna 42, 33100 Udine, [email protected]
* Dipartimento di Geoscienze, Università degli Studi di Trieste
INTRODUZIONE
Il territorio del Friuli Venezia Giulia presenta caratteristiche, sia dal punto di vista della concentrazione di
radon indoor che dal punto di vista geologico, che risultano estremamente variabili nell’ambito del territorio
regionale e peculiari in ambito nazionale ed europeo. Le caratteristiche del parco edilizio della regione
risultano essere tali da influenzare notevolmente la concentrazione di radon indoor. Ai fini della definizione
di una mappa di rischio è necessario analizzare le eventuali correlazioni della concentrazione di radon, con
particolare riferimento a quello indoor, con i principali parametri geologici, geomorfologici ed idrogeologici
senza trascurare l’influenza dei parametri edilizi. Nel 2005 ARPA FVG ha avviato un vasto studio per la
definizione delle radon prone areas. Nell’ambito dello studio sono state effettuate più di 10000 misure in
circa 2500 abitazioni private omogeneamente distribuite sul territorio della regione (Giovani et al., 2005,
Garavaglia et al., 2007). Sulla base della mappa di distribuzione della concentrazione di radon indoor
ottenuta, sono state analizzate le eventuali correlazioni con i principali parametri geologici, geostrutturali,
geomorfologici e idrogeologici usando le più recenti informazioni di carattere geologico e sismico disponibili
per il territorio del Friuli Venezia Giulia.
A causa dell’influenza che i parametri edilizi hanno sulla concentrazione di radon indoor, è possibile che
alcune correlazioni con i parametri geologici non vengano evidenziate qualora si studino insiemi di edifici
con caratteristiche costruttive molto diverse. Allo scopo di mettere in luce l’influenza dei parametri geologici
indipendentemente dall’effetto dei parametri edilizi, risulta quindi importante poter costruire sottoinsiemi di
abitazioni con caratteristiche costruttive omogenee, sulla base dei quali ripetere le analisi di correlazione
già effettuate sull’insieme dei dati provenienti dall’intero data base. Per effettuare in maniera efficace queste
operazioni è indispensabile che tutti i dati, edilizi, geologici e di concentrazione di radon, siano inseriti in
un’opportuna banca dati e siano georeferenziati.
Scopo di questo lavoro è quello di dimostrare l’importanza dell’uso dei sistemi informativi territoriali in
questo tipo di studi, fornendo esempi concreti dei risultati in diverse fasi dello studio: dalle analisi
preliminari condotte per il controllo dei dati, prima delle analisi relative all’influenza dei parametri edilizi e
geologici, all’utilizzo per le analisi di distribuzione, agli studi di dettaglio. In particolare sono stati costruiti
ed analizzati due set di abitazioni e sono state redatte e confrontate le relative mappe di distribuzione della
concentrazione di radon indoor.
MATERIALI E METODI
La banca dati utilizzata, costruita in Access 2000, contiene le informazioni sulle caratteristiche edilizie delle
abitazioni oggetto della già citata indagine radon prone areas condotta da ARPA FVG a partire dal 2005.
Per quanto riguarda i valori di radon indoor, il data base complessivo è costituito da circa 2500 valori
di concentrazione media annua misurati in altrettante abitazioni e derivanti dai risultati di 4 misure per
abitazione: 2 dosimetri per abitazione per ogni semestre di misura. Tutti le misure sono state effettuate
con rivelatori a tracce CR39 e tutti i dati sono stati georeferenziati in coordinate Gauss Boaga. Sono stati
inoltre utilizzati: la cartografia geologica regionale in formato digitale, consultabile on line presso il sito della
Regione Autonoma del Friuli Venezia Giulia ed alcuni pacchetti di software commerciali quali l’Arcview 3.2
ed il Golden Software Surfer 8 (2000) oltre ai pacchetti di Microsoft Office 2003.
29
RISULTATI
Influenza dei parametri edilizi e geologici sulla distribuzione della concentrazione del radon
E’ stata effettuata un’analisi qualitativa preliminare alle analisi per la ricerca di eventuali correlazioni tra la
concentrazione di radon indoor ed i principali parametri edilizi e geologici. Tale analisi preliminare aveva
lo scopo di garantire la significatività delle analisi di correlazione che sarebbero seguite. In particolare,
poiché si volevano indagare separatamente due gruppi di parametri, entrambi capaci di influenzare la
concentrazione del radon indoor, ciò che si voleva garantire era che i dati sui quali si andavano ad effettuare
le analisi statistiche, risultassero distribuiti geograficamente in maniera omogenea sul territorio. In questa
fase di lavoro, il GIS si è rivelato uno strumento utilissimo.
Sono state effettuate analisi di due tipi: la prima preliminare alle analisi di correlazione tra la concentrazione
di radon indoor ed i parametri edilizi relativi alle abitazioni in cui la concentrazione era stata misurata e
la seconda preliminare alla ricerca di correlazione tra la concentrazione di radon indoor ed i parametri
geologici. Di seguito vengono riportati alcuni esempi.
Poiché per le analisi di statistica descrittiva i dati vengono disaggregati in funzione dei diversi parametri
edilizi dell’abitazione alla quale fanno riferimento, è importante verificare che la distribuzione sul territorio
sia sufficientemente omogenea da garantire la rappresentatività geografica dei set di dati che verranno in
seguito confrontati. Si veda, a scopo esemplificativo, la figura 1, in cui è riportata una vista del GIS in cui
è stata effettuata l’operazione di selezione, dalla tabella degli attributi in cui sono contenuti i dati relativi
alla concentrazione media di radon nei singoli siti, dei soli siti in cui gli edifici hanno la caratteristica di
presentare la tipologia di contatto con il suolo definita “soletta controterra”. Questa selezione permette di
verificare immediatamente che il numero di dati su cui verranno in seguito effettuate le analisi statistiche
è sufficientemente elevato (1260 su 2457 totali) e che i dati sono uniformemente distribuiti sul territorio
regionale.
Figura 1 | Esempio di vista di Arcview 3.2 per lo studio preliminare all’analisi statistica relativa a parametri edilizi
Il confronto tra la concentrazione media di radon misurata negli edifici che presentano una “soletta
controterra” e quella misurata negli edifici che non hanno questa caratteristica risulterà quindi del tutto
consistente.
Analogamente sono state effettuate le altre analisi preliminari relative a tutti i parametri edilizi oggetto di
indagine. Alcuni esempi sono riportati in tabella 1 e figura 2: in tabella 1 viene riportato il confronto tra i valori
medi delle concentrazioni di radon rilevate in locali differenziati tra loro in base al tipo di separazione tra il
suolo ed il locale stesso mentre in figura 2 è riportata la distribuzione dei siti con diversa separazione suolo/
edificio. Quest’ultima può essere considerata sufficientemente omogenea da garantire che le differenze
30
riportate in tabella 1 siano effettivamente dovute alla differenza del tipo di separazione tra suolo ed edificio
piuttosto che a differenze nei parametri geologici locali.
Tabella 1 | Confronto tra i valori medi delle concentrazioni di radon rilevate in locali differenziati tra loro in base al
tipo di separazione tra il suolo e il locale stesso
Tipo di
separazione tra
suolo e locale
Media annua sito
(Bq/m3)
Deviazione
Standard sito
(Bq/m3)
Numero
siti
Soletta controterra
188
209
1095
Intercapedine
144
179
270
Locale
116
116
244
Figura 2 | Distribuzione siti con diversa separazione tra suolo e locale: soletta contro terra (verde); intercapedine
(rosso) e locale interrato seminterrato (giallo).
I parametri edilizi che influenzano maggiormente la concentrazione di radon indoor in Friuli Venezia Giulia
sono risultati essere i seguenti: la presenza o meno di locali interrati o seminterrati, il tipo di contatto tra
il suolo e l’edificio; la presenza di pietra nei muri portanti e l’anno di costruzione. In conclusione, questo
strumento si è dimostrato molto efficace anche allo scopo di scegliere i parametri edilizi da analizzare,
permettendo di individuare subito il numero dei campioni di ogni sottoinsieme di dati e la distribuzione dei
dati stessi sul territorio regionale.
In figura 3 è riportato un esempio relativo allo studio preliminare alla ricerca di correlazione tra la distribuzione
della concentrazione di radon indoor ed i parametri geologici di interesse.
In questo caso ciò che viene evidenziato, dopo opportuna selezione, è il numero di siti e la posizione degli
stessi all’interno di un determinato tema. Nell’esempio riportato in figura vengono contati i siti all’interno di
due temi relativi alla permeabilità del substrato: il carsismo e la presenza di substrato sciolto. Numero e
posizione di questi siti sono facilmente confrontabili con gli altri siti del data set che giacciono su substrato
roccioso. Nella stessa schermata, come per l’esempio di figura 1, è possibile eseguire una prima analisi
statistica sul set di dati selezionato.
31
Figura 3 | Esempio di vista di Arcview 3.2 per lo studio preliminare all’analisi statistica relativa a parametri geologici
Sono risultate significative le correlazioni tra la concentrazione di radon indoor e la tessitura e permeabilità
del suolo oltreché con il particolare fenomeno del carsismo. D’altra parte non sono state invece trovate
significative correlazioni con altri parametri geologici o geofisici quali l’età delle rocce, la distanza o la
densità di lineamenti tettonici e la sismicità (Giovani et al., 2007).
Costruzione di un data set standard per l’analisi dettagliata dei dati
Allo scopo di creare i diversi set di dati, sono state considerate le caratteristiche edilizie che sicuramente
influenzano la concentrazione di radon indoor in Friuli Venezia Giulia. Tali caratteristiche, risultano essere,
come già visto nel paragrafo precedente: la presenza o meno di locali interrati o seminterrati, il tipo di
contatto tra il suolo e l’edificio; la presenza di pietra nei muri portanti e l’anno di costruzione, con particolare
riferimento al terremoto distruttivo che si verificò in regione nel 1976. Sulla base di questi risultati sono
stati definiti due set di dati che hanno caratteristiche edilizie, relativamente alle categorie già citate, tali da
rendere, rispettivamente, massime (set A) e minime (set B) le concentrazioni di radon indoor.
Il set A è costituito da 456 abitazioni in cui è stata misurata la concentrazione di radon indoor in due locali
per due semestri consecutivi. Nel data base sono state inserite le concentrazione medie annue di ogni sito
(media sui due locali e sui due semestri di misura). Le caratteristiche edilizie degli edifici appartenenti al
primo set di dati sono:
• assenza di interrati o seminterrati;
• contatto diretto tra il suolo e l’edificio (“soletta controterra”);
• presenza di pietra nei muri portanti;
• data di costruzione precedente al 1976.
Il set B è costituito da 392 siti, in cui le abitazioni hanno caratteristiche costruttive che rendono minime le
concentrazioni di radon indoor. Le caratteristiche individuate sono le seguenti:
• presenza di interrato o seminterrato;
• assenza di pietra nelle pareti portanti;
• anno di costruzione posteriore al 1976.
32
Entrambi i set sono costituiti da un numero sufficientemente grande di campioni da permettere analisi di
distribuzione della concentrazione di radon indoor. Si è ritenuto opportuno eseguire un test preliminare
qualitativo, con l’utilizzo del GIS, per verificare l’omogeneità della distribuzione dei siti di misura, per i due
set di dati, sul territorio regionale. In linea di principio, infatti, era possibile, anche considerando le diverse
caratteristiche geomorfologiche e climatiche della regione Friuli Venezia Giulia, che, a diverse zone della
regione, corrispondessero diverse caratteristiche edilizie (ex. assenza di interrati o seminterrati nella bassa
Friulana o presenza massiccia di pietra nei muri delle abitazioni di montagna). Ciò avrebbe evidentemente
falsato le analisi relative alla distribuzione della concentrazione di radon indoor per i due set di dati ed
all’eventuale correlazione con i parametri geologici. Tuttavia, fortunatamente, in entrambi i set di dati, i siti di
misura sono risultati omogeneamente distribuiti sul territorio regionale (vedi figura 4).
Dopo il citato controllo sono state fatte le analisi di distribuzione della concentrazione di radon indoor per i
due set di dati mediante interpolazione con il metodo dei vicini naturali (SURFER 8 Golden Software, inc.).
Figura 4 | Posizione dei siti appartenenti rispettivamente al set A (rosso, concentrazione massima, 456 siti) ed al set
B (verde, concentrazione minima, 392 siti)
Si riporta in figura 5, per chiarezza di esposizione e per un opportuno confronto, la mappa della distribuzione
della concentrazione media annua di radon indoor costruita sulla base dell’insieme di tutte le abitazioni
oggetto della campagna radon prone areas.
La concentrazione media per le abitazioni appartenenti al set A (213±238 Bq/m3) è, come atteso,
significativamente superiore a quella relativa alle abitazioni appartenenti al set B (89±94 Bq/m3). In figura 6
(a e b, relative rispettivamente ai set A e B), sono riportate le mappe di distribuzione della concentrazione
media annua di radon indoor per i due set di dati.
Risulta interessante il fatto che le due distribuzioni, aldilà delle differenze nei valori medi delle concentrazioni,
siano significativamente diverse.
Figura 5 | Mappa della distribuzione della concentrazione media annua di radon per la regione Friuli Venezia Giulia
33
Figura 6 | Distribuzione della concentrazione di radon indoor rispettivamente per il set A (figura a) e per il set B (figura b)
Per mettere maggiormente in evidenza le differenze di distribuzione della concentrazione nelle due mappe,
sono state costruite altre due particolari mappe di distribuzione. La prima di queste, riportata in figura 7a,
è stata costruita dopo una normalizzazione effettuata sui set A e B sulla base del valor medio di ciascun
set di dati ed in essa è riportata la distribuzione delle differenze, in valore assoluto, tra le concentrazioni
normalizzate dei due set di dati. Nella figura 7b, sono riportate, in colore diverso, le differenze positive e
quelle negative della mappa di figura 7a.
Sono state poi confrontate, sempre con riferimento ai due set di dati, le mappe di distribuzione della
concentrazione di radon indoor con riferimento ad alcuni parametri geologici ed è stato possibile osservare
ancora differenze sia nei valori medi delle concentrazioni per i diversi set, come previsto sulla base della
costruzione dei set stessi, sia nella distribuzione della concentrazione, con valori massimi e minimi in
diverse posizioni per i due set di dati. Come esempio vengono riportati alcuni dei risultati: in figura 8, sono
riportate le distribuzioni della concentrazione di radon indoor nelle abitazioni costruite, rispettivamente,
su substrato roccioso, su substrato sciolto e sulla sola copertura quaternaria per i set A (figure a, in alto)
e B (figure b, in basso).
Figura 7 | Distribuzione delle differenze della concentrazione di radon normalizzata alla media per i set a e b (a) e
distribuzione delle differenze positive e negative (b)
34
Figura 8 | Distribuzione della concentrazione di radon indoor nelle abitazioni appartenenti ai set A (figure a, in alto) e
B (figure b, in basso) rispettivamente costruite su substrato roccioso, substrato sciolto e copertura quaternaria
Roccia
Substrato sciolto
Quaternario
Anche in questo caso si può notare come non solo le concentrazioni medie, come atteso, siano diverse
per i set A e B, ma anche le distribuzioni mostrino significative differenze. L’analisi di correlazione tra
concentrazione di radon indoor e parametri geologici effettuata su questi set di dati, quindi, potrebbe dare
risultati diversi da quella effettuata sui dati relativi a tutti gli edifici oggetto della campagna radon prone
areas.
35
CONCLUSIONI
Sulla base degli esempi riportati, l’utilizzo di data set standard costruiti creando sottoinsiemi di abitazioni con
caratteristiche edilizie omogenee, dal punto di vista dell’influenza che queste hanno sulla concentrazione
di radon indoor, risulta di fondamentale importanza qualora si vogliano ricercare le eventuali correlazioni
di alcuni parametri geologici sulla distribuzione della concentrazione del radon indoor. Inoltre la creazione
di data set con concentrazioni di radon normalizzate sulla base dei parametri edilizi, potrebbe risolvere i
problemi che possono sorgere da eventuali numerosità troppo scarse del campione una volta che siano
stati individuati sottoinsiemi di abitazioni costituiti da edifici con particolari caratteristiche edilizie su un
determinato territorio regionale. Analisi di questo tipo, effettuate su un insieme normalizzato di circa 2500
dati, come quello relativo ai dati provenienti dalla campagna radon prone areas del Friuli Venezia Giulia,
potrebbero evidenziare l’influenza di particolari parametri geologici sulla distribuzione spaziale del radon
sul territorio regionale, che potrebbero non essere risultati significativi durante l’analisi effettuata sul set
complessivo di dati non normalizzati.
Per quanto riguarda il dettaglio dei risultati emersi dall’analisi dei dati provenienti dalla campagna radon
prone areas condotta in Friuli Venezia Giulia, essi sono riportati in diversi lavori (Giovani et al., 2007,
Garavaglia et al., 2007).
Gli autori vogliono piuttosto fissare l’attenzione sull’importanza dello strumento utilizzato nell’ambito dello
studio condotto. Il sistema informativo territoriale è stato utilizzato in tutte le fasi dello studio:
• nella strategia di campionamento, nella definizione delle maglie e nell’estrazione del campione;
• nel posizionamento dei dosimetri e nella georeferenziazione dei siti;
• nella restituzione e nella pubblicazione dei dati;
• nei controlli preliminari sui set di dati da analizzare;
• nella creazione di nuovi set standard di dati;
• nella ricerca di correlazione della concentrazione di radon con parametri edilizi e geologici;
• nell’analisi della distribuzione della concentrazione del radon e nelle elaborazioni geostatistiche.
Il dettaglio applicativo nelle diverse fasi (Giovani C., 2011) è stato per brevità omesso a favore dei risultati
considerati più significativi che sono stati riportati. Va tuttavia sottolineato che sarebbe stato molto più
oneroso, ed in molti casi impossibile, eseguire lo stesso studio senza l’ausilio del SIT. Le potenzialità del
SIT creato sono molteplici, ad esempio: utilizzo a fini amministrativi (definizione sul Bollettino Ufficiale
Regionale delle radon prone areas, creazione di mappe di rischio, ecc.) ed epidemiologici; creazione di
mappe nazionali ed europee, analisi geostatistiche ecc.
Va infine ricordato che nello svolgimento di questo lavoro sono stati utilizzati soltanto pacchetti software
commerciali e facilmente reperibili sul mercato. Ad oggi sono inoltre accessibili prodotti GIS (sistemi
informativi territoriali) gratuiti perfettamente compatibili con software ed hardware normalmente in uso
presso gli enti pubblici.
BIBLIOGRAFIA
1. Giovani C., Garavaglia M., Montanari F., Villalta R., 2005 Il progetto radon prone areas in Friuli Venezia
Giulia, 2005 – Atti del Convegno Nazionale di Radioprotezione “La radioprotezione nella ricerca. La
ricerca nella radioprotezione” ISBN 88-88648-03-08, Catania 15-17 settembre 2005, sessione V, o5,
2005
2. Giovani C., Cucchi F., Nadalut B., 2007 – La distribuzione del radon indoor in Friuli Venezia Giulia:
aspetti geologici – Atti del Convegno Nazionale AIRP, Vasto 1-3 ottobre 2007
3. Garavaglia M., Giovani C., Nadalut B., Piccini L., Pividore S., Velcich G., 2007 - Radon prone areas: i
primi risultati in Friuli Venezia Giulia - Atti del Convegno Nazionale AIRP, Vasto 1-3 ottobre 2007
4. Giovani C., 2011, Uso dei sistemi informativi territoriali per lo studio della distribuzione della
concentrazione di radon e dei parametri ad essa correlati in Friuli Venezia Giulia, Tesi di Dottorato in
geomatica e sistemi informativi territoriali, XXIII ciclo, Università degli Studi di Trieste
36
Articoli
Aspetti di radioprotezione nell’ambito delle gammagrafie industriali
Giovani C., Garavaglia M., Di Marco P., Piccini L.
SOS Fisica Ambientale-LUR-ARPA Friuli Venezia Giulia
Via Colugna 42, 33100 Udine, [email protected]
INTRODUZIONE
In Italia esistono numerose aziende che effettuano controlli non distruttivi mediante radiografia o
gammagrafia. Le situazioni indagate sono le più diverse: vengono effettuati controlli su saldature
all’interno di aziende, a bordo di navi, su metanodotti o ponti, ecc. Sebbene in alcuni casi, ad esempio nei
cantieri navali, tali attività vengano eseguite mediante sorgenti che risiedono stabilmente all’interno degli
stabilimenti stessi, spesso tali sorgenti viaggiano anche per centinaia di chilometri sul territorio nazionale
per raggiungere i luoghi di utilizzo.
Da alcuni anni la Struttura Operativa Semplice Fisica Ambientale di ARPA Friuli Venezia Giulia, è impegnata
nel campo del monitoraggio sulle attività relative ai controlli non distruttivi eseguiti mediante sorgenti
gamma sul proprio territorio. Obiettivo di questo lavoro è quello di mettere in luce, sulla base dell’esperienza
maturata dagli autori in questo campo, una serie di problematiche e di criticità relative al trasporto ed
alla conservazione delle sorgenti utilizzate in gammagrafia industriale, alle modalità di esecuzione dei
controlli ed alle possibilità di vigilanza da parte degli enti pubblici sulle suddette attività. L’obiettivo verrà
perseguito attraverso l’analisi di due situazioni reali che vengono considerate adatte all’illustrazione delle
problematiche citate: lo svolgimento di controlli gammagrafici sulle saldature di una nave in costruzione e
le modalità di conservazione delle sorgenti per gammagrafia industriale di una ditta autorizzata all’attività
di controllo.
In tabella 1 sono riportati i dati, forniti ad ARPA FVG da ISPRA, relativi ai trasporti di sorgenti radioattive
per controlli industriali non distruttivi sul territorio regionale. Sebbene i dati riportati siano incompleti, si può
notare come il fenomeno sia tutt’altro che marginale.
Tabella 1 | Numero di trasporti di sorgenti radioattive usate per controlli industriali non distruttivi sul territorio delle
province di Udine e Gorizia.
2005
2006
2007
2008
2009
2010
Gorizia
33
20
9
26
6
320
Udine
- - -*
- - -*
- - -*
258
77
- - -*
*dati non disponibili
DESCRIZIONE DEI CASI
Caso 1: esecuzione dei controlli gammagrafici
Il personale della SOS Fisica Ambientale di ARPA FVG viene allertato a causa di una segnalazione dei VVF
che erano intervenuti in un’area cantieristica per un principio d’incendio. I contatori Geiger della squadra
NBCR casualmente intervenuta avevano segnalato un’improvvisa impennata dei valori di radiazione
gamma. La fonte veniva identificata in un’area adiacente a quella in cui operavano i VVF, nella quale
si stavano svolgendo controlli gammagrafici sulle saldature di una nave in costruzione; a questo punto
veniva richiesto l’intervento di ARPA FVG che portava sul posto alcune unità di personale della Struttura
Operativa Semplice Fisica Ambientale.
Lo sviluppo delle successive indagini condotte da ARPA FVG congiuntamente ai VVF ha evidenziato che
nella realizzazione delle gammagrafie erano coinvolte 3 ditte diverse, ciascuna in possesso di 2 apparecchi,
per una complessiva presenza sul posto di n.3 sorgenti di 192Ir e n.3 sorgenti di 75Se, con un’attività totale
dell’ordine di alcune migliaia di GBq.
L’attività di controllo, svolta da ARPA FVG e da personale dei VVF e sviluppatesi nell’arco di alcune giornate
37
lavorative, ha permesso di evidenziare una serie di criticità ed inadempienze che vengono di seguito
riportate.
1. Poiché non era stato redatto un piano di lavoro complessivo e le tre ditte operavano individualmente
su parti diverse della nave, nello stesso momento, era teoricamente possibile il contemporaneo utilizzo
di più sorgenti all’interno del volume della nave con conseguente rischio per gli operatori sia all’interno
che all’esterno della nave stessa.
2. Spesso non venivano utilizzati collimatori.
3. Non erano state effettuate valutazioni di dose per gli operatori del cantiere che operavano esternamente
alla nave, o su altre navi presenti nel bacino, neppure nelle condizioni più critiche di esposizione quali
l’effettuazione di controlli nei pressi delle balconate della nave con direzione del fascio verso l’esterno
della stessa.
4. Sulla base dei controlli effettuati è risultato che una buona parte dei lavoratori si accingeva a svolgere
la propria attività senza avere con sé il dosimetro personale, “dimenticato” all’interno degli automezzi.
5. Con riferimento alle dichiarazioni rese nei Piani di Sicurezza circa il rimessaggio degli apparecchi per
gammagrafia al di fuori delle sessioni lavorative: 1 ditta è risultata perfettamente adempiente; 1 ditta
è stata considerata adempiente per mancanza di elementi oggettivi contrari, anche se in presenza
di forti sospetti; 1 ditta è stata trovata inadempiente relativamente agli obblighi di conservazione,
comunicazione e trasporto di materiale radioattivo.
Caso 2: modalità di conservazione delle sorgenti per gammagrafia industriale
Sulla base dell’episodio riportato nel paragrafo precedente, nel corso del 2010 e del 2011 ARPA FVG ha
effettuato una decina di altri controlli, presso altrettante ditte detentrici di nulla osta all’utilizzo di sorgenti di
gammagrafia industriale per controlli non distruttivi o cantieri presso cui tali controlli venivano effettuati. Il
caso di seguito descritto, inizialmente analizzato sulla base della richiesta di nuovo nulla osta da parte di
una ditta, ha generato un lungo procedimento tecnico-amministrativo, che ha visto operare congiuntamente
ARPA FVG e VVF, si è concluso con la modifica in senso restrittivo del nulla osta prefettizio rilasciato alla
ditta oggetto del controllo.
Dalle verifiche effettuate, infatti, è emersa una realtà di conservazione delle sorgenti estremamente
precaria:
1. il pozzetto in cemento che conteneva le sorgenti era situato in campo aperto, chiuso da un coperchio
in acciaio dotato di un banale lucchetto, in prossimità di un’abitazione e di un’area ad uso pubblico
collettivo, attrezzata con alcuni giochi per bambini (vedi figure 1 e 2);
2. la schermatura delle sorgenti era realizzata con fogli di piombo alcuni dei quali di volta in volta
collocati nel pozzetto ad avvolgere gli apparecchi gammagrafici ed uno appoggiato sopra il coperchio
d’acciaio;
3. non è risultato in essere alcun sistema atto alla vigilanza del sito, peraltro non fisicamente perimetrato
su un lato;
4. le misure antincendio presenti si presentavano sottodotate rispetto a quelle previste nella Relazione
dell’Esperto Qualificato e senza manutenzione, la segnaletica insufficiente e realizzata fuori norma;
5. non è stato reperito il dosimetro ambientale previsto.
Figura 1 | Pozzetto di deposito sorgenti per controlli gammagrafici non distruttivi
38
Figura 2 | Segnaletica relativa al pozzetto di figura 1
A partire dall’esperienza sopra descritta e dai successivi sviluppi è iniziata, da parte di ARPA FVG, la
pratica sistematica del sopralluogo ai fini della stesura del parere tecnico richiesto dal D. Lgs. 230/95 (art.
29, comma 2 e Allegato IX, cap. 5 par. 5.2) per il rilascio del nulla osta prefettizio alla detenzione e uso di
materiale radioattivo. Successive esperienze hanno dimostrato l’importanza della scelta effettuata.
DISCUSSIONE
L’esperienza lavorativa relativa ai casi descritti ed alla considerevole attività che essi hanno generato in
questo campo da parte di ARPA FVG, ha permesso di mettere in luce limiti e difficoltà nell’esecuzione
dell’attività di controllo. Le difficoltà possono essere ricondotte a 3 ambiti che vengono nel seguito analizzati:
normativo; logistico-amministrativo; regolamentare interno ad ARPA FVG.
1. Per quanto riguarda l’ambito normativo, le principali difficoltà derivano in parte dal testo del Decreto
Legislativo 230/95 laddove, per esempio, nell’Allegato IX (cap. 7, par. 7.2, lettera b), punto 1), si fa
obbligo di inserire nel nulla osta la specifica prescrizione “di informare, almeno quindici giorni prima
dell’inizio dell’impiego in un determinato ambito, gli organismi di vigilanza territorialmente competenti”,
senza indicare che l’evento deve essere esattamente definito nel tempo e la comunicazione stessa ha
valenza per il singolo evento lavorativo; ciò comporta il ricevimento di comunicazioni molto generiche
che di norma indicano che, nell’ambito dell’anno solare in corso, saranno eseguiti, per un determinato
committente, i controlli non distruttivi che quest’ultimo di volta in volta richiederà: ciò rende ben evidente
che nessuna attività di verifica potrà essere esperita né la sicurezza generale risulterà realmente
migliorata con siffatte comunicazioni, in quanto la presenza effettiva di sorgenti radiogene sul posto, in
caso di accadimenti incidentali, non è né certa né escludibile.
2. Una delle problematiche di difficile soluzione in ambito logistico-amministrativo è relativa al fatto che
l’attività di gammagrafia/radiografia industriale eseguita nei cantieri di lavoro è soggetta a grande
variabilità in quanto segue l’attività del cantiere, da cui risultano gli oggetti da sottoporre a controllo
gamma/radiografico; pertanto può succedere che la prevista sessione lavorativa con impiego di
sorgenti radiogene subisca ricollocazioni temporali anche all’ultimo momento, obbligando così
a riprogrammare anche il previsto sopralluogo di verifica ispettiva, a questo fatto si affianca poi la
necessità dell’autorizzazione all’accesso all’area, se i controlli non distruttivi si svolgono nel quadro di
un’attività lavorativa più vasta.
Sulla base dell’esperienza risulta inoltre scoperta l’attività di controllo sul rispetto delle modalità di
trasporto delle sorgenti radiogene, ad esempio la verifica che vengano effettuati percorsi esterni ai
centri abitati, che adeguata segnaletica venga esposta sugli automezzi, ecc. Alcuni episodi accaduti
nei 2 anni di attività in questo campo inducono gli autori a ritenere che quanto previsto dalla normativa
e/o dal principio di precauzione sia abbondantemente disatteso, almeno con riguardo ai due aspetti
citati relativi ai percorsi extraurbani ed all’obbligo di esposizione di opportuna segnaletica.
3. Un ulteriore aspetto da migliorare è quello regolamentare, interno ad ARPA FVG ma probabilmente
esistente anche per le altre agenzie regionali per l’ambiente, legato agli orari di lavoro del personale.
39
L’attività di verifica dei controlli gammagrafici non distruttivi infatti, nella maggior parte dei casi si svolge
in fasce orarie notturne o festive, fatto che consente di operare con le sorgenti di radiazioni ionizzanti
in un contesto meno popolato e, quindi, meno problematico dal punto di vista della sicurezza; per
contro il personale ARPA è costretto a operare in regime di straordinario lavorativo, che prevede un
iter autorizzativo suo proprio e la possibilità che, per esaurimento dei fondi previsti a bilancio, il lavoro
straordinario non possa essere retribuito e quindi eseguito.
Il bilancio dei primi anni di lavoro di ARPA FVG nel campo del monitoraggio svolto sia sull’attività, già in
essere, di trasporto e utilizzo di sorgenti radiogene per controlli industriali non distruttivi, che per le nuove
attività produttive che prevedono impiego di sorgenti radiogene di categoria B, è composto da attività e da
passività. Tra le prime riportiamo:
a) l’aver attivato un’attività ispettiva effettiva, quantunque discontinua e con ampi margini di miglioramento,
sul territorio;
b) l’effetto (modesto) di deterrenza che questa attività ha determinato;
c) l’aver instaurato rapporti di collaborazione con altri Enti, coinvolti a vario titolo nella materia, primi fra tutti
le Prefetture e il Corpo Nazionale dei Vigili del Fuoco.
Tra le “passività” devono essere inseriti:
a) la bassa numerosità dei controlli ispettivi;
b) l’efficacia e l’efficienza non ottimali degli stessi, dovute, in parte, alla poca esperienza nel settore
ispettivo del personale ARPA FVG coinvolto: detto personale, infatti, proviene da esperienze prettamente
laboratoristiche e analitiche;
c) la mancanza di una sinergia efficace con altri Enti di controllo, quali le Aziende Sanitarie e gli Ispettorati
Provinciali del Lavoro, le forze di Polizia Giudiziaria.
Sulla base di quanto esposto è possibile identificare alcune linee generali che dovranno essere seguite nel
prosieguo del lavoro in questo settore.
Innanzitutto sarà necessario ricavare certezze in termini normativi: interpretazione corretta e condivisa della
legge, definizione certa dei percorsi sanzionatori, parificazione del livello di controllo ispettivo tra le aziende
del settore che hanno sede sul territorio regionale e ditte esterne alla regione: la realizzazione di questo
obiettivo sarà importante al fine di non creare disparità di trattamento e, quindi, turbative nella corretta
concorrenza tra i due tipi di soggetti. Tuttavia sono evidenti le difficoltà di realizzazione di questo obiettivo
sia in ambito regionale che nazionale: da una parte le difficoltà sono causate dal numero di enti, ciascuno
con la propria competenza, coinvolti a vario titolo e dall’altra potrebbero esserci ulteriori difficoltà di tipo
tecnico dovute alla necessità di definire protocolli operativi comuni e condivisi in un ambito relativamente
nuovo e poco conosciuto dagli operatori del settore.
Un altro capitolo da affrontare è la collaborazione tra ARPA FVG e tutti gli altri Enti di controllo coinvolti:
Prefetture, Vigili del Fuoco, Aziende Sanitarie, Ispettorati Provinciali del Lavoro. Da questa collaborazione
dovrà risultare, possibilmente, un protocollo operativo che definisca, per le competenze di ciascuno, il
percorso di sviluppo dell’attività successiva all’ispezione sul posto, che rappresenta il naturale punto di
partenza dell’attività stessa.
Sarebbe inoltre utile poter analizzare i dati relativi a tutti i trasporti e alle destinazioni di sorgenti radiogene
per controlli industriali non distruttivi sul territorio della regione Friuli Venezia Giulia. Ciò porterebbe ad una
maggiore conoscenza della realtà del territorio ed una maggiore consapevolezza dell’entità del problema
e permetterebbe una pianificazione dei controlli più efficace.
Un altro aspetto da tenere in considerazione, ancorché non di competenza di ARPA FVG, riguarda la verifica
dell’effettiva formazione del personale in forza alle ditte e chiamato all’esecuzione pratica dei controlli
industriali non distruttivi: tali persone sembrano ignorare, nei fatti, i pericoli a cui si offrono esponendosi a
dosi di radiazione che potrebbero, invece, evitare con una pratica più attenta e consapevole.
La numerosità dei controlli gammagrafici normalmente eseguiti anche su un territorio relativamente piccolo
come quello del Friuli Venezia Giulia e l’ordine di grandezza dell’attività delle sorgenti coinvolte, rendono
evidente l’importanza dell’esecuzione dei controlli in questo campo. Un altro fattore che spinge in questo
senso è la disinvoltura e, spesso, l’incoscienza che dominano sovente la conservazione, il trasporto
e l’utilizzo di queste sorgenti, cosicché non è raro trovare, presso i depositi autorizzati, inadempienze
grossolane inerenti la vigilanza del posto, le misure di prevenzione incendi, la minimizzazione delle
esposizioni accidentali, così come non è raro trovare automezzi che, con sorgenti a bordo, non espongono
la dovuta segnaletica oppure stazionano nei parcheggi, insieme agli altri autoveicoli o, ancora, impegnano
percorsi interni ai centri urbani anche quando, con poco sforzo, potrebbero evitarli.
40
CONCLUSIONI
In conclusione, da quanto fin qui esposto si evince come a volte, sulla base di una normativa chiara nelle
intenzioni ma non nelle parole, sia facile da parte delle aziende che effettuano i controlli gammagrafici ed
eventualmente di quelle presso le quali i controlli vengono eseguiti, eludere la vigilanza degli enti pubblici.
Inoltre vengono evidenziate alcune carenze nel rispetto delle normative sul trasporto e sulla conservazione
delle sorgenti. La progettazione delle attività, con particolare riguardo alla radioprotezione dei lavoratori e
del pubblico, risulta a volte inesistente o comunque inconsistente. Le situazioni più critiche sono risultate
quelle in cui più aziende operano contemporaneamente in una stessa realtà senza alcuna pianificazione
comune.
Sulla base dell’esperienza che ARPA FVG si è fatta in questo campo, le attività di cui si parla in questo lavoro
risultano, attualmente, probabilmente quelle che comportano il maggior rischio in termini di esposizione
della popolazione e dei lavoratori (sia dal punto di vista della “safety” che della “security”). Al tempo stesso
esse risultano, paradossalmente, tra quelle su cui vengono effettuati, per motivi diversi, meno controlli da
parte delle autorità pubbliche.
Gli autori, nel sottoporre a discussione la proprie osservazioni e le proprie modalità di lavoro in questo
campo, si pongono l’obiettivo di favorire una discussione che possa portare ad un tavolo di lavoro con
lo scopo di migliorare le attività di controllo, e, se possibile, uniformare tali attività sul territorio nazionale,
costringendo al tempo stesso le aziende a lavorare meglio salvaguardando la salute dei propri dipendenti
e della popolazione.
BIBLIOGRAFIA
1. Circolare del Ministero della Sanità del 3 febbraio 1987 n. 2 “Direttive agli organi regionali per
l’esecuzione di controlli sulla radioattività ambientale”
2. D.lgs. 17 marzo 1995 n. 230 e s.m.i. “Attuazione delle direttive 89/618/Euratom, 90/641/Euratom, 92/3/
Euratom e 96/29/Euratom in materia di radiazioni ionizzanti”
3. D.lgs. 26 maggio 2000, n. 241 “Attuazione della direttiva 96/29/EURATOM in materia di protezione
sanitaria della popolazione e dei lavoratori contro i rischi derivanti dalle radiazioni ionizzanti”
4. D.lgs. 6 febbraio 2007, n. 52 “Attuazione della direttiva 2003/122/CE Euratom sul controllo delle
sorgenti radioattive sigillate ad alta attività e delle sorgenti orfane”
41
Articoli
Misure di 90Sr per effetto Cerenkov impiegando
un rivelatore a scintillazione liquida:
possibile utilizzo in caso di emergenza nucleare
M.C. Losana, G. Garbarino, M. Magnoni
Arpa Piemonte, Dipartimento Tematico Radiazioni, Via Jervis 30, 10015 IVREA (TO),
[email protected]
INTRODUZIONE
L’effetto Cerenkov è un ben noto fenomeno che avviene quando una particella carica (nel nostro caso le
particelle β) viaggia in un mezzo a una velocità maggiore di quella della luce nel mezzo stesso. Il mezzo
infatti si polarizza al passaggio della particella e, ritornando alla situazione di quiete, emette fotoni nel
campo della luce visibile (luce “blu”). Essendo la velocità della luce in un mezzo data da il rapporto tra la
velocità “c” della luce nel vuoto e l’indice di rifrazione “n” del mezzo, l’effetto Cerenkov si può avere solo
quando vβ > c/n.
L’uso di rivelatori concepiti per la scintillazione liquida è particolarmente indicato anche per la misura
dell’effetto Cerenkov, in quanto i fotoni blu emessi hanno una lunghezza d’onda compatibile con i
fotomoltiplicatori. La preparazione del campione risulta poi molto semplice: è sufficiente riempire una
fiala (20 ml) da scintillazione col campione in esame e metterla in conteggio. I fotoni prodotti per effetto
Cerenkov verranno direttamente rivelati dai fotomoltiplicatori senza l’ausilio di liquidi scintillanti.
L’impiego dell’effetto Cerenkov in misure di radioattività ambientale può essere particolarmente utile per
quei radionuclidi che emettono particelle β ad alta energia senza emettere raggi gamma. Uno di questi
radionuclidi è lo 90Sr, noto per la sua elevata radiotossicità, per la cui determinazione si deve normalmente
ricorrere a trattamenti radiochimici piuttosto lunghi e complessi prima di giungere al conteggio radiometrico.
Ne consegue una dilatazione dei tempi di analisi dell’ordine dei giorni, circostanza che può essere una
grave limitazione in caso di emergenza radiologica e nucleare. Per questo motivo, la ricerca e la messa a
punto di metodi rapidi per la misura dello 90Sr nelle matrici ambientali e alimentari è un tema di particolare
interesse. In questo lavoro vengono presentati alcuni risultati preliminari su misure dello 90Sr mediante
effetto Cerenkov nell’acqua e nel latte.
MATERIALI E METODI
La condizione soglia vβ > c/n per cui si ha l’effetto Cerenkov può essere espressa in termini di energia
cinetica della particella β (espressa in keV), dalla seguente disuguaglianza:
(1)
Inserendo nella (1) i valori degli indici di rifrazione dei mezzi considerati si possono ottenere le condizioni
Cerenkov in termini di energia della particella β per alcuni mezzi specifici. Considerando i valori degli indici
di rifrazione per l’acqua nacqua= 1,3329 e per il latte nlatte= 1,3440 si ha:
• acqua
EβC > 261,9 keV
• latte
EβC> 253,8 keV
A partire dallo spettro β di ciascun radionuclide si può dunque, in linea di principio, calcolare la frazione
di particelle che sono in grado di produrre effetto Cerenkov. Possiamo infatti definire come “frazione
Cerenkov” la quantità rC:
(2)
43
dove N(E) è la funzione densità che descrive lo spettro di ciascun radionuclide. Il calcolo della (2) è nella
pratica piuttosto laborioso perché necessita della conoscenza esplicita della funzione N(E), che dipende a
sua volta dalla funzione di Fermi fc(Z,E) che deriva dalla teoria del decadimento β. Tuttavia, per le applicazioni
che qui interessano, cioè la misura dello 90Sr in matrici ambientali e alimentari liquide, conviene in prima
battuta adottare un approccio sperimentale, considerando quei radionuclidi che potenzialmente possono
interferire nella misura e andando semplicemente ad osservare gli spettri Cerenkov che si ottengono.
Lo 90Sr, se considerato in equilibrio secolare con l’90Y, è uno dei radionuclidi per i quali l’effetto Cerenkov è
più pronunciato. Infatti entrambi sono degli emettitori β puri con, rispettivamente, Εβmax = 544 keV e Εβmax =
2270 keV. Complessivamente abbiamo infatti un valore della frazione Cerenkov piuttosto elevato rC = 0,61,
cioè il 61% dei raggi β emessi dal sistema 90Sr/90Y genera effetto Cerenkov. Bisogna comunque tenere
presente che, visto il valore relativamente basso delle soglie Cerenkov definite dalla (1), sono parecchi i
radionuclidi, sia naturali che artificiali, potenzialmente interferenti, sia pure con valori di rC più bassi.
Possiamo ricordare, tra i radionuclidi naturali, quelli che hanno più probabilità di produrre effetto Cerenkov,
in quanto hanno emissioni beta con energia massima dello spettro β > 1000 keV: 40K, 228Ac, 212Bi, 208Tl,
234m
Pa, 214Pb e 210Bi. Nei campioni acquosi, tuttavia, la concentrazione di questi radionuclidi è generalmente
molto bassa e possono quindi essere trascurati. Nei campioni di latte, invece, possono essere trascurati
solamente i radionuclidi appartenenti alle serie dell’238U e del 232Th, mentre il 40K, contenuto nel latte in
quantità variabile da circa 10 Bq/kg a 70-80 Bq/kg, non può essere trascurato (Rao D.D., Mehendarge S.T.,
Chandramouli S., Hegde A.G., Mishra U.C., 2000).
Per quanto riguarda gli aspetti sperimentali, tutte le misure sono state effettuate con un contatore a basso
fondo Quantulus della Perkin Elmer. Sono state sempre utilizzate fiale di polietilene “low diffusion” da 20
ml (Vaca F., Manjon G., Garcia-Leon M., 1998) con tempo di conteggio fissato a 480 minuti. Vista la natura
essenzialmente fisica della produzione di luce Cerenkov, non è necessario controllare il grado di acidità
del campione, come nella scintillazione liquida tradizionale. L’assenza di liquido scintillante e l’ininfluenza
dell’acidità del campione semplificano e riducono i tempi di preparazione del campione, molto importanti
in caso di emergenza. Un aspetto importante è stata la definizione della migliore modalità di misura. Il
Quantulus ha infatti diverse modalità di misura: modalità trizio per rivelare particelle beta a bassa energia,
modalità carbonio per rivelare particelle beta a energia maggiore e modalità di discriminazione per la
rivelazione simultanea di particelle alfa e particelle beta. In base ai risultati delle prove effettuate si è scelto
di utilizzare la modalità di discriminazione simultanea alfa/beta, considerando come segnale gli impulsi
catalogati come beta.
CAMPIONI ACQUOSI
DEFINIZIONE DEL BIANCO
Per la definizione del bianco sono state effettuate parecchie misure di acque di diversa provenienza, sia
potabili che non potabili. Il campione è stato analizzato tal quale. Nella tabella seguente sono riportati i
campioni più significativi tra i 24 analizzati. Si osserva che per i campioni ricchi di radioattività naturale
(per esempio acqua Garbarino dalle terme di Lurisia – CN) è stato registrato un numero di conteggi
leggermente maggiore. Ciò è probabilmente dovuto alla presenza di emettitori beta di origine naturale
che, come abbiamo visto, producono effetto Cerenkov. Sono state considerate diverse finestre spettrali e
per ognuna sono stati calcolati la media e lo scarto dei conteggi ottenuti dai differenti campioni. Si osserva
che lo scarto percentuale dei conteggi è minimo per la finestra 250-350 canali. E’ stato inoltre verificato che
il parametro di quenching SQP ha un valore medio di 285 ± 10%.
44
Tabella 1 | Conteggi di bianco in diverse finestre spettrali per differenti campioni acquosi (sono riportati come
esempio sei dei ventiquattro campioni analizzati).
cpm
Finestra
ch 150-400
Finestra
ch 200-400
Finestra
ch 300-400
Finestra
ch 320-400
Finestra
ch 250-350
1
Fiume Po
Casale M.to (AL)
1,095
0,599
0,120
0,074
0,226
2
Lago Maggiore
Stresa (VB)
1,070
0,589
0,120
0,082
0,228
6
Pioggia
Samone (TO)
1,222
0,690
0,095
0,068
0,266
7
Acqua potabile
Ivrea (TO)
1,211
0,667
0,106
0,076
0,279
18
Acqua termale
Roccaforte M.vì (CN)
1,929
1,026
0,232
0,118
0,397
24
Acqua minerale
Ferrarelle
1,463
0,825
0,133
0,093
0,298
media
1,203
0,682
0,125
0,081
0,275
scarto medio
0,231
0,117
0,030
0,016
0,045
scarto medio %
19,19
17,17
24,14
19,54
16,16
TARATURA
Campioni tracciati con 90Sr/90Y all’equilibrio
Sono stati tracciati vari campioni acquosi con una sorgente di 90Sr all’equilibrio con 90Y, a diverse
concentrazioni. Come si nota dalla Figura 1 lo spettro Cerenkov si distingue molto bene dallo spettro del
bianco, fino a concentrazioni dell’ordine del Bq/kg.
Con i medesimi dati è stata verificata la linearità della risposta per concentrazioni da 11 Bq/kg a 220
Bq/kg, ottenendo un buon risultato (coefficiente R2 > 0,99). Con queste rette è stato possibile calcolare
un’efficienza del 17,2% nella finestra tra 250 e 350 canali (finestra in cui i conteggi dei vari campioni di
bianco variano meno) e del 5,4% nella finestra tra 300 e 400 canali (Figura 2).
Figura 1 | Spettri Cerenkov ottenuti da fiale di acqua tracciate con 90Sr/90Y a diverse concentrazioni.
45
Figura 2 | Rette di taratura per 90Sr/90Y in acqua in due differenti finestre di conteggio.
Con i conteggi di bianco medi nella finestra 250–350 canali e un’efficienza del 17,2% si ottiene una MAR
(Minima Attività Rivelabile) di 0,55 Bq/kg, mentre con i conteggi di bianco medi nella finestra 300–400
canali e un’efficienza del 5,4% si ottiene una MAR di 1,25 Bq/kg, un valore decisamente peggiore rispetto
a quello ottenuto per la finestra 250-350 canali. L’utilizzo della finestra 300–400 canali permette però di
discriminare meglio il contributo del sistema 90Sr/90Y da quello di altri emettitori beta, come verrà illustrato
nel paragrafo successivo.
Campioni tracciati con 40K e altri emettitori beta
Il lavoro svolto su fiale tracciate con il sistema 90Sr/90Y è un utile punto di partenza per lo studio dell’effetto
Cerenkov, ma è abbastanza lontano dalla situazione che si presenta nella realtà. In casi di emergenza
nucleare, infatti, sono presenti in genere molti radionuclidi differenti e difficilmente in equilibrio tra di loro,
almeno nelle prime fasi dell’emergenza stessa. Lo stesso sistema 90Sr/90Y non è inizialmente all’equilibrio
e quindi non è corretto attribuire l’attività calcolata tramite effetto Cerenkov (prodotto essenzialmente
dall’90Y) allo 90Sr. Per ovviare a questo problema occorrerebbe quindi effettuare due tarature separate per
lo 90Sr e l’90Y. Tuttavia, anche risolvendo questo problema, resta la difficoltà maggiore, cioè la presenza di
radionuclidi interferenti: si tratta di radionuclidi emettitori beta, diversi da 90Sr e 90Y, e che possono produrre
effetto Cerenkov. Per cercare di valutare questo problema sono stati tracciati dei campioni di acqua con
40
K (Εβmax=1310 keV) e con altri radionuclidi, utilizzando una vecchia sorgente multi picco comunemente
utilizzata per la taratura di spettrometri gamma, contenente inizialmente 241Am, 109Cd, 57Co, 139Ce, 113Sn,
137
Cs, 88Y, 60Co. Di fatto, a causa del decadimento e delle caratteristiche di emissione di questi radionuclidi
241
(l’ Am è un emettitore alfa), possono essere considerati come radionuclidi interferenti i soli 137Cs e 60Co.
Nella Figura 3 sono riportati i relativi spettri. Si può osservare che gli spettri ottenuti da soluzioni di 40K e
emettitori beta vari sono “schiacciati” verso le basse energie rispetto a quelli ottenuti dalle soluzioni di
90
Sr/90Y. Infatti si esauriscono approssimativamente nei primi 300 canali, mentre quelli prodotti da 90Sr/90Y
giungono attorno al canale 400. Per questo motivo, nonostante la minore efficienza, è sembrato più
opportuno prendere come finestra di conteggio Cerenkov quella tra i 300 e i 400 canali, per la quale è più
agevole discriminare il contributo dello 90Sr/90Y da quello di altri radionuclidi.
46
Figura 3 | Spettri Cerenkov ottenuti da fiale di acqua tracciate con 40K, emettitori beta vari e 90Sr/90Y.
Lo spettro in verde è stato ottenuto da una soluzione contenente vari emettitori beta tra cui 137Cs (161 Bq/kg) e 60Co
(129 Bq/kg). Si osserva come nella finestra 300-400 canali ci sia solamente il contributo dello 90Sr/90Y e non più quello
degli altri beta emettitori. Quindi la finestra 300-400 canali permette di discriminare la componente dovuta allo 90Sr/90Y
da quella dovuta ad altri radionuclidi.
Verifica della taratura
Sono state infine tracciate, sia con 90Sr/90Y che con la sorgente multi picco sopra citata, due campioni di
acqua. Applicando la taratura elaborata si è risaliti alla concentrazione di 90Sr/90Y aggiunta. Nella tabella
seguente sono riportati i risultati ottenuti. Nella Figura 4 sono invece riportati gli spettri relativi alla Fiala 1.
Si vede chiaramente che la curva rossa, relativa alla fiala che contiene sia 90Sr/90Y (52,61 Bq/kg) che altri
emettitori beta (tra cui 55 Bq/kg di 137Cs e 43 Bq/kg di 60Co), è la somma di quella gialla, relativa alla fiala
contenente solo 90Sr/90Y e di quella verde, relativa alla fiala contenente solo gli altri emettitori beta.
Tabella 2 | Concentrazioni misurate di 90Sr/90Y in fiale contenenti anche altri emettitori beta.
Finestra utilizzata
300 – 400 canali
Conteggi di bianco
0,125 ± 0,030 cpm
Tempo conteggio
480 minuti
Efficienza
0,054 ± 0,005 1/Bq
cpm finestra
300-400 canali
Attività misurata 90Sr/90Y
Bq/kg
Attività nota 90Sr/90Y
Bq/kg
Fiala 1
3,159 ± 0,123
54,60 ± 11,16
52,61 ± 4,58
Fiala 2
0,329 ± 0,026
3,75 ± 1,62
2,09 ± 0,18
Figura 4 | Spettri Cerenkov ottenuti da fiale di acqua tracciate con solo 90Sr/90Y, solo altri emettitori beta o entrambi.
47
CAMPIONI DI LATTE
Lo studio del latte è stato effettuato con la stessa metodologia utilizzata per l’acqua. Per il latte tuttavia non
è stato ancora possibile effettuare una taratura vera e propria, in quanto rispetto all’acqua presenta delle
difficoltà maggiori, dovute essenzialmente alla forte opacità del latte alla luce e alla maggiore presenza
di interferenti. Data l’opacità del campione, l’analisi del parametro di quenching SQP è di fondamentale
importanza per poter fare una taratura. Per quanto riguarda gli interferenti, il latte è in generale più
radioattivo dell’acqua e quindi ha maggiori possibilità di contenere radionuclidi che possono produrre
effetto Cerenkov (radionuclidi naturali e soprattutto 40K). D’altra parte, però, il latte assorbe maggiormente
i fotoni rispetto all’acqua. Lo spettro di un campione di latte sarà quindi il risultato di questi due fenomeni
che agiscono in maniera opposta.
DEFINIZIONE DEL BIANCO E RUOLO DEL 40K
Anche con i campioni di latte sono state effettuate numerose prove di bianco (in totale 17). Nella tabella
seguente (simile alla Tabella 1 relativa ai campioni acquosi) vengono riportati i valori medi e i relativi scarti
ottenuti in differenti finestre di conteggio. E’ stato inoltre osservato che il parametro di quenching SQP è
molto variabile (anche con scarti di circa il 40%): ciò potrebbe dipendere dal diverso tipo di latte (intero,
parzialmente scremato, ecc.) e soprattutto dal grado di conservazione.
Tabella 3 | Conteggi di bianco in diverse finestre spettrali per differenti campioni di latte.
cpm
Finestra ch 200-400
Finestra ch 250-350
Finestra ch 300-400
media
0,357
0,103
0,037
deviazione
standard
0,215
0,037
0,014
deviazione
standard %
60,29
35,76
38,27
Nella figura sottostante sono confrontati uno spettro di bianco di acqua e uno di latte. L’opacità del latte
fa sì che lo spettro di bianco sia più schiacciato verso le basse energie rispetto a uno spettro di bianco
dell’acqua. Il maggior numero di conteggi presenti nel bianco di latte si concentra quindi nei primi canali
dello spettro (fino al canale 150 circa) creando un vero e proprio picco. Tuttavia la causa di questo picco
potrebbe non essere la radioattività naturale contenuta nel latte stesso, ma bensì un effetto di luminescenza
dovuto all’assorbimento della luce (Stamoulis K.C., Ioannides K.G., Karamanis D.T., Patiris D.C., 2007):
esso è infatti presente in tutti i campioni di latte indipendentemente dal tipo di radioattività contenuta
(90Sr/90Y e altri beta emettitori, in particolare il 40K).
Figura 5 | Spettri di bianco di acqua e di latte. Fino al canale 150 circa i conteggi di bianco del latte sono superiori a
quelli dell’acqua. Dal canale 150 in poi accade il contrario.
48
CAMPIONI TRACCIATI CON EMETTITORI BETA
Campioni tracciati con 90Sr/90Y all’equilibrio
Sono stati tracciati campioni di latte con 90Sr/90Y a concentrazioni crescenti. Come si nota dalla figura
seguente, lo spettro Cerenkov è ben visibile rispetto allo spettro di bianco fino a concentrazioni dell’ordine
di una decina di Bq/kg. A concentrazioni inferiori lo spettro risulta molto simile a quello di bianco e
difficilmente distinguibile. Per l’acqua invece è possibile distinguere uno spettro dallo spettro di bianco
anche a concentrazioni di qualche Bq/kg.
Figura 6 | Spettri Cerenkov ottenuti da fiale di latte tracciate con 90Sr/90Y a diverse concentrazioni.
Campioni tracciati con altri radionuclidi emettitori beta
Sono inoltre state tracciate fiale con altri radionuclidi emettitori beta utilizzando una sorgente multi picco
utilizzata per la taratura di spettrometri gamma, analogamente a quanto fatto per l’acqua. Come si può
osservare dalla figura seguente gli spettri delle fiale tracciate (con attività variabili tra circa 10 Bq/kg e 30
Bq/kg sia per il 137Cs che per il 60Co) non si distinguono da quello della fiala di bianco: l’attività utilizzata è
probabilmente troppo modesta per determinare un incremento dei conteggi dello spettro. L’opacità del
latte infatti fa sì che la luce Cerenkov prodotta dalle particelle beta di 137Cs e 60Co, meno energetiche, venga
assorbita prima di raggiungere i fotomoltiplicatori, mentre ciò non accade per le particelle ad alta energia
prodotte dallo 90Sr/90Y.
Figura 7 | Spettri Cerenkov ottenuti da fiale di latte tracciate con 90Sr/90Y e altri emettitori beta a diverse concentrazioni
(tra 10 Bq/kg e 30 Bq/kg).
49
CONCLUSIONI
La rivelazione della luce Cerenkov impiegando un contatore per scintillazione liquida consente una
determinazione quantitativa dello 90Sr all’equilibrio con 90Y in campioni acquosi, anche in presenza di
altri radionuclidi interferenti. In caso di emergenza questa tecnica può essere una valida alternativa ai
metodi tradizionali per la misura dello 90Sr. Infatti, essa comporta dei tempi di risposta decisamente più
brevi, a scapito di una sensibilità meno buona (MAR dell’ordine del Bq/kg contro i mBq/kg delle tecniche
radiochimiche tradizionali). Una sensibilità dell’ordine del Bq/kg è comunque ampiamente sufficiente in
caso di emergenza: basti ricordare che i limiti imposti per lo 90Sr dai regolamenti europei sugli alimenti
in caso di emergenza sono 125 Bq/kg per i prodotti lattiero caseari e i liquidi, 75 Bq/kg per gli alimenti
per l’infanzia e 750 Bq/kg per gli altri alimenti (Regolamento EURATOM n° 3954/87 del 22-12-1987 e
Regolamento EURATOM n° 2218/89 del 18-07-1989). Analogamente all’acqua è anche stato studiato
il latte. La maggior complessità del campione, dovuta all’opacità e alla maggiore presenza di possibili
radionuclidi interferenti, ha fatto sì che per il latte non si sia ancora arrivati a una vera e propria taratura e alla
definizione della relativa MAR. Si è comunque in grado di rilevare nel latte la presenza di 90Sr all’equilibrio
con 90Y fino a concentrazioni dell’ordine della decina di Bq/kg. In conclusione si può affermare che la
misura di 90Sr/90Y mediante effetto Cerenkov si è dimostrata un valido strumento di screening, in situazione
di emergenza, per la scelta dei campioni sui cui effettuare la radiochimica classica.
Per il futuro sono in programma approfondimenti sperimentali teorici per quantificare le MAR anche per la
matrice latte e per estendere questi risultati a tutti i possibili radionuclidi interferenti.
BIBLIOGRAFIA
1. Rao D.D., Mehendarge S.T., Chandramouli S., Hegde A.G., Mishra U.C., Application of Cherenkov
radiation counting for determination of 90Sr in environmental samples, 2000, Journal of Environmental
Radioactivity 48.
2. Vaca F., Manjon G., Garcia-Leon M., Efficiency calibration of a liquid scintillation counter for 90Y
Cherenkov counting, 1998, Nuclear Instruments and Methods in Physics Research A 406.
3. Stamoulis K.C., Ioannides K.G., Karamanis D.T., Patiris D.C., Rapid screening of 90Sr activity in water
and milk samples using Cherenkov radiation, 2007, Journal of Environmental Radioactivity 93.
50
Articoli
Misura dell’attività alfa-beta totale nelle acque mediante LSC:
influenza dello spillover e ottimizzazione dei parametri sperimentali
Forte M., Rusconi R., Badalamenti P., Costantino S., Lunesu D.
ARPA Lombardia, via Juvara 22,20129 Milano (MI), [email protected]
INTRODUZIONE
La misura dell’attività alfa e beta totale nelle acque ad uso potabile mediante scintillazione liquida (LSC)
con discriminazione alfa/beta rappresenta un utilissimo metodo di screening, oggi largamente impiegato
per una prima, rapida valutazione della qualità radiometrica delle acque e come strumento decisionale
relativo ad eventuali approfondimenti analitici (Kleinschmidt 2004, Happel S. et al. 2004, Wong 2005, Forte
2005 e 2007, Salonen 2006a, Ruberu 2008).
Nonostante questa tecnica sia ampiamente consolidata, e in alcuni casi recepita come standard (ASTM
2006, UNI 2008, ISO 2010) essa presenta criticità intrinseche che devono essere opportunamente
valutate. Alcuni di questi problemi sono indipendenti dalla procedura specifica adottata e sono dovuti
sostanzialmente a due ragioni:
• normalmente non è noto quali radionuclidi sono presenti nel campione. I differenti radionuclidi potenzialmente presenti possono presentare diverse efficienze di conteggio, specie nel caso dei radionuclidi
beta emettitori. Inoltre il punto di lavoro ottimale per una buona discriminazione degli alfa emettitori dai
beta emettitori è differente per i radionuclidi di diversa energia.
• la composizione del campione e i reagenti utilizzati nel suo pretrattamento (acidi minerali) modificano
lo spegnimento (quenching), influenzando l’efficienza di rivelazione e la discriminazione degli impulsi
originati dalle emissioni alfa e beta. La non corretta classificazione degli impulsi alfa e beta, denominata
interferenza alfa/beta (in inglese misclassification o spillover), origina un errato computo dei conteggi
che va corretto o comunque valutato (Swemkow 2001).
Sono stati effettuati numerosi studi per valutare la dipendenza dello spillover dalla composizione del
campione (Sanchez-Cabeza 1992 e 1995, Pates 1994 e 1998, Salonen 2006b, Pujol 1997, DeVol 2007)
ma i risultati ottenuti, pur offrendo utili indicazioni per comprendere la natura del fenomeno, risultano
difficilmente utilizzabili per controllare efficacemente i parametri che possono alterare l’accuratezza delle
misure ovvero per applicare adeguate correzioni al risultato.
Recentemente sono state effettuate più puntuali valutazioni dell’influenza dello spillover sul risultato della
determinazione (Rusconi 2006; Zapata 2012). Dall’esame della letteratura scientifica appare evidente che
un forte elemento di criticità dell’analisi è legato all’interferenza alfa/beta che, a sua volta appare influenzata
dalla composizione del campione. Le stesse procedure normate (UNI 2008, ISO 2010) prescrivono
condizioni stringenti nella preparazione del campione, in particolare per quanto riguarda l’acidificazione.
Scopo del presente lavoro è di valutare in modo sistematico l’influenza della composizione del campione
sulla interferenza alfa/beta, e quindi sull’accuratezza, pertanto effettuando un’analisi di robustezza del
metodo. I risultati preliminari di questo lavoro sono stati presentati nell’ultimo convegno internazionale di
scintillazione liquida LSC2010 (Forte 2010).
MATERIALI E METODI
Le determinazioni sperimentali sono state effettuate mediante uno scintillatore Quantulus 1220 (Perkin
Elmer). Sono state usate fiale per scintillazione in polietilene teflonato Zinsser SLD, come cocktail scintillante
Quicksafe 400 (Zinsser). Le soluzioni di riferimento certificate di 236U e di 241Am sono state fornite da Eckert
& Ziegler, quella di 90Sr da Cerca-Framatome. Le sorgenti di 40K sono state ottenute per dissoluzione di KCl
(purezza 99.995%, Alfa Aesar), precedentemente essiccato a 200 °C. Tutti i reagenti utilizzati sono di grado
analitico. Le sorgenti ad acidità nota sono state ottenute utilizzando soluzioni di HNO3 0,5 M e HCl 1 M, a loro
volta ottenute dalla diluizione degli acidi concentrati e titolate alla fenolftaleina contro una soluzione di NaOH
51
0,1 M (Merck). Il pH delle sorgenti è stato ottenuto per calcolo, considerata la quantità di acido aggiunta.
La procedura adottata per la preparazione e la misura dei campioni è la UNI 11260: sono stati trasferiti
nel vial di scintillazione 8 mL di soluzione acquosa (contenente lo standard radioattivo ed una quantità
nota di acido e/o di sale) e 12 mL di cocktail scintillante. Il vial è stato posto in conteggio per un tempo
sufficiente e dipendente dalla quantità di radionuclide. Gli intervalli di conteggio scelte per la finestra alfa
erano compresi tra i canali 500 e 700, per quella beta tra i canali 500 e 1000.
RISULTATI E DISCUSSIONE
CURVE DI INTERFERENZA E PUNTO DI LAVORO
Inizialmente sono state ricavate le curve di interferenza dai valori delle interferenze τα e τβ in funzione dei
diversi valori del parametro di discriminazione (PSA) impostato sullo strumento (UNI 2008). Per ogni misura
si è calcolato il valore del parametro τα (interferenza alfa), definito come la frazione dei conteggi prodotti
da particelle alfa che sono registrati erroneamente nel canale di conteggio beta quando si misura un
emettitore alfa puro (Rusconi 2006).
(1)
dove:
Cα:
conteggi netti nel canale di conteggio alfa
Cβ:
conteggi netti nel canale di conteggio beta.
Sono state impiegate sorgenti di 236U e di 241Am diluite in HNO3 0,03 M, corrispondente a pH 1,7, e preparate
secondo le modalità sopra descritte.
Analogamente è stata calcolata l’interferenza beta τβ misurando sorgenti di beta emettitori (40K e 90Sr in
equilibrio secolare con 90Y). I risultati sono riportati in Fig. 1.
Figura 1 | Curve di interferenza alfa e beta
Si può notare che mentre il comportamento dei beta emettitori è simile a prescindere dalla loro energia, le
curve riferite agli alfa emettitori 236U e 241Am sono diverse e danno luogo a differenti punti di intersezione,
sia per quanto riguarda il “punto ottimale di lavoro” (PSA, in ascissa) che per quanto riguarda il valore di
interferenza minimo (in ordinata). Dal momento che gli alfa emettitori normalmente presenti in acqua hanno
energie più prossime a quelle del 236U che a quelle del 241Am (Tab. 1), abbiamo scelto di utilizzare per le prove
descritte più oltre 236U come alfa emettitore e 90Sr come beta emettitore, ed impostare come punto di lavoro
il parametro PSA corrispondente alla intersezione delle rispettive curve . Queste impostazioni sono state
utilizzate per tutte le prove seguenti.
Tabella 1 | Energia dei radionuclidi utilizzati per la taratura
Radionuclide
241
5,49
U
4,49
K
1.31*
Sr
0.54*
236
40
90
90
Emissione (MeV)
Am
Y**
2.28*
* energia massima ** in equilibrio con Sr
90
52
EFFETTO DELLA COMPOSIZIONE CHIMICA SULLA INTERFERENZA
Sono stati successivamente preparati una serie di campioni tracciati rispettivamente con 236U e 90Sr secondo
le modalità sopradescritte e acidificati in modo crescente con acido nitrico. I valori delle interferenze
(rispettivamente τα e τβ) sono riportati in Fig. 2. Le concentrazioni di acido sono riportate in molarità di acido
nitrico (M) e ne è stato considerato un range molto ampio, tenuto conto che i valori variano da 0,004 M a
0,48 M, corrispondenti rispettivamente a pH 2,5 e pH 0,3.
Figura 2 | Influenza dell’acidità su interferenza e quenching (236U e 90Sr)
Si può notare che, mentre per il radionuclide beta emettitore τβ rimane quasi costante, nel caso dell’alfa
emettitore l’aumento di τα è rapido e marcato. Nel grafico viene anche riportato il parametro di spegnimento
fornito dallo strumento (SQPe, in canali, con la sua incertezza valutata sperimentalmente in ± 5 canali).
In altri tipi di scintillatore liquido si utilizzano differenti parametri per monitorare lo spegnimento, come ad
esempio il tSIE nel caso degli strumenti prodotti precedentemente dalla Packard. Si può notare come il
parametro di quenching SQPe rimanga sostanzialmente costante in tutto il range di misura. Lo spegnimento
valutato attraverso il parametro SQPe quindi, in questo caso, non rappresenta un utile indicatore della
variazione della interferenza alfa.
Successivamente è stato paragonato l’effetto sulla interferenza dell’aggiunta di acidi di diverso tipo:
sono stati presi in esame l’acido cloridrico, altro acido di uso molto comune, e l’acido metansolfonico.
Quest’ultimo è strutturalmente analogo all’acido solforico ma è un acido monoprotico come i precedenti.
Sono state effettuate anche delle aggiunte di cloroformio Quest’ultimo non è un acido ma un solvente
organico comunemente utilizzato in letteratura (come anche il tetracloruro di carbonio) in qualità di agente
quenchante. In Fig.3 sono stati riportati i risultati ottenuti per l’interferenza alfa. I valori dell’interferenza beta
rimangono pressoché costanti e non sono stati inseriti in figura per chiarezza.
Figura 3 | Influenza di differenti acidi su interferenza alfa (236U)
53
Il grafico evidenzia come l’effetto dell’aggiunta di acido cloridrico e metansolfonico sull’interferenza, a
differenza di quello dell’acido nitrico, sia pressoché nullo. Il cloroformio produce invece una marcata
influenza sia sull’interferenza che sullo spegnimento, come ben monitorato dal parametro SQPe (Figura
4). Questo spiega perché si sia spesso tentato (Sanchez-Cabeza 1992, Pates 1996, Salonen 2006b) di
mettere in relazione l’interferenza con lo spegnimento.
L’altra componente rilevante nella composizione chimica dei campioni è la carica salina che può variare
notevolmente nelle acque potabili (da poche decine di mg/L ad oltre il g/L). Per quanto siano sempre
presenti molti tipi di cationi, normalmente quello più abbondante è Ca2+. Nel presente lavoro sali di calcio
sono stati impiegati per investigare l’effetto dei solidi disciolti. Sono stati esaminati due set di campioni
marcati, uno acidificato con HNO3 a pH 1,5 (HNO3 0,03 M, rappresentativo della procedura standard di
preparazione), un altro acidificato con HNO3 a pH 2,5, in cui la concentrazione di acido è dieci volte più
bassa (0,003 M). Sfortunatamente non è possibile preparare campioni completamente privi di acido in
quanto questo è presente nella soluzione di riferimento certificata come stabilizzante. Anche in questo caso
sono riportati (Figura 5) i soli risultati per l’interferenza alfa in quanto l’interferenza beta risulta costante.
A questi set sono stati aggiunte quantità variabili di sali di calcio, sia nella forma di calcio nitrato (in cui
l’anione nitrato è comune a quello dell’acido nitrico e va in pratica a sommarsi a questo), sia nella forma
di calcio cloruro (in cui non è presente ulteriore anione nitrato). Il secondo caso è più rappresentativo della
situazione reale delle acque in cui la presenza di anioni nitrato è molto limitata.
Figura 4 | Relazione tra parametro di quenching (SQPe) e interferenza alfa
Figura 5 | Influenza dei sali sull’interferenza alfa (236U )
54
Si osserva che l’aggiunta di calcio nitrato produce un rapido aumento dell’interferenza, specie a pH
1,5, quando cioè è gia presente una apprezzabile quantità di anione nitrato derivante dall’acido nitrico.
L’effetto dell’aggiunta di calcio cloruro sull’interferenza è invece trascurabile anche a concentrazioni
relativamente elevate (la concentrazione massima raggiunta è 0,48 M, corrispondente a 53 g/L di CaCl2).
La concentrazione di catione calcio, quindi, influenza in modo trascurabile l’interferenza mentre l’aumento
dell’anione nitrato produce un marcato aumento della stessa. Questa conclusione è coerente con quanto
verificato per l’aggiunta di diversi tipi di acido.
SCELTA DELLE CONDIZIONI DI LAVORO
Le prove precedenti permettono di stabilire delle condizioni di lavoro entro cui la variazione dell’interferenza
è ritenuta accettabile. L’influenza del residuo totale delle acque, qui simulata con l’aggiunta di sali di calcio,
può essere considerata trascurabile, va comunque tenuto presente che la concentrazione del campione
per riscaldamento ed evaporazione non deve mai essere spinto al punto da provocare precipitazione
dei composti in soluzione. Nella procedura da noi adottata abbiamo cautelativamente scelto di fissare
in 0,5 g/L il limite superiore di residuo totale per procedere alla concentrazione 10:1 del campione per
evaporazione (concentrazione finale 5 g/L).
L’acidificazione del campione, necessaria alla sua stabilizzazione, specialmente se è prevista una
concentrazione per riscaldamento, deve essere controllata accuratamente, ed in particolare quando venga
impiegato acido nitrico. Le condizioni di lavoro indicate dalla norma UNI 11260 (pH 1,7 ± 0,3) e ISO 11704
(1,7 ± 0,2) (UNI 2008, ISO 2010), applicate alle nostre circostanze sperimentali, sono tali da contenere
l’interferenza alfa/beta entro il 4% (Fig. 6). Bisogna tuttavia tener presente che, dalle prove effettuate,
l’aumento dell’interferenza non appare correlato tanto al pH quanto alla concentrazione di anione nitrato,
quindi, in casi particolari in cui, date le caratteristiche dell’acqua, sia necessario aggiungere una maggior
quantità di acido per ottenere il pH richiesto, va verificato, ad esempio dall’esame degli spettri, che non si
siano prodotte anomalie dovute ad un elevato aumento dell’interferenza.
Figura 6 | Interferenza alfa/beta e pH (HNO3)
INFLUENZA DELL’INTERFERENZA SULL’INCERTEZZA E SULL’ACCURATEZZA
Una volta noto il valore dell’interferenza alfa e beta, è possibile tenerne conto nell’espressione del risultato
(ASTM 2006). I conteggi netti alfa effettivi Ceff α si ottengono sottraendo dai conteggi netti totali nel canale alfa
quelli originati dal decadimento beta e finiti erroneamente nel canale alfa (Cβ* τβ) e aggiungendovi i conteggi
netti originati dal decadimento alfa e finiti erroneamente nel canale beta (Cα* τα, come rappresentato nella
formula (2)
Ceff α= Cα– Cβ* τβ+ Cα* τα
(2)
La formula completamente esplicitata che consente di ricavare l’attività è riportata altrove (Rusconi 2006).
Ricavandone le derivate parziali, è possibile stimare i contributi all’incertezza delle diverse componenti.
55
Dall’esame dei risultati precedentemente ottenuti si è valutato che, fissando un intervallo di lavoro tra 1,4
e 2,0 per il pH (con acido nitrico) e tra 0 e 5 g/L per i sali disciolti (residuo fisso), ci si può attendere: τα (%)
= 4,0 ± 1, 5 e τβ (%) = 4,0 ± 0, 5. In un caso esemplificativo, ipotizzando: attività alfa=attività beta = 0,2
Bq/L, tempo conteggio = 1000 minuti, massa campione = 80 g, si otterrebbe la seguente distribuzione di
contributi alla varianza (e quindi all’incertezza) della misura (Tab. 2). Come si può notare, l’influenza della
varianza di: τα e τβ alla varianza totale è relativamente modesto.
Tabella 2 | Contributo percentuale delle varianze dei parametri alla varianza delle attività alfa e beta
Contributo % alla varianza
Attività α (%)
Attività β (%)
Cα
τα
46,9
0,1
9,9
7,1
0,2
64,1
Interferenza beta
Cβ
τβ
0,8
0,6
Efficienza alfa
εα
37,5
-
Efficienza beta
εβ
-
21,6
Massa campione
Q
3,7
1,9
Conteggi alfa
Interferenza alfa
Conteggi beta
Per valutare sperimentalmente l’esattezza delle misure, sono stati preparati, mediante la procedura
standard UNI 11260 alcuni campioni ad attività alfa e beta nota. Per simulare nella maniera più realistica le
situazioni riscontrabili con campioni di acque potabili, sono stati scelti come alfa emettitore 236U e come
beta emettitore 40K ed il loro rapporto è stato fatto variare di due ordini di grandezza (Tab. 3). Si può notare
che i risultati sono sempre accettabili a meno dell’incertezza estesa di misura (U test).
Si può osservare che la determinazione della attività alfa è sempre accurata, le attività beta misurate
presentano bias elevati quando l’attività alfa è molto superiore all’attività beta. Ciò è probabilmente
ascrivibile alla diversa dimensione delle finestre di misura: anche nel caso di una interferenza beta elevata,
solo una parte degli impulsi erroneamente discriminati vengono contabilizzati come conteggi alfa in quanto
la finestra di conteggio alfa è relativamente stretta (200 canali contro i 500 della finestra beta). Va anche
considerato, tuttavia, che i campioni reali presentano, per la nostra esperienza fin qui maturata, spesso R
<1 (75% dei casi circa), solo nell’1% circa dei casi si sono riscontrati R compresi tra 2 e 3 e mai superiori
a quest’ultimo valore (ove R è il rapporto tra l’attività alfa e l’attività beta).
Se, al contrario, per il calcolo delle attività non si considera il contributo dell’interferenza e si utilizza una
formula semplificata ove tutti i conteggi alfa vengono attribuiti all’alfa emettitore (e così pure per la parte
beta), si ottengono i risultati riassunti in Tabella 4.
L’accuratezza della misura risulta sempre buona per l’attività alfa, mentre per quanto riguarda l’attività
beta, non è più accettabile negli ultimi due casi esaminati, in cui l’attività alfa è superiore di 5-10 volte
all’attività beta.
Tabella 3 | Misura dell’attività alfa e beta su campioni tracciati (formula esatta)
Concentrazione di attività nominale
Concentrazione misurata
(formula esatta)
Valutazione
Att. α
(Bq/kg)
±
Att. β
(Bq/kg)
±
R
(att. α/β)
Att. α
(Bq/kg)
±
Att. β
(Bq/kg)
±
Esatt.
α (%)
Esatt.
β (%)
utest α
utest β
1
56
2
576
16
0,1
54
3
591
21
-4,5
2,6
-0,7
0,6
2
56
2
291
8
0,2
56
3
299
11
-0,4
2,7
-0,1
0,6
3
57
2
117
3
0,5
59
2
119
4
3,3
1,9
0,7
0,4
Camp.
4
57
2
59
2
1
59
2
61
2
2,7
3,4
0,5
0,7
5
114
3
59
2
2
118
4
60
3
3,2
2,0
0,6
0,3
6
286
9
59
2
5
294
11
61
6
3,0
3,6
0,6
0,3
7
564
17
59
2
10
576
21
69
11
2,1
17,2
0,4
0,9
56
Tabella 4 | Misura dell’attività alfa e beta su campioni tracciati (formula semplificata)
Concentrazione di attività nominale
Concentrazione misurata
(formula semplificata)
Valutazione
Camp.
Att. α
(Bq/kg)
±
Att. β
(Bq/kg)
±
R
(att.
α/β)
Att. α
(Bq/kg)
±
Att. β
(Bq/
kg)
±
Esatt. α
(%)
Esatt.
β (%)
utest α
utest β
1
56
2
576
16
0,1
58
2
575
20
4,1
-0,2
0,9
-0,04
2
56
2
291
8
0,2
56
2
292
10
0,1
0,3
0,03
0,1
3
57
2
117
3
0,5
58
2
118
4
1,0
0,6
0,2
0,1
4
57
2
59
2
1
57
2
61
2
0,1
3,8
0,02
0,8
5
114
3
59
2
2
114
4
62
2
-0,02
5,9
-0,003
1,3
6
286
9
59
2
5
285
10
69
2
-0,1
17,9
-0.03
3,6
7
564
17
59
2
10
559
19
87
3
-0,9
47,9
-0.2
8,1
CONCLUSIONI
La misura dell’attività alfa e beta totale mediante scintillazione liquida presenta criticità specifiche. In una
precedente pubblicazione (Rusconi 2006) sono state considerate sia la variabilità connessa al valore
dell’efficienza (tenuto conto che si misurano simultaneamente più radionuclidi con differenti caratteristiche)
che le problematiche legate alla interferenza alfa/beta o spillover. In questo lavoro si è verificato come
la composizione del campione, sia in quanto tale (presenza di sali disciolti) che in seguito alla sua
preparazione (acidificazione) possa influire sul risultato della misura: ciò equivale ad una analisi della
robustezza del metodo.
Si è esaminata in particolare l’influenza della composizione chimica sull’interferenza alfa e beta.
Contrariamente ad altri approcci descritti in letteratura miranti ad ottimizzare l’analisi caso per caso, si
è qui scelto di fissare le condizioni di lavoro a priori, conformemente a quanto descritto nella norma UNI
11260 (UNI 2008), e di verificare quanto le variazioni introdotte nel campione modificassero l’interferenza.
Le prove effettuate hanno dimostrato che:
1) L’interferenza beta (τβ) dipende scarsamente dalla composizione del campione
2) L’interferenza alfa (τα) dipende in modo marcato dalla presenza di anioni nitrato (NO3-). Questi sono
normalmente poco presenti nel campione ma vengono introdotti quando lo si acidifica con acido
nitrico.
3) L’influenza degli altri parametri di composizione (acidità, presenza di sali) su τα è scarsa.
4) La variazione introdotta dagli anioni nitrato (NO3-) sul parametro strumentale che rileva il quenching
(SQPe) è troppo bassa per essere utilizzabile per eventuali correzioni.
E’ difficile evitare l’uso dell’acido nitrico per la stabilizzazione del campione, sia per le sue caratteristiche
chimiche che per le indicazioni specifiche fornite dalle norme nazionali e internazionali (ISO 2003). Inoltre
i campioni degli interconfronti sulle acque sono normalmente acidificati con acido nitrico. Le prove
effettuate hanno permesso di stabilire che controllando accuratamente l’acidificazione è possibile limitare
l’interferenza massima entro termini considerati accettabili: nel nostro caso si è fissato un intervallo di
lavoro compreso tra pH 1,4 e 2,0 (UNI 2008) a cui sui associano interferenze alfa percentuali pari a τα (%) =
4,0 ± 1, 5 e interferenze beta τβ (%) = 4,0 ± 0,5. La loro varianza ha un peso modesto all’interno della stima
della incertezza complessiva (inferiore al 10% per l’interferenza alfa e inferiore all’ 1 % per l’interferenza
beta).
Per quanto riguarda l’accuratezza delle misure, è possibile correggere il risultato per l’interferenza stimata
(utilizzando la cosiddetta formula esatta). La correzione è utile quando il rapporto tra le attività alfa e beta si
discosta significativamente dall’unità (e.g. > 5) e le interferenze non riescono più a compensarsi. Tuttavia
nei casi reali il rapporto delle attività alfa e beta è tale, almeno per la nostra esperienza operativa, che
anche una formula di calcolo della attività che trascuri le interferenze, fornisce risultati con una esattezza
accettabile, considerata anche l’elevata incertezza sperimentale associata a questo tipo di misure.
57
BIBLIOGRAFIA
1. ASTM 2006. Standard method for alpha and beta activity in water by liquid scintillation counting. ASTM
International, Designation D 7283-06.
2. DeVol, T.A., Theisen, C.D., DiPrete, D.P., 2007. Effect of quench on alpha/beta pulse shape
discrimination of liquid scintillation cocktails. Health Physics 92, S105-S111.
3. Forte M., Rusconi R., Cazzaniga M.T., Sgorbati G. 2005. La radioattività nelle acque potabili lombarde:
impostazione dei controlli”; Acqua e Aria, 5, 32-36.
4. Forte, M., Rusconi, R., Cazzaniga, M.T., Sgorbati, G., 2007. The measurement of radioactivity in Italian
drinking waters. Microchemical Journal 85, 98-102.
5. Forte, M., Rusconi R., Costantino S., Badalamenti P., Lunesu D. Sgorbati G., 20108. Gross α and β
measurement by LSC in waters: advantages, problems and limitations
6. Proceedings of International Conference on Advances in Liquid Scintillation Spectrometry – LSC2010,
Paris Sept 6-10, 2010
7. Happel S. et al. 2004. Gross alpha determination in drinking water using a highly specific resin and
LSC. Appl. Radiat. Isotopes 61, 339-344.
8. ISO 2003. ISO 5667-3. Water quality – Sampling. Part 3 : Guidance on the preservation and handling
of water samples. Third edition, 2003-12-15
9. ISO, 2010. ISO 11704:2010. Water quality. Measurement of gross alpha and beta 382 activity
concentration in non-saline water - Liquid scintillation counting method ISO,
10. Kleinschmidt, R.I., 2004. Gross alpha and beta activity analysis in water--a routine laboratory method
using liquid scintillation analysis. Applied Radiation and Isotopes 386 61, 333-338.
11. Pates, J.M., Cook, G.T., MacKenzie, A.B.,1994. Quenching and its effect on alpha/beta separation
liquid scintillation spectrometry. Liquid Scintillation Spectrometry (in Radiocarbon, 1996) 75-85.
12. Pates, J.M., Cook, G.T., MacKenzie, A.B., Pass, C.J., 1998. Implications of beta energy and quench
level for alpha/beta liquid scintillation spectrometry calibration. Analyst 123, 2201-2207.
13. Pujol, L., Sanchez-Cabeza, J.-A., 1997. Role of quenching on alpha/beta separation in liquid scintillation
counting for several high capacity cocktails. Analyst (Cambridge, United Kingdom) 122, 383-385.
14. Ruberu, S.R., Liu, Y.-G., Perera, S.K., 2008. An Improved Liquid Scintillation Counting Method for the
Determination of Gross Alpha Activity in Groundwater Wells. Health Physics 95, 397-406.
15. Rusconi, R., Forte, M., Caresana, M., Bellinzona, S., Cazzaniga, M.T., Sgorbati, G.,2006. The evaluation
of uncertainty in low-level LSC measurements of water samples. Applied Radiation and Isotopes, 64,
1124-1129.
16. Salonen, L., 2006a. Alpha/Beta liquid scintillation spectrometry in surveying Finnish groundwater
samples. Radiochemistry, 48, 606-612.
17. Salonen, L., 2006b. Alpha spillover depends on alpha energy: a new finding in alpha/beta liquid
scintillation spectrometry. LSC 2005, Advances in Liquid Scintillation Spectrometry, [International
Conference], Katowice, Poland, 2005, 135-148.
18. Sanchez.-Cabeza J.A. et al., 1992. Optimization and calibration of a low-background liquid scintillation
counter for the simultaneous determination of alpha and beta emitters in aqueous samples. Liquid
Scintillation Spectrometry (in Radiocarbon, 1993) 43-50.
19. Sanchez-Cabeza J.A., Puyol L., 1995. A rapid method for the simultaneous determination of gross
alpha and beta activities in water samples using a low background liquid scintillation counter. . Health
Physics, 68(5), 674-682.
20. Semkow, T.L., Parekh, P. P., 2001. Principles of gross alpha and beta radioactivity detection in water.
Health Physics, 81(5), 567-574.
21. UNI, 2008. Qualità dell’acqua – Determinazione del contenuto di attività alfa e beta totale in acque
destinate al consumo umano mediante scintillazione liquida. UNI 11260.
22. Wong, C.T., Soliman, V.M., Perera, S.K., 2005. Gross alpha/beta analyses in water by liquid scintillation
counting. Journal of Radioanalytical and Nuclear Chemistry 264, 357-363.
23. Zapata-García, D., Llauradó M., Rauret G., 2012. Implications of particle energy and acid media for
gross alpha and gross beta determination using liquid scintillation. Appl Radiat Isot. 70(4), 705-11
58
Articoli
Accumulo di radionuclidi naturali ed artificiali
in formazioni crioconitiche di alcuni ghiacciai delle Alpi Occidentali
Massimo Faure Ragani*, Claudio Operti*, Giovanni Agnesod*, Stefano Bertino**, Giuliana Garbarino**,
Mauro Magnoni**, Maura Ghione**
*ARPA Valle di Aosta, Loc. Grande Charrière 44 ,11020 Saint Christophe (AO), [email protected]
**ARPA Piemonte, Via Jervis 30, 10015 Ivrea (TO), [email protected]
PREMESSA
Nella zona delle Alpi Occidentali, la contaminazione ambientale diffusa da radionuclidi artificiali oggi
presente è stata causata principalmente dalla dispersione di sostanze radioattive conseguenti l’incidente
di Chernobyl nel 1986, dalle ricadute radioattive causate dagli esperimenti nucleari avvenuti negli anni
’60-’70 e dalle ricadute dovute all’incidente del satellite americano SNAP 9A nel 1964 [Tieber e al, 2009]).
Un’ulteriore fonte diffusa, anche se minoritaria, è stata nel 2011 la dispersione a grande raggio di sostanze
radioattive provenienti dalla centrale giapponese di Fukushima. Ognuna di queste fonti è caratterizzata
dalla presenza di particolari radionuclidi, da rapporti isotopici specifici e da una distribuzione spaziale e
temporale non sempre costante [Bossew e al., 2007]. Attualmente il principale radionuclide a vita lunga
considerato nelle analisi su matrici ambientali è il 137Cs, che risulta essere quasi sempre l’unico rilevabile e
che quindi è generalmente assunto come riferimento.
Nel presente lavoro è stata analizzata una matrice ambientale che da qualche anno è oggetto di attenzione
da parte di diversi gruppi di ricerca nel campo della radiometria ambientale: le crioconiti. Con questo
nome si indicano gli accumuli di polvere aerodispersa che si formano sulla superficie dei ghiacciai e sulla
soprastante copertura nevosa. Il termine fu coniato dall’esploratore svedese A.E. Nordenskiöld durante
un viaggio in Groenlandia nel 1870 per descrivere tasche di polvere fina, amorfa di cui era disseminata
la superficie del ghiacciaio continentale: dal greco “Kryos”- freddo e “Konis”- polvere. Per capire il
meccanismo di formazione di queste cavità facciamo riferimento alla figura 1.
a
b
c
d
e
Figura 1 | Processo di formazione delle crioconiti
La polvere aerodispersa (a) si deposita sulla superficie del ghiacciaio (b) e nei punti in cui inizia ad
accumularsi per effetto della morfologia superficiale (c), durante il periodo di ablazione caratteristico della
stagione tardo primaverile – estiva, diminuisce l’albedo (b,c). In seguito all’aumentato assorbimento di
calore dovuto al deposito scuro, il ghiaccio circostante fonde e si formano delle vaschette a conca, i
cosiddetti “cryoconites holes” in cui sedimenta il deposito (d): il processo si arresta quando il calore diurno
non risulta più sufficiente a continuare la fusione. Quando le temperature tornano al di sotto del punto di
fusione e con ulteriori precipitazioni, si riforma lo strato di ghiaccio che preserva la crioconite primitiva (e) che
gli anni successivi si arricchirà di nuovo materiale. Queste dinamiche avvengono in un contesto ambientale
remoto e poco soggetto ad ulteriori agenti perturbativi. La crioconite è quindi una matrice ambientale di
accumulo e conservazione in tempi dell’ordine di diverse decine di anni. La composizione delle crioconiti
è alquanto complessa e comprende materia cosmogenica, geogenica, biogenica e antropogenica. Le
formazioni crioconitiche si trovano principalmente nella zone di ablazione dei ghiacciai, in particolare in
quelli temperati presenti nella catena alpina. Le caratteristiche delle formazioni crioconitiche dipendono
dal ghiacciaio su cui si trovano e possono assumere forme diverse, da singole cavità profonde fino a
59
qualche decina di centimetri (figura 2) a strutture più diffuse in cui sono presenti rivoli di acqua di fusione
che trascinano il “polviscolo nero detto crioconite, il quale s’arresta qua e là e si affonda nei pozzetti la cui
acqua fa parte del velo scorrente sul ghiacciaio stesso” [Giacosa, 1896],(figura 3).
Figura 2 | Formazioni crioconitiche del ghiacciaio del Timorion– campagna di misura ottobre 2010
Figura 3 | Formazioni crioconitiche del ghiacciaio dell’Indren– campagna di misura ottobre 2011.
OBIETTIVI
In questo lavoro si propone un’analisi radiometrica dei diversi radionuclidi presenti su cinque campioni di
crioconiti prelevati sui ghiacciai delle Alpi nord-occidentali. Sono stati analizzati i seguenti radionuclidi di
origine artificiale: 137Cs, 134Cs, 207Bi, 241Am, 90Sr, 238Pu e 239+240Pu.
MATERIALI E METODI
CAMPIONAMENTI
Sono stati effettuati negli anni 2010-2011 cinque campionamenti sui seguenti ghiacciai (figura 4):
• 2010: Timorion (Gran Paradiso) – 3260 m, Arolla (Canton Vallese-Svizzera) – 2720 m,
• 2011: Timorion (Gran Paradiso) – 3260 m, Ventina (Monte Rosa) – 3120 m, Indren (Monte Rosa) – 3264 m.
I campioni sono stati ottenuti asportando dalla superficie glaciale i depositi crioconitici in modo da avere
un campione di almeno di 50 ml. In laboratorio sono state effettuate analisi sui campioni tal quale laddove
il materiale raccolto si presentava compatto e denso e, invece, dopo la separazione dalla fase acquosa,
nei casi in cui il materiale si presentava molto umido (campioni raccolti sul ghiacciaio dell’Indren).
Successivamente, il materiale è stato sottoposto ad essicazione in stufa a 105°C, per 48 ore per determinare
il fattore di conversione peso secco/peso fresco. I valori di concentrazione di attività rilevata sono riferiti al
peso secco.
Figura 4 | Siti dei campionamenti.
60
SPETTROMETRIA GAMMA
Le analisi sono state effettuate mediante due catene gamma-spettrometriche al Germanio Iperpuro tipo
P - efficienza nominale rispettivamente di 33% e 50% (campo di misura: 50 keV – 2,5 MeV), in pozzetto
per conteggio campioni in piombo di spessore 10 cm, analizzatori multicanali DSPec e software di analisi
“Gamma-Vision” EG&G ORTEC – AMETEK. I campioni sono stati conteggiati ponendo a diretto contatto del
rivelatore il contenitore in polietilene, per tempi compresi tra 250000 s e 1000000 s. I campioni di crioconite
analizzati avevano una massa compresa tra 20g e 90g e densità in genere pari a circa 1.4 g/cm3.
Nella tabella 1 sono riportate le righe di emissione scelte per quantificare l’attività di ogni radionuclide.
Tabella 1 | Righe di emissione utilizzate per la quantificazione dell’attività dei radionuclidi
Radionuclide
Energia (Kev)
Be
477.60
K
1460.82
Cs
661.66
Am
59.54
Bi
1063.66
Cs
604.72
7
40
137
241
207
134
Per la determinazione dell’attività dei radionuclidi 207Bi e 134Cs, si è scelto di utilizzare esclusivamente le
emissioni rispettivamente di 1063.66 keV e 604.72 keV in quanto prive di interferenti. Infatti, per quanto
riguarda il 207Bi, nel picco relativo all’emissione a 569.70 keV (probabilità di emissione gamma pari 97.76%)
si rilevano anche i conteggi dovuti all’interazione dei raggi cosmici con la schermatura in piombo del
pozzetto, 207Pb (n,n’γ) ed eventualmente anche quelli dovuti al 134Cs (569.33 keV, probabilità di emissione
gamma pari 15.39%). Per il 134Cs non si è considerata la riga di emissione a 795.86 keV (probabilità di
emissione gamma pari 85.4%) in quanto concorrente con l’emissione a 794.95 keV dell’228Ac (probabilità
di emissione gamma pari 4.25%) presente nei campioni di crioconite e la cui deconvoluzione avrebbe
previsto uno studio più approfondito dell’interferenza con il picco dell’228Ac.
Si è, inoltre, prestata particolare attenzione alle correzioni dovute all’”effetto somma” per il 134Cs ed il 207Bi
che per le righe di emissione utilizzate, nelle geometrie di analisi sono state quantificate in percentuali
comprese tra il 19% ed il 26%.
ANALISI RADIOCHIMICHE
Il metodo utilizzato per le separazioni radiochimiche permette, con gli opportuni accorgimenti, la
determinazione degli isotopi del plutonio e dello stronzio a partire dallo stesso campione. Il metodo si
basa sulla distruzione del campione calcinato mediante lisciviazione acida con acido nitrico e fluoridrico,
portando i radioisotopi del Pu e lo 90Sr in soluzione. Successivamente si opera la riduzione del Pu con
l’aggiunta di sodio nitrito; il Pu viene fissato su una resina anionica, mentre radionuclidi interferenti quali U,
Th, Am, Fe vengono eluiti e scartati. Su questa soluzione di scarto può essere determinato lo 90Sr. Il Pu viene
recuperato con acido iodidrico e si effettua un ulteriore passaggio in colonna cromatografica utilizzando
un letto di polietilene in polvere su cui viene fissato triottilfosfina ossido (TOPO), al fine di eliminare ulteriori
tracce di uranio e altri radionuclidi. Il Pu isolato chimicamente viene elettrodeposto e messo a contare.
La determinazione dello 90Sr viene eseguita indirettamente attraverso l’90Y, supponendo già raggiunta,
in questa tipologia di campioni, la condizione di equilibrio secolare 90Sr/90Y. La separazione dell’90Y nei
campioni è stata effettuata utilizzando un derivato organico dell’acido fosforico (HDEHP) che complessa
selettivamente l’90Y in un determinato intervallo di pH e viene fissato su una fase solida. Mediante eluizioni
e l’aggiunta di acido ossalico l’ittrio viene recuperato e poi fatto precipitare sotto forma di ossalato, che
viene filtrato e messo a contare.
La determinazione degli isotopi del Pu avviene mediante conteggio in condizione di vuoto spinto con la
tecnica della spettrometria alfa ad alta risoluzione e rivelazione delle emissioni alfa principali degli isotopi
del plutonio: 238Pu a 5499 keV, 239Pu a 5156 keV e 240Pu a 5168 keV (aventi rispettivamente probabilità di
emissione alfa pari a 71.6%, 73.2% e 73.5%).
La determinazione dello 90Sr avviene mediante conteggio dell’90Y utilizzando un contatore a basso fondo
a flusso di gas dotato di dispositivo di anticoincidenza e di sottrazione del fondo. Viene effettuato un
numero di cicli di misura sufficiente per seguire il decadimento dell’ittrio e si verifica che il decadimento
61
sperimentale ottenuto sia compatibile con il decadimento teorico del solo 90Y confrontando i rispettivi tempi
di dimezzamento.
RISULTATI
Tutti i dati riportati si riferiscono al peso secco del campione e sono riferiti alla data del campionamento. In
tabella 2 si riportano anche le incertezze totali con fattore di copertura K=2.
Tabella 2 | Concentrazioni di attività di radionuclidi trovati nei campioni di crioconiti.
7
TIMORION 2010
TIMORION 2011
Bq/kg
inc.
Bq/Kg
Bq/kg
inc.
Bq/Kg
Bq/kg
inc.
Bq/Kg
Bq/kg
inc.
Bq/Kg
Bq/kg
inc.
Bq/Kg
Be
1212
30
1489
28
1185
39
1468
28
615
19
K
494
18
632
16
854
35
511
20
764
17
40
AROLLA 2010
VENTINA 2011
INDREN 2011
137
Cs
2446
36
5693
111
8894
159
4251
93
5533
110
241
Am
13.7
6.7
32.2
7.6
40.8
12.8
25.7
7.4
28.1
6.4
207
Bi
3.2
1.6
6.2
1.0
13.8
4
4.7
0.6
4.9
0.8
134
Cs
< MAR
90
Sr
239+240
238
Pu
Pu
1.62
0.91
< MAR
1.13
0.81
1.13
0.74
66
105
77
123
-
-
68
109
195
312
13.4
1.8
19.3
2.4
-
-
15.7
2.0
26.6
3.6
0.56
0.10
0.83
0.12
-
-
0.61
0.08
1.19
0.18
OSSERVAZIONI
Da una attenta analisi dei dati riportati in tabella 2 si possono effettuare le seguenti affermazioni:
• Le concentrazioni di attività dei radionuclidi risultano essere molto elevate rispetto alle matrici ambientali
comunemente utilizzate, in particolare si riescono a quantificare alcuni radionuclidi artificiali che
generalmente risultano essere al di sotto del limite di rilevabilità, come per esempio il 207Bi ed il 238Pu.
• Il 134Cs è risultato quantificabile in tutti e soli i campioni prelevati nel 2011 e per questo motivo è
riconducibile al fall-out successivo all’incidente di Fukushima del marzo 2011, come confermato anche
dalla presenza di questo radionuclide nel campione di particolato atmosferico relativo al mese di
aprile 2011 (concentrazione di attività di 134Cs pari a qualche decina di μBq/m3). La presenza di questo
radionuclide dimostra che questa matrice è efficace nell’accumulo anche di particolato “recente”, come
confermato anche dall’elevata presenza di 7Be.
• Il 207Bi risulta essere stato immesso in atmosfera durante i test termonucleari degli ani ’60, in particolare
è stato ipotizzato [Bossew e al., 2006] che il maggior rilascio di 207Bi sia stato prodotto nel test del 10
ottobre 1961 in Novaya Semlya (Unione Sovietica) e successivamente depositato nell’emisfero boreale
principalmente durante il 1963.
• Il 137Cs si può separare in due grandi contributi: quello dovuto all’incidente di Chernobyl e quello preChernobyl, definito in genere “globale” e che tiene conto di tutti i rilasci precedenti al 1986. Nel caso in
cui si fosse quantificato il 134Cs nei campioni del 2010, si sarebbe potuto associare questo radionuclide
al rilascio di Chernobyl e si sarebbe potuto procedere con una separazione dei due contributi, “globale”
e “Chernobyl”, per il 137Cs.
• L’241Am, come prodotto di decadimento del 241Pu,è dovuto ai rilasci pre-Chernobyl [Tieber e al, 2009]
e risulta presente in tutti i campioni di crioconite analizzati ad indicare la presenza di particolato
“vecchio”.
• Nei campioni sottoposti ad analisi radiochimica, tutti tranne quello di Arolla, si è rilevato il 238Pu oltre al
239+240
Pu. Il 238Pu risulta dovuto principalmente all’incendio del satellite americano SNAP 9A nel 1964.
Il rapporto isotopico 238Pu/ 239+240Pu varia tra valori di 0.039 e 0.045 (figura 5) e testimonia una origine
riconducibile principalmente al fall-out “globale” del campione (valore di riferimento del rapporto
isotopico pari a 0.035±0.008 [Tieber e al, 2009]). La separazione radiochimica dei picchi corrispondenti
a 238Pu e 239+240Pu è risultata buona nonostante la complessità chimica della matrice.
62
Figura 5 | Rapporti isotopici 238Pu/239+240Pu presenti nei campioni di crioconiti
• La separazione dello 90Sr dagli interferenti naturali è risultata, come atteso, di notevole complessità.
Confrontando infatti il tempo di dimezzamento sperimentale con quello del solo 90Y è risultata evidente
la difficoltà di separare lo 90Sr dal 210Bi. La differenza tra i valori di concentrazione di attività dei campioni
appartenenti ai siti di studio analizzati (tabella 2) non riflette pertanto una reale diversità nelle dinamiche
di deposizione del fall-out radioattivo, ma piuttosto una problematicità analitica. Negli sviluppi futuri del
presente lavoro si prevede di mettere a punto una metodica di separazione radiochimica più efficiente
per matrici complesse come le crioconiti.
• In figura 6 sono riportati i rapporti di concentrazione di attività 241Am/137Cs e 207Bi/241Am (riportati
temporalmente al 01/10/2011). Si osserva che utilizzando i rapporti dei radionuclidi i campioni prelevati
sul Timorion negli anni 2010 e 2011 risultano molto più confrontabili rispetto al semplice raffronto delle
concentrazioni delle attività. Inoltre i valori sono confrontabili con quanto riportato dagli studi sulle
crioconiti in Austria [Tieber e al, 2009].
Figura 6 | Rapporti 241Am/137Cs e 207Bi/241Am presenti nei campioni di crioconiti
63
Il rapporto 241Am/137Cs nei nostri campioni assume valori compresi tra 0.0051 e 0.0061, quello pubblicato
nello studio austriaco ha un range che va da 0.0026 e 0.0054, valori leggermente più bassi avendo le Alpi
Nord-orientali risentito maggiormente del fall-out dovuto all’incidente di Chernobyl.
Il rapporto 207Bi/241Am nei nostri campioni assume valori compresi tra 0.18 e 0.31, quelli pubblicati nello
studio austriaco tra 0.20 e 0.26. Questo rapporto non risente del diverso fall-out di Chernobyl, essendo
entrambi radionuclidi presenti quasi esclusivamente nel fall-out “globale”.
DISCUSSIONE E CONCLUSIONI
Le crioconiti si confermano essere un ottimo indicatore ambientale in quanto rappresentative di dinamiche
globali e relative ad un orizzonte temporale di svariati anni. Esse, inoltre, permettono di valutare radionuclidi
che in altre matrici ambientali sono del tutto assenti. Si evidenzia l’importanza di definire procedure
standardizzate di campionamento e gestione dei campioni e l’interesse per confronti su scala continentale
e mondiale.
BIBLIOGRAFIA
1. Aldersley A. The formation and development of cryoconite holes, 2011, http://bccs.bristol.ac.uk/
toProgramme/_project/2010/Andy_Aldersley_S10
2. Bossew P., Lettner H., Erlinger C., Gastberger M. Activity ratios of 137Cs, 90Sr and 239-240Pu in environmental
samples, 2007, Journal of Environmental Radioactivity 97 (2007) 5-19
3. Bossew P., Lettner H., Hubmer A. A note on 207Bi in environmental samples, 2006, Journal of
Environmental Radioactivity 91 (2006) 160-166
4. Giacosa P. Spedizione scientifica al Monte Rosa (1894 e 1895), 1896 Bollettino del Club Alpino
Italiano 1895-96 Vol. 29 Num. 62
5. Sattler B., Anesio A., Antlinger I., Lettner H., Microbial Communities of Cryoconites as Sensitive
Indicators for Radioactive Impact on Artic and Alpine Glaciers – Project Description, 2007, 8th NyÅlesund seminar, Cambridge, UK 16-17 October 2007.
6. Tieber A, Lettner H., Bossew P., Hubmer A., Sattler B.,Hofmann W. Accumulation of anthropogenic
radionuclides in cryoconites on Alpine glaciers 2009, Journal of Environmental Radioactivity 100 (2009)
590-598
64
Articoli
Modello per la stima delle concentrazioni alfa totale e beta totale
nel particolato atmosferico in situazioni di emergenza
Albertone L., Porzio L.
Arpa Piemonte – Dipartimento Tematico Radiazioni Struttura Semplice Siti Nucleari,
Via Trino 89, 13100 Vercelli (VC), [email protected]
Le misure di concentrazione alfa totale e beta totale nel particolato atmosferico sono fortemente influenzate
dalla presenza di radionuclidi naturali a vita breve sempre presenti in aria: l’approccio più diffuso nella pratica
di laboratorio consiste nell’attendere il loro completo decadimento in modo da poter valutare il contributo
residuo dovuto a radionuclidi naturali o artificiali a vita non breve. Tale pratica non è però applicabile nel
caso di emergenze radiologiche o nucleari, nel corso delle quali è necessario disporre di valutazioni in
tempi molto ristretti. Nel presente lavoro viene proposta la validazione, basata su dati sperimentali, di un
modello teorico volto alla stima del contributo residuo dovuto a radionuclidi naturali o artificiali a vita non
breve alle concentrazioni alfa totale e beta totale nel particolato atmosferico in tempi compatibili con quelli
legati a emergenze radiologiche o nucleari.
PREMESSA
In aria sono presenti radionuclidi naturali a vita breve delle famiglie dell’uranio e del torio (tab. 1) che
influenzano fortemente le misure di concentrazione alfa totale e beta totale del particolato atmosferico
raccolto su filtro. L’approccio più diffuso nella pratica di laboratorio consiste nell’attendere il loro completo
decadimento in modo da poter valutare il contributo residuo dovuto a radionuclidi naturali o artificiali a vita
non breve: tale pratica non è però applicabile nel caso di emergenze radiologiche o nucleari, nel corso
delle quali è necessario disporre di valutazioni in tempi molto ristretti, condizionati da tempi di aspirazione
e di misura non superiori a qualche ora.
Tabella 1 | Principali radionuclidi naturali a vita breve potenzialmente presenti in aria
(T1/2 è il tempo di dimezzamento e BR il Branching Ratio).
Padre
T1/2
BR
Figlio
Rn-222
91,75 h
1
Po-218
Padre
T1/2
BR
Figlio
Rn-220
55,6 s
1
Po-216
α
Po-216
0,150 s
1
Pb-212
α
Bi-214
α
α
β
α
Po-218
183 s
0,9998
0,0002
Pb-214
At-218
At-218
2s
1
Pb-212
10,639 h
1
Bi-212
1
Bi-214
β
Bi-212
60,55 m
0,3593
0,6407
Tl-208
Po-212
β
α
β
Pb-214
26,8 m
Bi-214
19,9 m
0,0002
0,9998
Tl-210
Po-214
α
β
Po-212
2,96E07 s
1
Pb-208
α
Po-214
1,64E04 s
1
Pb-210
α
Tl-208
186 s
1
Pb-208
β
Tl-210
79,2 s
1
Pb-210
β
I valori di riferimento per le concentrazioni alfa totale e beta totale nel particolato atmosferico possono
essere desunti dai livelli di intervento derivati per la concentrazione integrata in aria che determina per
inalazione una dose efficace di 1 mSv riportati1 in CEVaD, 2010.
1
Tabella 5.14 di CEVaD, 2010.
65
Tabella 2 | Valori di riferimento per diversi tempi di esposizione.
Radionuclide
Concentrazione
integrata in aria Bq s/m3
T = 1 ora
Bq/m3
T = 24 ore
Bq/m3
Pu-239
2.4 105
6.7 101
2.8
Sr-90
1.4 10
3.9 10
1.6 103
8
4
Assumendo come radionuclidi di riferimento Pu-239 per la concentrazione alfa totale e Sr-90 per
la concentrazione beta totale si possono derivare i valori di riferimento riportati in tab. 2 che, come si
può facilmente osservare, per la componente alfa sono confrontabili con le concentrazioni di Rn-222
comunemente2 osservate in aria, comprese nel range 1÷100 Bq/m3.
La scelta di misurare concentrazioni alfa totale e beta totale nel particolato atmosferico è dovuta alle
seguenti considerazioni:
• la strumentazione necessaria per effettuare tali misure non è particolarmente complessa e può essere
facilmente disponibile in campo;
• in generale non si ha un’informazione a priori della composizione isotopica della contaminazione del
particolato atmosferico nella I fase3 – o fase iniziale – di un’emergenza radiologica o nucleare;
• la misura delle concentrazioni alfa totale e beta totale è sempre necessaria per conoscere la contaminazione totale del particolato atmosferico
• nel caso in cui la contaminazione del particolato atmosferico sia dovuta esclusivamente a radionuclidi
non facilmente rivelabili (Sr-90, Pu, U) la misura delle concentrazioni alfa totale e beta totale è l’unica
informazione disponibile.
Considerando solo i radionuclidi che possono essere trattenuti su filtro come particolato4 e trascurando i
decadimenti poco probabili è possibile restringere (tab. 3) l’interesse solo ad alcuni dei radionuclidi di tab.
1. Valgono inoltre le seguenti approssimazioni:
• APo-214 = ABi-214
• APo-212 = BRBi-212→Po-212ABi-212
Tabella 3 | Principali radionuclidi naturali a vita breve potenzialmente presenti nel particolato atmosferico raccolto
su filtro
Padre
T1/2
BR
Figlio
Padre
T1/2
BR
Figlio
Po-218
183 s
1
Pb-214
α
Pb-212
10,639 h
1
Bi-212
Bi-214
β
Bi-212
60,55 m
0,3593
0,6407
Tl-208
Po-212
β
α
β
Pb-214
26,8 m
1
Bi-214
19,9 m
1
Po-214
β
Po-212
2,96E07 s
1
Pb-208
α
Po-214
1,64E04 s
1
Pb-210
α
Tl-208
186 s
1
Pb-208
β
MATERIALI E METODI
È noto che il decadimento dei radionuclidi a vita breve presenti su filtro è descritto dalla somma di
esponenziali decrescenti che dipendono dalle costanti di decadimento dei radionuclidi presenti.
Il modello proposto è stato sviluppato per esplicitare la dipendenza dei coefficienti degli esponenziali
decrescenti dalle concentrazioni in aria dei radionuclidi naturali a vita breve (tab. 3) e dei radionuclidi
naturali o artificiali a vita non breve.
Nell’ipotesi di avere delle concentrazioni in aria Ci costanti5 dei radionuclidi di tab. 3, anche non in equilibrio
fra loro, con le seguenti notazioni:
2
Si veda UNSCEAR 2000 Report Vol. I, Sources and Effects of Ionizing Radiation.
3
Per le definizioni delle diverse fasi dell’emergenza si faccia riferimento a CEVaD, 2010.
4
Si assuma un’efficienza di trattenimento prossima al 100% per il particolato atmosferico totale; la frazione gassosa
e lo iodio elementare non sono ovviamente trattenuti dal filtro.
5
Tale assunzione è ragionevolmente plausibile per tempi di aspirazione non superiori a qualche ora.
66
• Ci
concentrazione del radionuclide i in aria;
• λi
costante di decadimento del radionuclide i;
• BRi→j
probabilità del decadimento dal radionuclide i al radionuclide j;
• ta
tempo di aspirazione;
• tm
tempo di misura;
• φ
flusso di aspirazione;
• Ai
attività su filtro del radionuclide i durante l’aspirazione;
• Bi
attività su filtro del radionuclide i dopo l’aspirazione;
• Fi
concentrazione su filtro del radionuclide i durante l’aspirazione;
• Gi
concentrazione su filtro del radionuclide i dopo l’aspirazione;
le equazioni differenziali che permettono di descrivere l’andamento delle attività su filtro del radionuclide
i-esimo durante l’aspirazione sono:
Le soluzioni analitiche di tali equazioni – verificate con il manipolatore simbolico Maxima6 versione 5.26.0
– sono date da:
dove è evidente la somma di esponenziali decrescenti che dipendono dalle costanti di decadimento dei
radionuclidi di tab. 3. È possibile riscrivere le soluzioni precedenti come:
Le concentrazioni su filtro sono pari alle concentrazioni in aria all’inizio dell’aspirazione mentre le attività
raccolte su filtro tendono a valori costanti, che dipendono dalle concentrazioni in aria, dal flusso di
aspirazione e dagli schemi di decadimento dei radionuclidi.
Al termine dell’aspirazione le equazioni che descrivono l’andamento delle attività su filtro assumono la
forma:
6
Maxima è un Computer Algebra System (CAS) in grado di eseguire calcoli numerici, simbolici, grafici e altre operazioni correlate. Per maggiori informazioni http://maxima.sourceforge.net/
67
Le relative soluzioni sono date da:
Anche in questo caso si possono scrivere in forma più compatta evidenziando la dipendenza dalle
concentrazioni in aria:
In generale le concentrazioni alfa totale e beta totale misurate sono date da:
dove Cα e Cβ sono le concentrazioni in aria dei radionuclidi alfa e beta emittenti a vita non breve.
I ratei di conteggio netti attesi sono dati da:
che si possono riscrivere in funzione delle concentrazioni in aria Ci come:
68
Figura 1 | Andamento dei coefficienti gi(t) e hj(t).
Trascurando le concentrazioni in aria di Po-218 e Tl-208 – il contributo di questi radionuclidi è sempre
trascurabile dopo 30 minuti dal prelievo del filtro (fig. 1) – è possibile scrivere in forma matriciale le equazioni
precedenti come:
Denotando con rαβ* l’insieme dei valori misurati, l’operazione di inversione del modello consiste nel
minimizzare la quantità7 rispetto alle concentrazioni in aria incognite Ci:
da cui si ottiene, in notazione matriciale:
dove Urα, Urβ, UC sono le matrici delle covarianze di rα, rβ e C rispettivamente.
Deve inoltre essere rispettata la condizione:
7
Tale quantità segue una distribuzione
modello, nel caso presente n=6.
χ2 con (2m-n) gradi di libertà, dove n è il numero di parametri stimati dal
69
Le soglie di decisione Ci* ed i limiti di rivelabilità Ci# per le incognite Ci possono essere calcolati, secondo
il formalismo descritto in ISO 11929: 2010, attraverso le relazioni:
da cui si ottiene:
Il criterio per determinare la presenza di contaminanti a vita non breve fa riferimento alle soglie di decisone e
non ai limiti di rivelabilità, pertanto nelle tabelle successive saranno riportate solo le soglie di decisone Ci*.
RISULTATI
Il modello è stato applicato8 – simulando condizioni di emergenza – a misure sperimentali di concentrazione
alfa totale e beta totale nel particolato atmosferico:
• flusso di aspirazione nominale tra 50 e 100 l/min;
• filtri in fibra di vetro diametro 47 mm con efficienza di trattenimento del 99.97% per particelle < 1 μm;
• tempi di aspirazione compresi tra 5 min e 1 ora;
• misure ripetute da 1 min (60 ripetizioni per ciclo) effettuate subito dopo il prelievo del filtro.
Nel seguito saranno presentati alcuni risultati relativi a tempi di aspirazione di 1 ora a 100 l/min (tab. 4 e fig.
3); considerazioni analoghe valgono per tutti gli altri prelievi e simulazioni effettuati.
Tabella 4 | Elaborazioni sui dati riportati in fig. 2. Risultati espressi in Bq/m3 (k = 2, 95%).
Numero di misure
m = 60
m = 120
m = 180
Cα
< 20.32
< 1.98
< 0.311
< 0.116
Cβ
< 25.31
< 2.62
< 0.300
< 0.0792
CPb-214
15.19 ± 5.39
14.57 ± 1.12
13.71 ± 0.52
13.54 ± 0.40
CBi-214
14.63 ± 3.38
14.89 ± 1.71
16.74 ± 1.22
17.28 ± 1.06
χ2
125.72
252.09
388.23
539.97
χ (0.99, 2m-6)
149.13
284.33
415.90
545.63
2
m = 240
Si può osservare che il modello spiega correttamente l’andamento osservato già dopo 1 ora di misure, e
le soglie di decisione sono coerenti9 con i valori di riferimento di tab. 2.
Numero di misure m = 60
Numero di misure m = 120
8
L’implementazione del modello è stata effettuata con Maxima, versione 5.26.0.
9
Assumendo un tempo di esposizione di 1 ora.
70
Numero di misure m = 180
Numero di misure m = 240
Figura 2 | Ratei di conteggio alfa totale e beta totale ottenuti da misure sperimentali.
ta = 3600 s, φ= 1.62E-03 m3/s, tm = 60 s
Al fine di verificare le capacità predittive del modello, ai ratei di conteggio ottenuti sperimentalmente (fig.
2) è stato aggiunto10 un segnale simulando una concentrazione beta a vita non breve di 10 Bq/m3 (fig. 3),
ampiamente inferiore ai valori di riferimento di tab. 2.
Tabella 5 | Elaborazioni su segnale disturbato simulando una concentrazione beta aggiuntiva a vita non breve di 10
Bq/m3 (fig. 3). Risultati espressi in Bq/m3 (k = 2, 95%).
Numero di misure
m = 60
m = 120
m = 180
m = 240
Cα
< 27.83
< 5.62
< 0.89
< 1.97
Cβ
< 27.39
12.97 ± 5.26
11.79 ± 0.87
11.02 ± 0.38
CPb-214
15.26 ± 6.16
14.31 ± 1.45
14.16 ± 0.64
13.88 ± 0.50
CBi-214
14.68 ± 3.42
15.12 ± 1.91
15.89 ± 1.39
16.50 ± 1.18
χ2
105.88
186.11
255.31
340.85
χ2(0.99, 2m-6)
149.13
284.33
415.90
545.63
Si può osservare che anche in questo caso il modello spiega correttamente l’andamento simulato e le
soglie di decisone sono coerenti con i valori di riferimento di tab. 2. Inoltre le stime delle concentrazioni di
Pb-214 e Bi-214 sono assolutamente sovrapponibili a quelle effettuate sui dati sperimentali (tab. 4) e la
stima della concentrazione beta totale è coerente con il valore atteso già dopo 2 ore di misura.
Numero di misure m = 60
Numero di misure m = 120
10 Il segnale aggiunto comprende anche una componente casuale con distribuzione rettangolare centrata sul rateo
di conteggio corrispondente ad una concentrazione beta aggiuntiva a vita non breve di 10 Bq/m3.
71
Numero di misure m = 180
Numero di misure m = 240
Figura 3 | Segnale disturbato simulando una concentrazione beta aggiuntiva a vita non breve di 10 Bq/m3 rispetto ai
dati sperimentali di fig. 2.
Sono in corso la valutazione del numero minimo di misure necessarie a verificare il rispetto dei valori
di riferimento di tab. 2 e l’implementazione del modello in un foglio di calcolo in modo da renderlo più
facilmente utilizzabile.
CONCLUSIONI
Il modello proposto può essere un strumento utile alla stima delle concentrazioni alfa totale e beta totale
nel particolato atmosferico di radionuclidi a vita non breve nel caso di emergenze radiologiche o nucleari,
nel corso delle quali è necessario disporre di valutazioni in tempi molto ristretti, condizionati da tempi di
aspirazione e di misura non superiori a qualche ora.
Le simulazioni effettuate suggeriscono che con tempi di aspirazione di 1 ora e di misura di 2 ore sia
possibile verificare il rispetto dei valori di riferimento corrispondenti ai livelli di intervento derivati riportati in
CEVaD, 2010 per radionuclidi non facilmente rivelabili, in particolare per isotopi alfa emittenti.
BIBLIOGRAFIA
1. ISO 11929: 2010 Determination of the characteristic limits (decision threshold, detection limit and limits
of the confidence interval) for measurements of ionizing radiation - Fundamentals and application
2. CEVaD, Emergenze nucleari e radiologiche. Manuale per le valutazioni dosimetriche e le misure
ambientali, 2010, ISPRA
72
EL.SE. S.r.l.
Via Pier della Francesca 26 - 20090 Trezzano sul Naviglio
www.el-se.com - [email protected]
Contaminametro portatile con scintillatore plastico ZnS
CoMo 170 SEA
Camera a ionizzazione pressurizzata
9DP Ludlum
Analizzatore multicanale
702i Ludlum
Misuratore gamma portatile con rivelatore a scintillazione
NaI(Tl) e asta telescopica
ALMEMO-2NaI
nelle versioni con memoria per 100.000 misure
e con stampante termica incorporata
SISTEMI DI MONITORAGGIO AMBIENTALE
9
9
9
9
9
composizione modulare personalizzabile
facilmente adattabili a diverse esigenze di installazione (in ambienti interni o esterni)
in grado di gestire diverse tipologie di rivelatori: GM, Proporzionali, Neutroni, NaI(Tl)
software di gestione e visualizzazione dei dati acquisiti
possibilità di alimentazione a pannelli solari e connessione wireless
Radiazioni
Non Ionizzanti
Articoli
Strumenti e metodi a baso costo per monitoraggio selettivo
dell’esposizione umana a segnali Wi-Fi
Rodríguez de la Concepción A., Renga D., Stefanelli R., Trinchero D.
iXem Labs – Politecnico di Torino
corso Duca degli Abruzzi 24, 10129 Torino,
[email protected]
ABSTRACT - L’obiettivo di questo lavoro consiste nell’assemblaggio, configurazione e messa in opera di un
semplice strumento per la valutazione del campo elettromagnetico a radiofrequenza generato da reti WiFi,
di bassissimo costo realizzativo, di semplice utilizzo ma anche cn ottime prestazioni funzionali ed eccellenti
caratteristiche in termini di precisione e di sensibilità di lettura. Lo strumento prevede inoltre la possibilità di
discriminare i valori di potenza associati a diversi segnali WiFi, offrendo addirittura la separazione dei contributi
irradiati dai punti di accesso rispetto a quelli delle stazioni utente associate alla stessa rete. Lo strumento
può essere assemblato da chiunque abbia adeguate, ma non specifiche, competenze radioelettriche. Il
software di monitoraggio può essere autocostruito con semplici passaggi, ma ne esiste una versione già
disponibile, in forma open source, pubblicata sul repository Wiki del laboratorio iXem del Politecnico di
Torino
INTRODUZIONE
I dispositivi WLAN (wireless local area network) sia fissi (punti di accesso) che mobili (personal computers
e smartphones) sono sempre più continuativamente oggetto di monitoraggio dell’esposizione, in
considerazione di esigenze non necessariamente motivate dal punto di vista tecnico (le emissioni sono
molto contenute), ma comunque utili per fornire una corretta informazione ai cittadini. Il monitoraggio, e in
particolar modo la misura del campo elettromagnetico, tuttavia, sono resi complicati dalle caratteristiche
di modulazione, digitale e banda larga, nonché dagli scenari tipici, che prevedono la presenza simultanea
di diverse fonti di rumore/interferenza. Molto spesso, infatti, la misura è effettuata in un contesto operativo
all’interno del quale sono presenti diversi reti WLAN: quella “generata” dal punto di accesso oggetto della
misura, quelle generate da punti di accesso “terzi”, a cui si sommano segnali generati da utenze dell’uno
o degli altri. A differenza di quanto avviene per il broadcasting , dove le utenze non sono presenti, o per
la telefonia mobile, dove le utenze utilizzano una banda di uplink separata, in una rete WLAN i punti di
accesso e le utenze condividono lo stesso canale. Quando le utenze sono agganciate alla stessa rete, la
trasmissione avviene in una successione temporale stabilita dal punto di accesso. In presenza di utenze
agganciate a reti diverse, la non contemporaneità non è garantita, e nel caso di utenze “libere”, in cerca
di una rete a cui agganciarsi, la situazione è ancora più complessa, in quanto il canale di trasmissione
cambia in continuazione. Infine, tra le bande utilizzate dalle reti WLAN, quella a 2.4 GHz è particolarmente
critica, in quanto i canali hanno banda di frequenza pari a 16.6 MHz, ma passo di canalizzazione paria 5
MHz, e quindi canali diversi sono pure parzialmente sovrapposti.
È evidente che in un contesto come quello descritto, solo uno strumento in grado di isolare contributi
irradiati da soggetti diversi permetta di effettuare una misura corretta. In fase di misura, è necessario
distinguere tra rete e rete, tra utenze e punti di accesso, al fine di isolare il contributo del punto di accesso
oggetto di misura, e quantificarne il segnale irradiato. L’unica soluzione praticabile è offerta dall’utilizzo di
strumenti raffinati, i demodulatori vettoriali, di costo molto elevato e non sempre trasportabili sul campo.
MISURA DI UN SEGNALE WLAN
Il contesto descritto richiede l’utilizzo di un demodulatore vettoriale, dispositivo di grande precisione, ma
costo molto elevato. Difficilmente trasportabile, e soprattutto caratterizzato da complessità di utilizzo. Dal
punto di vista misuristico, il demodulatore vettoriale rappresenta la “Soluzione”, dove la “S” maiuscola
caratterizza l’assoluta correttezza dei risultati, confrontata con qualsiasi altro strumento: dai misuratori
77
a banda larga, agli analizzatori di spettro, magari con front-end digitale, ma non vettoriali [1]-[3].
Recentemente sono stati pubblicati lavori che forniscono metodologie di misura per ovviare all’utilizzo
di demodulatori vettoriali [4], [5]. Queste procedure sono efficaci in assenza di interferenze, però non è
possibile prescindere dalla demodulazione, quando più segnali, totalmente o parzialmente sovrapposti in
frequenza, siano presenti durante la misura.
IL DISPOSITIVO
L’idea realizzativa nasce da una considerazione “quasi” banale. La demodulazione di un segnale WLAN è
effettuata continuativamente da qualsiasi chipset wireless montato su qualsiasi piattaforma (PC, gateway,
smartphone) connessa ad una rete WLAN, ogni qual volta quella piattaforma voglia scegliere un punto di
accesso, collegarsi ad esso, e con esso scambiare dati ed informazione. La piattaforma è normalmente
attrezzata con un chipset che effettua le seguenti operazioni:
• filtraggio a radiofrequenza della sola banda WLAN prima del mixer, quindi grande precisione di misura
e bassa componente di rumore; normalmente un chipset wireless presenta una sensibilità in banda
tra -102 dBm e -110 dBm, assolutamente confrontabile con il demodulatore più avanzato presente sul
mercato
• demodulazione di tutti i segnali WLAN presenti nel luogo di connessione, individuazione degli
identificativi di rete ed associazione ad ognuno del corrispondente contributo di potenza ricevuta;
questa operazione, necessaria ai fini di stabilire il collegamento di rete, è svolta in modo “nascosto”
rispetto all’utente della piattaforma, ma è indispensabile per stabilire un corretto collegamento in rete
• aggiornamento continuativo dello stato delle reti presenti nel luogo di connessione, con ricezione di tutti
i segnali presenti, siano essi punti di accesso o stazioni utente.
Ulteriore vantaggio è rappresentato dal fatto che un chipset WLAN costa qualche decina di Dollari.
Sulla base di questa considerazione, abbiamo realizzato un PC attrezzato con un chipset WLAN, che
accede direttamente alle funzionalità di scansione e monitoraggio implementate all’interno dello stesso
chipset e normalmente non accessibili all’utente [6]. Il PC, in particolare, effettua una scansione di tutti i
pacchetti presenti su ogni canale Wi-Fi per un tempo predefinito dall’utente, individua il nome della rete
che li ha generati (E-SSID), e nel caso in cui il nome della rete sia nascosto, individua il MAC-ADDRESS
(B-SSID) della stessa, che è sempre trasmesso in chiaro. Il PC, in pratica, funziona come un normale router
Wi-Fi, offrendo all’utente la possibilità di accedere alle informazioni di rete che sono utilizzate da un router
per il proprio funzionamento e che normalmente non sono accessibili all’utente dello stesso.
Il dispositivo è realizzato mediante un comunissimo chipset Wi-Fi, di tipo commerciale, del valore di poche
decine di Euro, pre-montato sua una scheda di controllo standard, di tipo mini-PCI o PCI. Il meccanismo
di controllo e gestione è affidato al PC, realizzato mediante una scheda che ospita una CPU e RAM
adeguate. La scelta naturale è rappresentata da una soluzione integrata su SBC (single board computer),
come quella rappresentata in Figura 1, a destra. Possono andare bene anche soluzioni che prevedano
l’utilizzo di un computer di vecchia generazione, obsoleto per attività computazionali o di ufficio, ma utile
per il controllo di hardware di misura, come mostrato in Figura 1, a sinistra. L’antenna può essere di tipo
commerciale, ma può essere sufficiente un’antenna omnidirezionale a larga banda, che copra tutti i canali
Wi-Fi, anch’essa autocostruita.
In particolare, il costo estremamente contenuto della realizzazione, permette di considerare la possibilità
di montare sullo stesso PC non uno, ma più chipsets, in modo tale da effettuare la misura delle
tre polarizzazioni (X,Y,Z) in contemporanea. Questo permette di ridurre i tempi di misura ad un terzo,
permettendo l’esecuzione di monitoraggi in più punti. Alternativamente, è possibile utilizzare i tre chipsets
per misurare il campo elettromagnetico in punti diversi dello spazio, effettuando la media spaziale sulla
sezione trasversale del corpo umano richiesta dalla normativa tecnica in tempo reale.
78
Figura 1 | Esempi di realizzazione del dispositivo a tre radio, con PC (a sinistra) e SBC (a destra)
IL SOFTWARE
L’analisi in frequenza può essere facilmente realizzata dall’utente finale, mediante accesso alle funzioni di
scansione e monitoraggio del chipset. Le procedure sono standard, e quindi è sufficiente la conoscenza
dei codici di controllo del chipset stesso per avviare la scansione dei pacchetti e l’acquisizione del dai di
monitoraggio. Operativamente, se non automatizzata, l’operazione può essere relativamente laboriosa,
poiché il chipset registra tutti i pacchetti generati da tutti i dispositivi wireless identificati. Occorre quindi un
lavoro di scrematura e filtro dei pacchetti, per individuare quelli significativi, ai quali è associata l’effettiva
potenza massima, irradiata sui sincronismi.
Per semplificare le operazioni di misura e fornire una lettura immediata, abbiamo realizzato un software di
controllo, installato sul dispositivo (il PC) da noi progettato per effettuare la scansione di rete. Il software
di controllo è attrezzato con interfaccia Web: a questo modo l’utilizzo del PC che effettua la scansione
è garantito a tutti, mediante utilizzo di un qualsiasi browser, prescindendo dal sistema operativo o dal
sistema di acquisizione utilizzato dall’utente finale.
Il software effettua le seguenti operazioni:
1. sceglie quali e quante chipsets utilizzare in fase di scansione
2. sceglie le frequenze (i canali) su cui effettuare al scansione
3. determina la durata della fase di ascolto per ogni canale
4. effettua la scansione
5. filtra i dati di monitoraggio
6. aggrega i risultati per B-SSID
7. stampa i risultati
La Figura 2 rappresenta la pagina Web utilizzata per impostare i parametri di scansione (punti da 1. a
3. dell’elenco precedente). La figura 3 rappresenta la pagina Web utilizzata per memorizzare i parametri
identificativi della catena sperimentale, al fine del calcolo automatico dei valori di campo presenti nel luogo
di misura.
79
Figura 2 | La schermata iniziale del Software di scansione
Figura 3 | Impostazione dei parametri della catena di misura
RISULTATI
In Figura 4 è riportato un esempio di risultati. La scansione riportata in figura è stata effettuata all’interno
di un laboratorio del Politecnico di Torino. Il software effettua una stima della potenza ricevuta per ogni
segnale Wi-Fi presente, distinguendo i punti di accesso dalle stazioni. Quando disponibile, viene effettuato
un riconoscimento dell’identificativo pubblico (E-SSID). In caso di reti protette, il segnale viene catalogato
in base all’indirizzo MAC della scheda radio (B-SSID). Viene inoltre riconosciuto il canale di esercizio, che
è associato univocamente alla frequenza utilizzata dagli apparati oggetto di misura. Infine viene riportata la
potenza di segnale, per ognuna delle polarizzazioni misurate. In pratica, lo strumento contiene al proprio
interno l’equivalente di tre analizzatori di spettro, indipendenti, che lavorano in perfetta contemporaneità e
80
sincronismo, ognuno dei quali misura indipendentemente una delle tre polarizzazioni.
La Figura 5 riporta i valori di campo corrispondenti, calcolati in funzione dei parametri di caratterizzazione
della catena sperimentale precedentemente introdotti mediante la schermata riportata in Figura 3.
Le incertezze della catena di misura così realizzata dipendono dalle prestazioni dei singoli componenti,
ed è evidente che l’utilizzo di un chipset a basso costo rappresenti una possibile limitazione, rispetto agli
analizzatori di spettro a bassa cifra di rumore. Vale la pena ricordare che è sempre possibile eseguire
una caratterizzazione strumentale delle radio utilizzate, per mezzo di un confronto con un corrispondente
analizzatore vettoriale. Tale confronto può essere realizzato mediante un collegamento su cavo tra una
sorgente di riferimento e un analizzatore vettoriale, e successivamente con la radio. A questo modo è
possibile recuperare la componente sistematica dell’errore di misura, e utilizzare il dato come fattore di
pre-calibrazione per il calcolo della potenza ricevuta.
iXemWIKI
La realizzazione proposta è descritta da un filmato pubblicato sul repository iXemWiki degli iXem Labs
del Politecnico di Torino, insieme con una versione del software di scansione descritto nel paragrafo
precedente. L’accesso al repository è garantito a titolo gratuito, ed è possibile registrandosi presso lo
stesso sito e richiedendo le credenziali di accesso.
L’indirizzo Web del repository è: wiki.iXem.polito.it
CONCLUSIONI
Il risultato è rappresentato da un dispositivo semplice, di costo bassissimo, molto più funzionale ed immediato
di qualsiasi sistema di misura dotato di demodulatori vettoriali. La grande peculiarità è rappresentata dalla
possibilità di utilizzare codici di demodulazione disponibili “open source” che permettono l’individuazione
della potenza associata a reti in chiaro, reti criptate, e e di separare con successo gli Access Point dalle
station. Lo strumento ideale per una risposta chiara, veloce, precisa, affidabile, a costi molto contenuti.
Per il futuro abbiamo intenzione di sviluppare dispositivi analoghi da utilizzare per effettuare scansioni di
altre tipologie di segnale digitale: telefonia mobile 2G, 2.5G, 3G, 3.5G, 4G, televisione digitale DVB-T e
DVB-H, fonia digitale DAB, reti WPAN a standard 802.15
BIBLIOGRAFIA
1. D. Trinchero “Valutazione teorica e sperimentale dell’esposizione in presenza di reti radio digitali di
nuova generazione”, IV Convegno Nazionale Controllo ambientale degli agenti fisici: nuove prospettive
e problematiche emergenti, 24-27 Marzo 2009, Vercelli, Italy
2. Agilent, Application Note 1380-1 “RF Testing of Wireless LAN Products”
3. Rohde & Schwarz, Application Note 1MA69, “WLAN Tests According to Standard 802.11a/b/g”
4. D. Trinchero et al., “Misura dell’esposizione a segnali radio digitali a banda larga mediante strumenti
selettivi in frequenza”, IV Convegno Nazionale Controllo ambientale degli agenti fisici: nuove prospettive
e problematiche emergenti, 24-27 Marzo 2009, Vercelli, Italy
5. D. Trinchero, A. Carta, L. Cisoni, R. Stefanelli, S. Trinchero, “Measurement of radio signals carrying
wideband digital modulations by means of frequency selective instruments”, XVIII Riunione Nazionale
di Elettromagnetismo (RiNEM), 6-10 Settembre 2010, Benevento, Italy
6. IEEE Standard for Information technology-Telecommunications and information exchange between
systems-Local and metropolitan area networks-Specific requirements - Part 11: Wireless LAN, , IEEE
Std. 802.11, 2007.
81
Figura 4 | Esempio di risultato della scansione – potenze rilevate
Figura 5 | Esempio di risultato della scansione – valori di campo sulle singole polarizzazioni e totale
82
Articoli
Misure di campo elettrico da stazioni radio base UMTS
e analisi della relazione con la potenza in antenna
Mathiou M.1, Bottura V.2, Cappio Borlino M.2, Vaccarono D.3, D’Elia S.3 , Adda S.4
Politecnico di Torino III Facoltà di Ingegneria, [email protected]
Arpa Valle D’Aosta, Loc. Grande Charrière 44, Saint Christophe (AO), [email protected]
3
Vodafone Omnitel NV, Via Jervis 13, 10015 Ivrea (TO), [email protected]
4
Arpa Piemonte, Via Jervis 30, 10015 Ivrea (TO), [email protected]
1
2
Le simulazioni teoriche preventive sulle emissioni di campo elettrico generate da SRB con tecnologia UMTS
portano in molti casi a risultati eccessivamente sovrastimati. E’ stato oggetto di una tesi di laurea magistrale
in Ingegneria delle Telecomunicazioni del Politecnico di Torino in collaborazione con ARPA Valle d’Aosta
e Vodafone Italia di Ivrea un primo lavoro di confronto tra misure di campo elettrico generato in ambiente
e potenza emessa dall’antenna trasmittente, per valutare un modo di effettuare le simulazioni che fornisca
risultati più reali dell’impatto elettromagnetico generato da questo tipo di impianti. A seguito di tale lavoro
primario sono seguite altre verifiche sul campo in siti del Piemonte grazie alla collaborazione tra ARPA
Piemonte e operatore Vodafone Italia ed un lavoro di elaborazione statistica dei dati di potenza di alcune
importanti SRB.
INTRODUZIONE
Presso l’ARPA Valle d’Aosta, in collaborazione con l’operatore Vodafone Italia, è stata svolta una tesi di
laurea magistrale di una studentessa del corso di laurea specialistica in Ingegneria delle Telecomunicazioni
del Politecnico di Torino. L’obiettivo della tesi era quello di verificare la possibilità di trovare dei fattori di
riduzione da applicare alla potenza utilizzata nelle simulazioni teoriche eseguite per una Stazione Radio
Base (SRB) funzionante con la tecnologia UMTS, per avere una visione più realistica, ma pur sempre
conservativa, dell’impatto elettromagnetico che tale impianto può avere sull’ambiente circostante, rispetto
a quella ottenibile utilizzano la potenza di progetto. Tali fattori sono, peraltro, già previsti dalla normativa
tecnica di settore (Guida CEI 211-10, Admission Control)
L’ipotesi di lavoro era quella di identificare i fattori di riduzione andando ad esaminare il legame presente
tra traffico, potenza irradiata e campo misurato in siti di tipologia differente, verificando anche se fosse
possibile raggruppare i siti in base a caratteristiche comuni di tipo geografico o di tipo tecnico. Sono state
eseguite diverse misure di campo elettrico in ambiente di vita per periodi di tempo piuttosto lunghi (anche
24 ore) mentre, contemporaneamente, venivano memorizzati i dati puntuali di potenza e traffico gestiti
dalla stazione radio base tramite un processo costruito appositamente per questa attività.
SITI DI MISURA
Risulta molto importante il tipo di sito di misura da scegliere perché deve presentare tutte le caratteristiche
idonee all’effettuazione delle misure, ed individuarli non è stato facile. Il sito ottimale doveva prevedere: una
stazione radio base dell’operatore Vodafone in tecnologia UMTS, la possibilità di collocare la sonda nella
zona illuminata dal lobo principale dell’antenna emittente e la possibilità di avere accesso alla rete elettrica
per la gestione della strumentazione di misura per molte ore consecutive, nonché l’accesso in sicurezza.
Dopo aver preso in considerazione tutti i siti presenti sul territorio valdostano, la scelta è ricaduta su due,
nei comuni di Saint Vincent (fig. 1) e Quart (fig. 2), a cui se ne è aggiunto uno ulteriore, presso la sede
Vodafone di Ivrea (fig.3). Tutti e tre i siti hanno caratteristiche tecniche e urbanistiche differenti:
83
Figura 1 | Sito di Saint Vincent
Il sito di Saint Vincent (fig. 1) è posto al centro della cittadina, in una zona residenziale, in cui è presente
una SRB composta da tre settori ognuno dei quali lavora su due portanti, una dedicata al traffico voce e
una dedicata al traffico dati
Il sito di Quart (fig. 2) è posizionato in una zona prevalentemente commerciale e di uffici, è presente una
SRB composta da tre settori e ogni settore lavora su una sola portante in grado di gestire sia il traffico voce
che il traffico dati
Il sito di Ivrea (fig. 3) è posto in una zona commerciale e di uffici ed è costituito da una SRB composta da
due settori che utilizzano ciascuno due portanti entrambe in grado di gestire sia il traffico voce che il traffico
dati.
Figura 2 | Sito di Quart
Figura 3 | Sito di Ivrea
84
MISURE
Prima dell’esecuzione delle misure vere e proprie sono stati effettuati rilievi e simulazioni preventivi per
poter comprendere la distribuzione del campo elettrico nell’intorno del sito considerato e poter scegliere il
punto migliore di misura.
Nei tre siti è stato misurato in ambiente di vita il campo elettrico generato da una delle portanti della SRB
mentre, contemporaneamente, venivano memorizzati i relativi dati di potenza e traffico.
Le misure di campo elettrico sono state effettuate con l’analizzatore NARDA SRM3000 messo a disposizione
da ARPA Valle d’Aosta. Al fine di acquisire i dati su un periodo lungo è stato necessario predisporre un
programma di controllo dello strumento via PC (fig. 4).
I dati di traffico e potenza trasmessa sono stati campionati direttamente dalla rete Vodafone tramite un
procedimento costruito ad-hoc. Tale processo consiste in un collegamento da remoto di un tecnico
direttamente agli apparati della SRB tramite il quale si e’ potuta fare un’estrazione ogni 3 secondi ed una
memorizzazione dedicata dei contatori di rete interessanti per la nostra analisi. Nei processi automatizzati
standard tali dati invece non vengono estratti con questa capillarità ma solamente su base oraria.
Le prime misure in banda stretta sono state eseguite con modalità digitale sul canale di controllo del
segnale UMTS che fornisce in uscita valori quasi stabili, per cui si è potuto verificare che, escludendo
il traffico, l’antenna eroga al minimo sempre una potenza pari a circa 35 dBm. In tale modalità viene
comunque registrato anche il contributo totale del segnale UMTS. Nelle misure successive si è invece
misurato direttamente l’integrale sull’intera banda del segnale. L’intervallo di misura è stato posto pari a
10 secondi poiché la procedura di campionamento sulla SRB era in grado di fornire i dati di potenza e di
traffico ad intervalli non regolari compresi tra 3 e 5 secondi.
Figura 4 | Misure di campo elettrico
ELABORAZIONI E RISULTATI
È stato necessario effettuare delle elaborazioni preliminari per sincronizzare tra loro le misure di campo
elettrico con i dati memorizzati dalla SRB, in quanto gli intervalli di campionamento non erano uguali,
inoltre, i dati di traffico non sono stati memorizzati per tutto l’intervallo di misura.
Successivamente le elaborazioni sono state eseguite mettendo in relazione il campo elettrico e la radice
quadrata della potenza in antenna espressa in Watt, per valutare la correlazione tra le due grandezze che,
teoricamente, è ben definita. Tale correlazione è stata analizzata sia tra i valori istantanei, che mediando su
diversi intervalli temporali, tra cui quello più significativo, anche ai fini stessi del lavoro, è quello su 6 minuti
come previsto dalla normativa nazionale.
Mediando su 6 minuti le correlazioni tra campo elettrico (espresso in V/m) e radice della potenza (espressa
in W) sono già molto buone, si mostra un esempio di correlazione tra un set di dati (fig. 5) e una tabella (tab.
1) riassuntiva delle correlazioni ottenute per tutti i siti di misura nei diversi intervalli di media temporale:
85
Figura 5 | Esempio di correlazione campo elettrico – radice potenza
Tabella 1 | Correlazioni a diverse medie temporali tra campo elettrico – radice quadrata della potenza
IST
1 MIN
6 MIN
10 MIN
15 MIN
30 MIN
1 ORA
St. Vincent
(*) Aprile
0,494
--
0,855
0,904
0,933
0,964
0,980
St. Vincent
Giugno
0,183
0,427
0,740
0,777
0,794
0,808
0,810
Ivrea
Giugno
1° giorno
0,012
0,068
0,319
0,432
0,494
0,482
0,483
Ivrea
Giugno
2° giorno
0,052
0,167
0,617
0,649
0,647
0,692
0,769
Quart
Giugno
0,346
0,617
0,908
0,943
0,961
0,977
0,983
Grugliasco
Ottobre (1p)
0.361
0.498
0.902
0.950
0.955
0.967
0.980
(*) le misure di campo elettrico sono state effettuate ad intervalli di campionamento di 1 minuto
I differenti risultati tra i siti dipendono da vari fattori: tipo di traffico gestito dall’antenna, giorno della settimana
in cui si esegue la misura, condizioni atmosferiche di temperatura ed umidità, ecc.
Inoltre per ottenere correlazioni accettabili tra campo elettrico e potenza è necessario disporre di molti dati
di misura.
Le correlazioni sono comunque significative quando si media già su un periodo di 6 minuti.
Sono state eseguite le stesse elaborazioni anche sui dati di traffico. Purtroppo, a causa della mole di
dati impattata dall’operazione di acquisizione di questo tipo di informazione, non è stato possibile avere
a disposizione tutti i valori istantanei di traffico per i vari siti, ma in alcuni giorni sono stati forniti solo per
alcune ore. I risultati delle elaborazioni non hanno evidenziato correlazione tra campo elettrico e traffico.
Tra i motivi va considerato lo scarso numero di dati a disposizione, ma, soprattutto, il fatto che non esiste
una definita relazione che lega il campo elettrico al traffico, nonostante la potenza emessa dall’antenna
sia generata per gestire tale traffico. Infatti, può accadere che un utente molto vicino alla SRB generi molto
traffico ma richieda poca potenza e che un altro utente che si trova ai confini della cella richieda molta
più potenza per generare lo stesso quantitativo di traffico. Inoltre, è importante anche il tipo di traffico, in
quanto il traffico voce è sicuramente diverso dal traffico dati, di tipo spot e con ampiezze decisamente
inferiori.
Considerando che mediando a 6 minuti le correlazioni tra campo elettrico e potenza sono già buone, si è
provato a vedere se, utilizzando come potenza di simulazione la massima ricavata dalle medie su 6 minuti,
il risultato dell’elaborazione teorica fornisse un valore sempre maggiore anche rispetto ai valori ricavati
dalle singole medie ogni 6 minuti dei dati di campo elettrico misurato. Inoltre, si sono simulati i valori di
campo anche utilizzando la media tra valori di potenza mediati su 6 minuti e la massima potenza dichiarata
dall’operatore in fase di progetto, per metterli tutti a confronto.
86
I comportamenti sono differenti nei tre siti: solo per il sito di Quart, dove le correlazioni campo/potenza erano
ottime, il valore di campo elettrico ottenuto inserendo nella simulazione la massima tra le potenze mediate
sui 6 minuti è risultato sempre maggiore delle medie dei valori di misura (fig. 6). Questo risultato è molto
importante perché il sito di Quart era quello in cui si sono riscontrati intervalli di 6 minuti in cui la potenza
rimaneva abbastanza costante e la cui media si avvicinava al valore limite per il corretto funzionamento
della rete (fig. 7).
Figura 6 | Confronti tra simulazioni e misure – Sito di Quart
Figura 7 | Potenza nei massimi 6 min. durante la sessione di misura - Sito di Quart
Negli altri siti, in cui la potenza realmente utilizzata dalla SRB nel periodo di misura è stata nettamente al di
sotto della massima potenza disponibile, e non è stato possibile trovare un periodo di 6 minuti in cui essa
rimanesse abbastanza costante, (fig. 9), alcuni valori delle singole medie ricavate dalle misure superavano
il valore ottenuto dalla simulazione (fig. 8).
Figura 8| Confronti tra simulazioni e misure – Sito di St. Vincent
87
Figura 9 | Potenza nei massimi 6 min. durante la sessione di misura - Sito di St. Vincent
Solo per nel sito di Quart, dove il valore massimo di potenza utilizzata è pari circa al 75 % della potenza
totale, valore che si avvicina al valore limite per il corretto funzionamento della rete, il valore di campo
elettrico ottenuto inserendo nella simulazione la massima tra le potenze mediate sui 6 minuti è risultato
sempre maggiore dei valori delle medie su 6 minuti ottenuti direttamente dalle misure.
I dati rilevati da Arpa Valle d’Aosta sono poi stati integrati da ulteriori misure, effettuate con la stessa
metodologia da Arpa Piemonte su un sito nella prima cintura di Torino (Grugliasco), caratterizzato da
traffico elevato e buona accessibilità del punto di misura. Tale sito è stato monitorato in una prima fase con
una condizione di singola portante UMTS, ed in una seconda fase dopo il potenziamento tramite aggiunta
della seconda portante. Il coefficiente di correlazione tra campo e potenza è risultato pari a 0.94. In fig.10
sono riportati la regressione campo-radice della potenza e le valutazioni teoriche effettuate analogamente
a quanto fatto per i siti valdostani (per il caso a singola portante).
Figura 10 | Misure e simulazioni – Sito di Grugliasco
88
Riassumendo, dai risultati delle rilevazioni effettuate si possono trarre le seguenti conclusioni:
• Le correlazioni tra campo e potenza aumentano all’aumentare del tempo sul quale si media;
• la media sui 6 minuti e’ parametro significativo sul quale effettuare le analisi statistiche;
• tra i diversi parametri monitorabili dalla rete, e’ necessario individuare il corretto contatore che fornisce
la potenza istantaneamente complessiva emessa dalla SRB;
• i siti hanno tutti caratteristiche tecniche differenti: si notano comportamenti differenti anche per quanto
riguarda l’andamento delle correlazioni;
• il sito di Quart e quello di Grugliasco forniscono le correlazioni migliori, probabilmente perche’ le portanti
misurate hanno una alta percentuale di occupazione di potenza e le misure sono poco perturbate
dall’ambiente circostante.
ANALISI STATISTICA DELLA POTENZA DI CELLE UMTS IN AREE URBANE
Visto l’obiettivo di validare il coefficiente di riduzione da applicare alla potenza ipotizzato nella prima fase
dell’attività’, si e’ voluto estendere l’analisi ad un cluster di siti statisticamente significativo dal quale estrarre
e memorizzare i dati puntuali relativi alla potenza emessa. Si e’ scelto quindi di concentrarsi su due primarie
città del Nord /Sud Italia che sono gestite dai due diversi produttori di apparati radio fornitori di Vodafone
Italia. All’interno di questi cluster sono stati individuate le celle che sulla base dei contatori potenza smaltita
(oraria) sono risultate le più ad alto traffico.
L’analisi effettuata sui dati di potenza ha avuto sostanzialmente la finalità di predisporre un metodo per la
stima dell’entità della riduzione dovuta all’Admission Control, ed è stata sviluppata in due obiettivi:
• determinare se il cluster di dati fosse realmente rappresentativo di condizioni di carico elevato degli
impianti,
• valutare statisticamente, in condizioni effettivamente conservative, l’entità del fattore di riduzione rispetto alla potenza massima, assimilabile all’admission control.
Tale analisi ha contemplato sia siti con singola portante, sia siti con due portanti (in genere ripartite tra
voce e dati).
La prima operazione effettuata sulle serie di dati è stata lo studio dell’autocorrelazione, finalizzato a
determinare l’intervallo di campionamento più corretto sul quale lavorare, dal quale è emerso che un
campionamento ogni 10s.circa garantisce che i dati siano effettivamente significativi in quanto indipendenti
tra di loro.
Dopo aver effettuato il ricampionamento, si quindi è proceduto all’analisi, tramite la stima di una serie di
parametri statistici utili per la determinazione della bontà del cluster di dati e tramite calcolo della media
trascinata su 6 minuti.
Per la determinazione della rappresentatività del cluster in merito alle condizioni di carico elevate, sono
stati calcolati i percentili e valutati i boxplot (esempio fig. 11).
Figura 11 | boxplot per una serie di dati della città del Nord
89
Si sono in pratica considerate come condizioni di alta potenza i valori che nel boxplot sono considerati
come outlayers, ossia quei valori superiori al limite (Lout) determinato come somma del 75° percentile più
il range interquartilico.
Un ulteriore discrimine per individuare le sessioni ad alta potenza è stato il valore del 95° percentile.
In prima analisi, si sono individuate quelle celle per le quali si potevano riscontrare condizioni di alta potenza
(>Lout) per intervalli di tempo maggiori di 1 minuto. Su 30 celle analizzate in totale, 12 rispondevano a
questo requisito (4 su 17 a Milano e 8 su 13 a Palermo). Per queste celle, si è considerato che la media
trascinata sui 6 minuti fosse effettivamente una stima sufficientemente conservativa della massima potenza
raggiunta in presenza del meccanismo di admission control.
Per le restanti celle, si è scelto di considerare come rappresentative quelle che soddisfano le seguenti
condizioni:
1. il valore massimo istantaneo raggiunge livelli superiori al 95% della potenza massima erogabile
2. la percentuale degli outlayers (stimata secondo il metodo visto sopra) è superiore al 10% del totale dei
campioni, ossia almeno 30 minuti su un campionamento di 24 ore sono in condizioni di alta potenza
Per le celle così individuate (7 su 30), il parametro utilizzato per la stima della massima potenza raggiungibile
dall’impianto è stato la media dei valori individuati come outlayers. In pratica, sono stati ricostruiti i potenziali
peggiori 6 minuti, che si realizzerebbero nel caso in cui le condizioni di alta potenza fossero richieste
continuativamente per un tempo di durata di qualche minuto.
Tale parametro è stato stimato anche per le prime 10 celle, ed è risultato, a riprova della validità del
ragionamento sopra riportato, convergente con il valore della massima media su 6 minuti.
I parametri scelti (massima media su 6 minuti o media degli outlayers) sono stati quindi espressi in
percentuale rispetto alla potenza massima erogabile dagli impianti.
In merito all’aspetto del rapporto con la potenza massima erogabile, nell’analizzare le serie di dati della
città del Sud, ci si è resi conto di un comportamento anomalo rispetto ai dati della città del Nord. In effetti,
per la maggior parte dei siti della città del Sud è utilizzato un depotenziamento via software a causa di una
situazione storica di copertura della città. E’ in effetti evidente, nel grafico di fig. 12, come il depotenziamento
via software infici il funzionamento del meccanismo di admission control. Per la cella analizzata, infatti, il
valore massimo della potenza istantanea raggiunge soltanto il 73.8% della potenza di targa dell’impianto,
ma livelli elevati vengono mantenuti per intervalli di tempo prolungati, per cui il valore massimo della media
su 6 minuti raggiunge il 72% della potenza di targa.
Figura 12 | Andamento nel tempo della potenza su 2 portanti di un impianto della città del Sud
In tab. 2 sono riportati i risultati delle stime per tutte le celle analizzate (indicate con una N quelle della città
del Nord e con una S quelle della città del Sud). Nella sezione A sono visibili i valori percentuali del rapporto
tra massima media su 6 minuti e massima potenza erogabile per le 10 celle che rispettano il requisito di alta
potenza per periodi prolungati. Nella sezione B sono riportati i valori percentuali del rapporto tra la media
degli outlayers e la massima potenza erogabile per le celle considerate rappresentative secondo i criteri
sopra riportati. Queste prime due sezioni possono essere utilizzate per una prima stima dell’entità del fattore
da applicare ai sensi della norma CEI 211-10 per tener conto dell’admission control. E’ però da rilevare
che il depotenziamento di molte delle celle della città del Sud è dovuto non al meccanismo dell’admission
90
control, che anzi non è operativo in maniera efficace come già evidenziato, bensì al depotenziamento via
software operato a priori sulla cella.
Per completezza e’ da evidenziare anche la presenza di una cella con un sovraccarico nell’utilizzo della
potenza (la N58841, evidenziata in rosso nella tab. 2). Tale cella risultava già come congestionata ed anomala
come servizio fruibile dagli utenti, in quanto caratterizzata da una sola portante UMTS implementata in un
contesto di traffico elevato (e’ già stato pianificato un aumento capacitivo con l’aggiunta della seconda
portante). Infatti la percentuale di occupazione di potenza da parte del traffico dati, per il mese di aprile,
è stata sempre superiore al 95%, contro una media di riferimento di circa il 70% (ad di sopra della quale
vengono pianificati interventi di espansione). Peraltro, il numero di campioni con valore di potenza su 6
minuti maggiore dell’80% della massima potenza erogabile è molto limitato (pari all’1.4%).
Oltre ai valori riportati in tabella, è stato calcolato il rapporto tra la massima media su 6 minuti e la massima
potenza erogabile per le celle residue, dato che, pur non essendo adeguato ad una stima cautelativa
del fattore di riduzione per l’admission control, può servire come indicazione delle condizioni medie
di esposizione riscontrabili da misura rispetto alla valutazione a massima potenza, anche in presenza
di traffico elevato. Considerando tutte le celle analizzate, l’occupazione media di potenza rispetto alla
massima erogabile è del 54% circa.
Tabella 2 | Risultati della stima della percentuale della potenza massima erogabile effettivamente trasmessa in
condizioni di carico elevato delle celle
A
B
Identificativo cella
Numero portanti
% della potenza massima erogabile
N02863
1
79.7
N57641
1
73.6
N58841
1
86.05
N46713
2
62.6
S06652
1
58.75
S24809*
1
68.75
S24591
1
62.2
S31061*
1
67.8
S55482
1
59.2
S05503-6
2
62.4
S54892-5
2
72.15
S54952-5
2
73.0
N25481
2
68.25
N58865
73.7
N63165
50.7
N58294
36.5
N58785
62.2
N60105
48.2
N63275
55.3
* celle di Palermo che non sono state depotenziate via software
Il valore più elevato tra quelli di tabella 2 è quello relativo alla cella in condizioni di funzionamento non
sostenibili (per la quale è stata richiesta l’attivazione della seconda portante). Se si esclude questa cella, la
percentuale più elevata riscontrata è inferiore all’80%.
Ragionando in termini di media sul set di celle maggiormente cariche, il fattore da applicare alla massima
potenza erogabile è all’incirca di 0.74.
Anche per le analisi sulla potenza possiamo pertanto trarre alcune conclusioni:
• la buona correlazione tra misure di campo e misure di potenza (medie su 6 minuti) permette di lavorare
direttamente sui dati di potenza per studiare i fattori di utilizzo della stessa nel normale funzionamento
della rete;
• l’analisi sulle potenze è stata eseguita con un approccio conservativo (selezione di un set di celle ad alto
traffico, ricerca delle peggiori condizioni di utilizzo della potenza per 6 minuti effettivamente registrate o
ricostruite, scelta della portante a maggiore occupazione di potenza nelle celle a 2 portanti);
91
• il fattore di utilizzo della potenza ricavato è inferiore all’80% per 18 celle su 19 selezionate. Tale risultato
conferma quanto evidenziato nelle misure di Quart (nei peggiori 6 minuti, potenza circa 75% della
massima erogabile);
• la sola cella con utilizzo di potenza >80% presenta tale fenomeno per poco più di 1/100 dell’intervallo
di tempo studiato (circa 24h), ed è una cella anomala che verrà a breve ampliata con la seconda
portante.
• sarebbe necessario ampliare il campioni di siti del secondo fornitore per confermare l’utilizzo dei
risultati per la stima dell’Admission Control, in quanto la maggior parte delle celle della seconda città
(depotenziate via software), tale meccanismo non è efficace;
• e’ stato messo a punto un metodo che potrà essere utilizzato anche per altri tipologie di apparati in
ulteriori condizioni di trasmissione (previa verifica del contatore che effettivamente monitora la potenza
dell’apparato stesso).
CONCLUSIONI
La tecnologia UMTS è radicalmente diversa dalle precedenti nella gestione spettrale ed e’ caratterizzata da
una efficiente gestione spazio/potenza utilizzato dagli utenti. Per un funzionamento ottimale, la stazione radio
base non deve utilizzare la massima potenza disponibile per lunghi periodi, portando così ad un risultato
medio di potenza utilizzata sempre minore di quella massima di un fattore stimabile. Tale coefficiente è
già previsto dalla normativa tecnica di settore (Admission Control). I lavori presentati nell’articolo hanno lo
scopo di quantificare tale coefficiente in modo cautelativo rispetto alle reali condizioni di emissione delle
antenne (dati ricavati dai contatori di rete). Si è cominciato con il verificare la correlazione campo – potenza
tra le misure in ambiente e la potenza emessa in antenna. In condizioni di buona visibilità delle antenne
e di elevato utilizzo della stazione, tale correlazione su una media di 6 minuti è ottima (superiore a 0.9). Il
passo successivo e’ stato una estesa elaborazione statistica sui dati di potenza delle SRB più significative
di due grandi città per verificare se il coefficiente ricavato dai dati misurati (circa 0.75) fosse cautelativo
anche per ampi cluster di siti.
Le elaborazioni confermano tale risultato e indicano un metodo per ricavare un coefficiente utile a calcolare
un valore piu’ realistico della potenza in antenna da utilizzare per le simulazioni preventive di impatto
elettromagnetico, che garantisce comunque il rispetto dei limiti nel confronto con i valori misurabili in
campo.
Questa metodologia potrà essere in futuro quindi applicata per ricavare il valore di Admission Control
relativi a fornitori di tecnologia UMTS anche di altri operatori.
BIBLIOGRAFIA
1. Z. Mahfouz, A. Gati, D. Lautru, M. Wong, J. Wiart, V. Fouad Hanna “Influence of Traffic Variations on
Exposure to Wireless Signals in Realistic Environments”, Bioelectromagnetics (2011).
2. Norma CEI 211-10 “Guida alla realizzazione di una Stazione Radio Base per rispettare I limiti di
esposizione ai campi elettromagnetici in alta frequenza (2002)
92
Articoli
Stima del rischio di superamento del valore di attenzione
sulla base di misure spot di campo magnetico generato
da linee ad alta tensione
Adda S., Caputo E., Anglesio L., d’Amore G.,
Arpa Piemonte - Dipartimento Tematico Radiazioni Via Jervis 30, 10015 Ivrea (TO), [email protected]
piemonte.it
Il DM 29/05/2008 prevede un metodo per la valutazione indiretta, tramite estrapolazione, dell’induzione
magnetica in condizioni di massimo carico delle linee, basata sull’effettuazione di misure prolungate. Ciò
comporta che le misure spot (per brevi periodi di tempo) non sono adeguate a dare informazioni circa il
rispetto dei limiti, e quindi non sono utilizzabili per le attività di controllo delle Agenzie se non ad un livello
puramente conoscitivo.
Dal punto di vista dell’organizzazione dell’attività di un’Agenzia, non sempre è agevole prevedere misure
prolungate nel tempo in tutti i recettori interessati dal passaggio di una linea. Per questo motivo, è stata
condotta un’analisi statistica finalizzata a fornire un criterio di determinazione dei casi in cui sussiste un
comprovato rischio di superamento del valore di attenzione, sulla base di misure spot, in modo da definire
quando sia necessario procedere ad una misura prolungata e quando invece sia sufficiente fermarsi alla
misura spot stessa.
INTRODUZIONE
Il metodo per la valutazione indiretta dell’induzione magnetica in condizioni di massimo carico delle linee
previsto dal DM 29/05/2008 è basato sull’acquisizione di almeno 100 coppie di valori sincroni campocorrente sulla base dei quali procedere ad un’estrapolazione. Tale metodo è stato testato e verificato
(Colonna, Licitra, 2009), garantendo in determinate condizioni la possibilità di confrontare il dato ricavato
con il valore di attenzione fissato dal DPCM 08/07/2003.
Se quindi da un lato il confronto con il valore d’attenzione può essere effettuato soltanto in presenza di
un campione adeguato di misure prolungate nel tempo, dall’altro le attività di monitoraggio e controllo di
un’Arpa devono poter coniugare questa esigenza con la necessità di garantire un’adeguata copertura
territoriale (numero di punti monitorati) e con problemi pratici quali la difficoltà a trovare postazioni adeguate
all’installazione di centraline o al posizionamento di strumenti per la misura prolungata nel tempo.
L’obiettivo di questo lavoro è stato pertanto di fornire un metodo di stima del rischio di superamento del
valore di attenzione, basato su misure spot (per brevi periodi di tempo) di campo magnetico, utile per
definire quando sia necessario procedere a misure prolungate nel tempo (casi di rischio significativo),
ovvero quando le misure spot siano sufficienti a garantire che in qualunque condizione di carico della linea
non sia possibile un superamento (rischio non significativo).
Il metodo utilizzato è stato quello di un’analisi statistica su serie di dati campo-corrente relativi a misure
prolungate nel tempo, che ha confrontato il dato di massima mediana su 24h annua ricavato con la
metodologia del DM 29/05/2008 con quello ricavato da un’estrapolazione tout-court dalla misura spot. Il
fine è stato quello di determinare fino a quale valore di campo massimo ricavato dalla misura spot si può
essere certi che il valore reale di massima mediana su 24h resti al di sotto di una certa soglia, scelta in
modo da garantire il rispetto del valore di attenzione.
MATERIALI E METODI
Sono state prese in analisi 25 campagne di misura per periodi superiori a 24 ore, prevalentemente su linee
a 220kV (12) e su linee a 380kV (10), per un totale di 9000 coppie campo-corrente. Di queste 25 serie di
dati, 5 corrispondono a misure effettuate da Arpa Valle d’Aosta su linee a 220kV di questa regione, mentre
le restanti sono dati di misura su linee in Piemonte.
Alcuni esempi di acquisizioni campo-corrente sono riportati in fig 1.
93
Figura 1 | Andamento nel tempo dei valori di campo magnetico e di corrente per 4 linee prese in considerazione
nell’analisi
Per questi dati, sono stati calcolati i valori di induzione magnetica estrapolati alla massima mediana annua,
ricavati con il metodo definito dal DPCM 29/05/2008 (di seguito denominati Bprolung), e ricavati con una
estrapolazione dal dato spot (B0).
Dove Bspot è la misura istantanea e Ispot è il valore di corrente nel quarto d’ora in cui ricade l’istante di
misura.
La grandezza sulla quale sono state effettuate le analisi è quindi stata il rapporto B0/Bprolung.(indice di bontà
dell’estrapolazione).
Nell’analizzare questi rapporti per categoria di tensione della linea, si è verificato che la loro distribuzione
dipende dal rapporto tra la corrente al momento della misura e il valore massimo della corrente mediana
su 24 ore per quella linea, come si può vedere nei grafici di fig. 2.
Figura 2 | Andamento dei rapporti B0/Bprolung in funzione del rapporto I0/Imax
E’ possibile vedere che per valori di corrente al momento della misura inferiori al 20% del valore massimo
annuo della mediana su 24 ore, l’estrapolazione da misura spot ha una dispersione molto ampia dei
risultati, con una tendenza alla sovrastima rispetto a Bprolung, mentre per valori superiori al 20% si ha una
convergenza a 1 del rapporto B0/Bprolung, con una dispersione dei dati più contenuta.
94
La maggiore dispersione dei rapporti nell’intervallo inferiore di valori di corrente è da addebitarsi
congiuntamente alla maggiore incertezza sul dato di campo (valori bassi in corrispondenza di basse
correnti) e sul dato di corrente (essendo tipicamente l’incertezza sulla corrente determinata in funzione del
fondo-scala, e quindi percentualmente maggiore sui valori più bassi). La convergenza a valori prossimi a 1
per i casi di misure spot con correnti più elevate evidenzia invece che, come prevedibile, l’utilizzo di questa
estrapolazione tende a diventare più affidabile in condizioni di alto carico della linea durante le misure.
Per questo motivo, si è scelto di effettuare l’analisi statistica su tre intervalli di valori del rapporto tra la
corrente al momento della misura e la massima mediana su 24 ore nell’anno: <0.2, 0.2 – 0.5, >0.5.
E’ stata per prima cosa osservata la distribuzione dei valori B0/Bprolung nei suddetti intervalli, caratterizzandone
poi i parametri statistici, con la principale finalità di determinare il parametro corretto che definisce
l’allargamento della distribuzione, ossia quel valore che permette di affermare con un certo grado di
confidenza che una percentuale definita di dati ricade all’interno dell’intervallo fissato.
Sulla base di questo parametro, sono stati quindi definiti degli intervalli di valori possibili di B0/Bprolung,ed è
stato determinato fino a quale valore di B0 si può essere certi che Bprolung resti al di sotto di una certa soglia,
determinata in modo da garantire il rispetto del valore di attenzione.
Infine, i risultati sono stati validati grazie al confronto con i risultati di altre campagne di misura, per le
quali è stato verificato che il valore del rapporto B0/Bprolung ricadesse all’interno degli intervalli definiti con la
metodologia sopra descritta.
RISULTATI
In fig. 2 è possibile vedere la distribuzione dei valori di B0/Bprolung per linee analizzate, corrispondenti ai 3
intervalli definiti per il rapporto tra la corrente al momento della misura e la corrente massima
132kV
220kV
380kV
Figura 2 | Distribuzioni dei rapporti B0/Bprolung, raggruppati per tensione delle linee e per valore del rapporto tra corrente
al momento della misura e corrente massima
95
Tali distribuzioni sono caratterizzate tramite l’analisi dei parametri statistici. In particolare, non essendo stato
possibile confermare specifiche ipotesi sulla forma funzionale della distribuzione, l’analisi è stata orientata
alla definizione dei parametri della distribuzione campionaria, con l’intento di determinare l’intervallo di
possibili valori del rapporto B0/Bprolung.
Per la definizione degli intervalli di valori, le distribuzioni sono state considerate come sostanzialmente
simmetriche, dato che media e mediana erano in tutti i casi confrontabili (con una differenza tra il 2% e l’8%
per le distribuzioni con I0/Imax<0.2, che si riporta a meno dello 0.18% per tutte le altre).
Per la determinazione dell’allargamento delle distribuzioni campionarie, è stata anche effettuata l’analisi
tramite boxplot (come nell’esempio di fig. 3). I parametri che sono stimati nell’analisi di boxplot sono
riportati a fianco della figura. L’upper hinge e il lower hinge sono rispettivamente il valore più alto tra quelli
inferiori al 3° quartile sommato alla differenza interquartilica, e il valore più basso tra quelli superiori al 1°
quartile meno la differenza interquartilica.
<0.2
0.2-0.5
>0.5
Figura 3 | Esempi di boxplot dei rapporti B0/Bprolung per le linee a 132kV
I parametri statistici che sono stati utilizzati per caratterizzare l’allargamento delle distribuzioni sono i
seguenti:
• due volte la deviazione standard
• differenza tra 95° percentile e 5° percentile (larghezza della distribuzione campionaria)
• differenza tra l’upper e il lower hinge nell’analisi di boxplot
In tab. 1 sono riportati i valori di questi parametri in percentuale rispetto alla mediana, stimati per le diverse
tensioni di linea e raggruppamenti di valori di corrente. Tra questi, sono evidenziati i valori scelti per la
definizione degli intervalli di valori di B0/Bprolung. Mantenendo un approccio conservativo, i valori scelti sono
quelli che definiscono l’intervallo più ampio.
Nell’ultima colonna è quindi riportato il dato denominato “probabilità residua”, in pratica la percentuale
di dati che rimane fuori dall’intervallo definito dal parametro evidenziato, che costituisce un livello di
significatività dell’ipotesi che il valore reale ricada all’interno dell’intervallo stesso. L’approccio usato per la
definizione degli intervalli garantisce che questa probabilità sia al massimo del 10%.
Tabella 1 | Parametri statistici per la definizione degli intervalli di valori possibili di B0/Bprolung
2 σ (%)
95° perc.
5° perc. (%)
Upper – lower
hinge (%)
58.3
95.27
100.70
6.3
86.4
145.87
116.77
10.0
89.25
81.05
10.0
Intervallo di valori
I0/Imax
Tensione (kV)
132
<0.2
220
380
55.9
0.2 – 0.5
>0.5
Probabilità
residua (%)
132
23.7
39.44
42.99
7.8
220
16.0
25.73
43.14
0.8
380
22.4
24.89
32.57
6.4
132
9.6
15.95
17.93
6.4
220
22.2
28.85
51.82
10.0
380
11.7
16.20
21.33
3.9
* In questo caso non è stato scelto l’intervallo più ampio, in quanto la probabilità residua risulterebbe pari a 0, e si
è ritenuta una scelta eccessivamente conservativa.
96
Questa analisi è stata validata grazie al confronto con i risultati di altre campagne di misura, per le quali
è stato verificato che il valore del rapporto B0/Bprolung ricadesse all’interno degli intervalli definiti con la
metodologia sopra descritta.
Per la validazione, si sono utilizzati i dati relativi a 20 campagne di misura, con dati non appartenenti alla
serie usata per ricavare gli intervalli. I risultati sono riportati in fig. 4, dalla quale si evince che è confermata
la validità degli intervalli definiti.
Figura 4 | Dati di B0/Bprolung (in azzurro) confrontati con gli intervalli definiti (in rosso)
Degli intervalli così definiti e validati, viene preso in considerazione il valore minimo, pensando
cautelativamente di operare sempre una sottostima nel procedere all’estrapolazione dal dato spot.
In tab. 2 sono pertanto riportati il limite inferiore dell’intervallo di valori di B0/Bprolung, ed il conseguente valore
limite di B0 che garantisce che Bprolung sia minore o uguale ad 8μT. Quest’ultimo valore è stato scelto,
rispetto al valore di attenzione, tenendo un margine del 20% in relazione a possibili incertezze aggiuntive
nella misura.
Tabella 2 | Limite inferiore dell’intervallo di valori di B0/Bprolung e e conseguente valore massimo di B0 che garantisce
che Bprolung<8μT
Intervallo di valori I0/Imax
<0.2
0.2 – 0.5
>0.5
Tensione (kV)
B0/Bprolung minimo
B0 limite
132
0.48
3.5
220
0.29
2
380
0.53
4
132
0.77
6
220
0.75
6
380
0.84
6.5
132
0.91
7
220
0.72
5.5
380
0.89
7
Pertanto, qualora il livello estrapolato da misura spot sia inferiore al valore limite riportato in tabella 2, è
possibile affermare che il rischio di superamento del valore di attenzione è non significativo. Nel caso in cui
invece lo superi, è opportuno effettuare la misurazione su almeno 24 ore.
Dall’analisi dei risultati, è evidente che quando la misura viene effettuata in condizioni di basso carico della
linea è in genere opportuno ripeterla per periodi prolungati al fine di ridurre l’incertezza sul dato ottenuto.
97
APPLICAZIONE DEL METODO AI RISULTATI DI UNA CAMPAGNA DI MONITORAGGIO
Al fine di verificare l’impatto dell’applicazione del metodo definito sull’attività di monitoraggio e controllo
effettuata da un’Arpa, è stata presa in analisi una campagna di misure spot effettuata da Arpa Piemonte
nell’anno 2009 su 217 punti in tutta la regione.
In particolare, i punti per i quali è stato possibile procedere ad un’estrapolazione (in questo caso alla
Portata in Corrente in Servizio Normale, in quanto non per tutte le linee era disponibile il valore di massima
mediana su 24h) sono stati 89.
Applicando il metodo messo a punto, è risultato che per 34 punti (pari al 38% di quelli analizzati) sarebbe
necessaria l’effettuazione di una misura prolungata. Nello specifico, in tabella 3 l’analisi è distinta per
tensione delle linee coinvolte.
Tabella 3 | Analisi dei punti con rischio significativo di superamento del valore di attenzione in condizioni di Portata
in Corrente in Servizio Normale
Tensione linee
Numero punti monitorati
Punti nei quali effettuare
misura 24h
%
132 kV
60
17
28%
220 kV
12
7
58%
380 kV
17
10
59%
Si osserva come la percentuale di casi critici, anche in condizioni di massimo carico tollerabile dalle
linee, sia piuttosto bassa per le linee a 132kV, mentre è più elevata per le linee a tensione superiore, pur
rimanendo al di sotto del 60%.
Se ne può dedurre che è possibile programmare una campagna di misure spot su linee a 132kV, con
conseguente maggiore facilità di effettuazione delle misure e possibilità di aumentare il numero di punti
monitorati, mantenendo la ragionevole certezza che tali misure siano sufficienti a caratterizzare l’esposizione
nell’ottica del confronto con i limiti.
CONCLUSIONI
Questo lavoro è stato orientato a fornire un criterio utile per l’organizzazione delle attività di monitoraggio
e controllo del campo magnetico generato da elettrodotti, tramite la stima del rischio di superamento del
valore di attenzione a partire da misure spot (per brevi periodi di tempo).
Tale criterio è fondato su una estrapolazione del valore di campo corrispondente alle condizioni di massima
mediana su 24 ore, a partire dalla singola misura spot: il dato estrapolato va confrontato con un valore
limite, al di sotto del quale è possibile affermare che il rischio di superamento del valore di attenzione
è non significativo. Qualora invece il dato estrapolato superi tale limite, il rischio diviene significativo ed
è opportuno effettuare la misurazione su almeno 24 ore (100 coppie campo-corrente ai sensi del DM
29/05/2008).
Il valore limite con il quale confrontarsi è stato ricavato sulla base di un’analisi statistica di circa 9000
coppie di dati campo-corrente, corrispondenti a misure in prossimità di linee ad alta e altissima tensione
nelle regioni Piemonte e Valle d’Aosta. I risultati dell’analisi sono stati quindi validati grazie al confronto con
i risultati di ulteriori campagne di misura.
In conclusione, viene fornita una tabella di valori limite del dato estrapolato da misura spot, variabili in
funzione della tensione della linea e del rapporto tra la corrente al momento della misura e la corrente
massima mediana su 24 ore nell’arco dell’anno, utilizzabile per valutare l’opportunità di effettuare misure
prolungate nel sito indagato.
BIBLIOGRAFIA
1. N.Colonna, G.Licitra, “Valutazione indiretta dell’induzione magnetica: verifiche su casi reali della
procedura fissata dal D.M. 29/05/08”, Atti del Convegno “Controllo ambientale degli agenti fisici:
nuove prospettive e problematiche emergenti” (2009).
2. S. Borra, A. Di Ciaccio, “Statistica, Metodologie per le scienze economiche e sociali”, McGraw-Hill,
Milano, 2008
98
Articoli
Monitoraggio nel dominio dei codici di celle UMTS/HSPA e misura
del parametro ρCA
A.Barellini 1, G.Licitra 2, A.Pinzauti 1, A.M.Silvi 1
1
2
ARPA Toscana – Area Vasta Toscana Costa - Settore Agenti Fisici – via V.Veneto, 27 – Pisa
ARPA Toscana – Dip. Prov.le Lucca – via Vallisneri, 6 - Lucca
RIASSUNTO
Nel presente lavoro è stato monitorato nel tempo il rapporto tra la potenza ricevuta dovuta al canale CPICH
di celle UMTS/HSPA e quella totale dovuta complessivamente alle stesse celle. Le misure hanno consentito
di verificare il valore di tale rapporto in condizioni sia di assenza che di elevata presenza di traffico dati. I
valori ottenuti in quest’ultimo caso hanno consentito di ottenere la misura o comunque un’ottima stima del
parametro ρCA delle celle, permettendone un confronto con il valore suggerito dall’Appendice H della norma
CEI 211-10.
INTRODUZIONE: IL SISTEMA UMTS/HSPA
Il sistema UMTS è stato progressivamente aggiornato negli anni (www.3gpp.org) al fine di aumentare la
velocità di trasmissione sia nella tratta radio in downlink, con l’introduzione del protocollo HSDPA (High
Speed Downlink Packet Access), che in direzione opposta, nella tratta in uplink, con il protocollo HSUPA
(High Speed Uplink Packet Access). Lo standard di trasmissione così modificato viene generalmente
indicato con il termine di UMTS/HSPA (High Speed Packet Access).
Le Stazioni Radio Base UMTS/HSPA utilizzano la tecnologia W-CDMA (Wideband Code Division Multiple
Access) per l’accesso multiplo alla stessa risorsa radio da parte dei diversi utenti. Il segnale trasmesso
dalle celle UMTS/HSPA è caratterizzato dalla presenza, oltre che dei canali riservati alla trasmissione voce/
dati degli utenti anche da alcuni canali di controllo del sistema. Alcuni di questi canali (CPICH, CCPCH,
PICH, SCH 1) sono costantemente trasmessi dalla cella anche in assenza di traffico voce o dati. A ciascuno
di questi canali viene riservata una frazione della massima potenza complessiva assegnata alla cella. In
particolare, la potenza assegnata al canale CPICH (Common Pilot Channel) determina l’area di copertura
della cella.
Nella tratta in downlink le principali novità nell’interfaccia radio sono state introdotte in release 5 [7] con il
protocollo HSDPA. Nello strato fisico, esso introduce, rispetto a quanto previsto in release 99, due nuovi
canali: il canale HS-SCCH (High Speed – Shared Control Channel) ed il canale HS-PDSCH (High SpeedPhysical Dedicated Shared Channel), utilizzato per la trasmissione dei dati utente, trasmesso utilizzando
un codice OVSF avente SF pari a 16. Il protocollo HSDPA prevede che allo stesso utente possano essere
associati fino a 15 canali HS_PDSCH contemporaneamente. La tabella 1 riassume i canali utilizzati in
HSDPA in downlink per la trasmissione dati dell’utente
Tabella 1 | Canali utilizzati in HSDPA (Guerrini, 2004)
Downlink
SF
Codici
Bit rate (kbit/s)
HS-PDSCH
16
1÷15
900÷14400 (payload)
DPCH
256
1
3.4 (segnalazione)
HS-SCCH
128
1÷4
(campi di controllo)
La possibilità di utilizzare per la trasmissione dei canali HS_DPSCH anche lo schema di modulazione
16QAM ed una diversa organizzazione dei due nuovi canali fisici (sottotrame di 2 ms) rispetto alla trama
temporale della durata di 10ms prevista per la componente FDD (Frequency Division Duplex) dell’UMTS
consentono di portare la velocità di trasmissione teorica in downlink da 384 kbit/s a 14.4 Mbit/s. Ulteriori
1
Il canale SCH viene trasmesso in time multiplexing con il canale CCPCH (Holma, 2004).
99
migliorie sono state successivamente apportate con le release 7 ed 8 [11] che prevedono la possibilità di
utilizzo della modulazione 64 QAM, della tecnica MIMO e della modalità DC_HSPA (Dual Cell HSDPA) che
prevede l’utilizzo di due portanti adiacenti in contemporanea per la trasmissione in downlink. Il sistema così
aggiornato viene generalmente indicato con il termine HSPA+ o evolved HSPA.
L’APPENDICE H DELLA NORMA CEI 211-10 ED IL PARAMETRO ρCA
L’Appendice H “Metodologie di misura per segnali UMTS” della norma CEI 211-10 indica le metodiche
per la misura dei segnali UMTS ai fini della verifica del rispetto dei limiti di esposizione relativi ai campi
elettromagnetici a radiofrequenza. La norma fornisce indicazioni anche relativamente alle metodologie da
utilizzare per estrapolare il massimo valore di campo elettrico che la Stazione può produrre nel punto di
misura nelle condizioni di massimo carico.
La tecnica che consente di ottenere il valore nelle condizioni di massimo carico senza incorrere in sovrastime
è quella che utilizza una catena di misura in banda stretta. In essa è necessario disporre di analizzatore di
segnali vettoriali che consenta di effettuare misure nel dominio dei codici. La tecnica si basa sulla misura
del valore di campo elettrico prodotto nel punto di misura dal canale CPICH della cella UMTS/HSPA e della
conoscenza della frazione della potenza complessiva della cella ad esso riservata (ρCA).
Il valore del parametro ρCA può essere ottenuto sperimentalmente misurando contemporaneamente
la potenza totale ricevuta, dovuta alla cella, e quella dovuta al solo canale CPICH. Ciò tuttavia solo a
condizione che la misura venga effettuata nelle condizioni di massimo carico della cella. Il verificarsi di tale
condizione, tuttavia, non è noto a priori. Diversamente il valore del parametro ρCA può essere richiesto al
gestore della cella UMTS/HSPA o, come suggerito dall’Appendice H della norma CEI 211-10, può essere
utilizzato per esso un valore pari al 10%.
Il valore in dB del rapporto tra la potenza ricevuta dovuta al solo canale CPICH e quella totale, dovuta alla
cella, può assumere esclusivamente valori negativi. Tale rapporto è atteso variare da un valore massimo
ad un valore minimo. Il primo si realizza in condizione di assenza di traffico voce/dati in cui la cella UMTS/
HSPA trasmette oltre al canale CPICH solamente gli altri canali di controllo CCPCH, SCH, PICH. Il secondo
si raggiunge via via all’aumentare della potenza complessiva dei canali di traffico voce/dati che si attivano,
rimanendo infatti costante la potenza trasmessa dai canali di controllo.
MATERIALI E METODI
Nel presente lavoro sono state effettuate misure nel dominio dei codici del segnale ricevuto da una cella
UMTS/HSPA nel tempo. Lo scopo è quello di monitorare il rapporto tra la potenza ricevuta dovuta al canale
CPICH della cella analizzata e quella totale misurata sulla portante UMTS/HSPA, andando ad individuare
in particolare i valori di tale rapporto in condizioni di cella carica in termini di traffico voce/dati. I valori che
si ottengono, che costituiscono una stima del parametro ρCA della cella, possono essere utilizzati per
una duplice finalità. La prima è quella di confrontarli con i valori del parametro ρCA forniti dai gestori per
confermare la validità della metodica utilizzata e, in particolare, che gli istanti individuati corrispondano
effettivamente a condizioni almeno prossime a quelle di emissione alla massima potenza della cella. In
secondo luogo, i valori ottenuti per il parametro ρCA possono essere confrontati con il valore suggerito
dall’Appendice H della norma CEI 211-10 (10%) per verificare se tale valore sia ancora attuale o se
diversamente debba essere rivisto in relazione alle attuali configurazioni delle celle UMTS/HSPA. Occorre
considerare a tale proposito che, come già descritto, il canale CPICH determina l’area di copertura della
cella. Il valore del parametro ρCA indicato all’interno della norma CEI 211-10 è stato fornito nel momento in
cui le reti UMTS erano in fase di sviluppo e che pertanto esso potrebbe essere oggi, in condizioni di reti
ormai consolidate, non più appropriato.
La metodica di misura, già utilizzata in via sperimentale in precedenza [5,6], viene qui ripresa per applicarla
alle attuali reti UMTS/HSPA.
La catena strumentale utilizzata è costituita da un’antenna a tromba ETS LINDGREN 3160-03 (1.70 ÷
2.60 GHz), collegata per mezzo di un cavo coassiale ad un analizzatore di spetto Tektronix costituito dalla
piattaforma mod. NetTek Y350 e dal modulo YBT250.
Lo strumento consente in primo luogo di individuare i canali CPICH delle diverse celle UMTS/HSPA che
trasmettono ad una determinata frequenza e misurarne la potenza ricevuta nel punto di misura (fig. 1).
Per ciascuno canale CPICH, caratterizzato in base allo Scrambling Code della relativa cella, lo strumento
fornisce il valore assoluto della potenza ricevuta (Ec) e quello relativo (Ec/I0) alla potenza complessiva
misurata sulla frequenza UMTS (Io), determinata dai contributi di tutte le celle.
100
Figura 1 | Esempio di individuazione delle celle e della misura dei relativi canali CPICH
Questa prima operazione risulta importante per verificare che nel punto di misura risulti preponderante il
contributo di una determinata cella. Poiché il sistema UMTS/HSPA consente il riuso della stessa frequenza
anche in celle adiacenti, il contributo delle altre celle determina un aumento del rumore di fondo per la
successiva analisi nel dominio dei codici all’interno della cella selezionata (fig. 2). Un criterio di scelta
può consistere nel selezionare le condizioni di misura in cui la potenza del canale CPICH della cella
preponderante risulta superiore di almeno 10 dB rispetto a quella dei canali CPICH delle altre celle. La
scelta di un’antenna direttiva nella catena utilizzata ha lo scopo di favorire tale condizione.
a
b
Figura 2 | Esempio di misura nel dominio dei codici (a) e di codogramma (b)
La figura 2a mostra un esempio di misura nel dominio dei codici. Lo strumento visualizza i canali di controllo
e di traffico attivi nonché il valore di potenza Prel di ciascuno di essi in rapporto alla potenza complessiva
ricevuta sulla portante UMTS/HSPA. La misura nel dominio dei codici può anche essere ripetuta nel
tempo (fig. 2b) ottenendo così un codogramma in cui la potenza Prel (in dB) di ciascun canale attivo viene
indicata utilizzando una scala di colori. I dati ottenuti possono poi essere esportati in formato tabellare. Il
codogramma consente pertanto di ottenere l’andamento nel tempo della percentuale di potenza dovuta
al canale CPICH rispetto a quella ricevuta complessivamente sulla portante UMTS/HSPA. Lo strumento
consente di selezionare il tempo intercorrente tra due acquisizioni successive. Nel corso della campagna
di misure effettuata è stato impostato un intervallo di 1 s che determina un tempo complessivo di misura di
80 s essendo il codogramma costituito da 80 acquisizioni.
101
Le misure sono state effettuate presso 15 siti ubicati nella città e provincia di Pisa ed hanno riguardato
complessivamente circa 30 Stazioni Radio Base dei 4 gestori.
RISULTATI
Un primo risultato che si ottiene dall’analisi dei codogrammi è l’individuazione della configurazione delle
celle in condizioni di assenza di traffico voce/dati ed in presenza dei soli canali di controllo sempre presenti
(CPICH,CCPCH, PICH). In figura 3 sono riportati due esempi di codogrammi relativi a due celle di gestori
differenti in condizioni di assenza o scarsa presenza di traffico. La figura 4 riporta i relativi andamenti della
potenza Prel dei canali di controllo CPICH, CCPCH e PICH.
Figura 3 | Esempio di codogrammi in condizioni di assenza o scarsa presenza di traffico
Figura 4 | Andamenti nel tempo della potenza Prel dei canali CPICH,CCPCH,PICH per le celle di fig. 3
Dai grafici di figura 4 si può notare come in condizioni di assenza di traffico i valori della potenza Prel
del canale CPICH assumano valori massimi pari a – 2 dB e –3 dB rispettivamente nei due casi. Si tenga
presente al riguardo che i dati in formato tabellare esportati dallo strumento sono arrotondati all’intero più
vicino. I valori ottenuti indicano che al canale CPICH viene assegnata una potenza di circa il 50-60% della
potenza complessiva assegnata ai canali di controllo sempre presenti.
I grafici mostrano inoltre come il rapporto della potenza tra i canali di controllo rimanga costante nel tempo
a conferma dell’invariabilità del valore assoluto della potenza a loro assegnata.
La figura 5 mostra al contrario due esempi di codogrammi di celle UMTS/HSPA in condizioni di elevata
presenza di traffico voce/dati. In essi si nota in particolare la presenza di canali HSPA HS_PDSCH attivi
(fino a 13 in contemporanea).
102
Figura 5 | Esempio di codogrammi in condizioni di elevata presenza di traffico
Figura 6 | Esempi di andamenti nel tempo della potenza Prel del canale CPICH in condizioni di elevata presenza di
traffico voce/dati
La figura 6 mostra alcuni esempi dell’andamento temporale della potenza Prel associata al canale CPICH
in condizioni di elevata presenza di traffico voce/dati. Nei grafici, la potenza Prel varia da valori fino a –3
dB in condizioni di assenza di traffico, come peraltro atteso, a valori fino a –13 dB in presenza di canali
HS_PDSCH attivi e quindi di traffico dati. Alle figure sono stati sovrapposti come riferimento i valori tipici
del parametro ρCA forniti dai differenti gestori delle celle (linee rosse). Come si può osservare, i valori minimi
misurati per la potenza Prel del canale CPICH approssimano o coincidono con i valori del parametro ρCA
forniti dai gestori, confermando che i valori ottenuti costituiscono un’ottima stima se non il valore vero e
proprio del parametro ρCA. In base alle misure effettuate, queste condizioni si verificano frequentemente in
presenza di canali HS_PDSCH attivi. Inoltre le stime ottenute per i parametri ρCA, come per altro confermati
dai valori forniti dai gestori, risultano in alcuni casi inferiori al valore di –10 dB che corrisponde al 10%
indicato dalla Norma CEI 211-10. Ciò comporta che, nelle attuali configurazioni delle reti UMTS/HSPA,
103
questo valore non risulta più cautelativo per l’effettuazione delle estrapolazioni del valore di campo elettrico
determinato nelle condizioni di massima potenza delle celle.
CONCLUSIONI
Le misure effettuate su circa 30 Stazioni Radio Base UMTS/HSPA appartenenti ai 4 gestori hanno
consentito di provare che la metodica utilizzata, che consiste nel monitorare nel tempo la frazione della
potenza ricevuta nel punto di misura dovuta ai canali di controllo delle celle, consente di ottenere diverse
informazioni sulla configurazione radioelettrica delle stesse. In condizioni di assenza di traffico voce/dati
consente di individuare la configurazione dei rapporti tra le potenze assegnate ai canali di controllo sempre
attivi (CPICH,CCPCH e PICH).
In condizioni di elevata presenza di traffico, essa consente di ottenere la misura o, per lo meno, un’ottima
stima del parametro ρCA . Le misure effettuate hanno mostrato che la condizione di emissione ad un valore
di potenza prossimo al massimo assegnato alla cella si verifica frequentemente in presenza di canali
HS_PDSCH attivi. Ciò conferma che le migliorie apportate con l’introduzione del protocollo HSDPA per
incrementare il bit-rate fruibile all’utente ha fatto crescere l’utilizzo del sistema UMTS/HSPA in particolar
modo per la trasmissione dati, rendendo più probabile la condizione di emissione delle celle a valori
prossimi a quelli massimi assegnati.
I valori ottenuti sperimentalmente per il parametro ρCA (fino a –13 dB), come anche confermati dai dati forniti
dagli stessi gestori (fino a –14 dB che corrisponde al 4% della potenza complessiva della cella) risultano
in alcuni casi inferiori al valore indicato dall’Appendice H della Norma CEI 211-10 (10%). In base ai valori
ottenuti si ritiene pertanto opportuno rivedere tale indicazione con un valore attorno al 4%, cautelativo ai fini
dell’estrapolazione dei livelli massimi attesi in condizioni di massimo carico della cella.
BIBLIOGRAFIA
1. 3GPP TS 25.211, Physical channels and mapping of transport channels onto physical channels (FDD),
versione 5.8.0, 2005, www.3gpp.org
2. 3GPP TS 25.212, Multiplexing and channel coding (FDD), versione 5.10.0, 2005, 3GPP, www.3gpp.org
3. 3GPP TS 25.213, Spreading and modulation (FDD), versione 5.6.0, 2005, 3GPP, www.3gpp.org
4. 3GPP TS 25.214, Physical layer procedures (FDD), versione 5.11.0, 2005, 3GPP, www.3gpp.org
5. ARPA Toscana, Progetto 3eCEM WP5: Sperimentazione di tecniche innovative per la misura del
segnale UMTS – Report conclusivo, 2006
6. Brunetti M., Analisi di segnali UMTS nel dominio dei codici mediante analizzatore di spettro vettoriale,
Tesi di Laurea, 2006, Facoltà di Ingegneria, Università degli Studi di Pisa
7. Guerrini C., Pace A., HSDPA: la nuova generazione dell’UMTS, Notiziario Tecnico Telecom Italia, Anno
13, 1, pagg. 90-104, 2004, Telecom Italia
8. Holma H., Toskala A., WCDMA for UMTS: radio access for third generation of mobile communications,
3rd edition, 2004, Wiley
9. Norma CEI 211-10, Guida alla realizzazione di una Stazione Radio Base per rispettare i limiti di
esposizione ai campi elettromagnetici in alta frequenza, 2002, CEI
10. Norma CEI 211-10, V1 - Appendice H, Metodologie di misura per segnali UMTS, 2004, CEI
11. Rohde & Schwarz, Application Note 1MA121_2E - HSPA+ Technology Introduction, 2009, Rohde &
Schwarz
12. Valliant A., HSPA: l’UMTS ma con una marcia in più!, Notiziario Tecnico Telecom Italia, Anno 15, 3,
pagg. 61-64, 2006, Telecom Italia
104
Articoli
Modelli semplificati per la dosimetria elettromagnetica
in regime quasi-stazionario
Bottauscio O.1, Chiampi M.2, Zilberti L.3
Istituto Nazionale di Ricerca Metrologica, Strada delle Cacce 91, 10135 Torino, [email protected]
Politecnico di Torino, Corso Duca degli Abruzzi 24, 10129 Torino, [email protected]
3
Istituto Nazionale di Ricerca Metrologica, Strada delle Cacce 91, 10135 Torino, [email protected]
1
2
INTRODUZIONE
Con la Raccomandazione 1999/519/EC e con la Direttiva 2004/40/EC (attualmente sospesa e in fase
di revisione), il Parlamento Europeo ha di fatto fornito valore legale alle linee-guida dell’International
Commission on Non-Ionizing Radiation Protection (ICNIRP, 1998), che prevedono la limitazione delle
grandezze dosimetriche indotte in un corpo umano esposto a campi elettromagnetici. L’impossibilità, allo
stato dell’arte, di rilevare sperimentalmente tali grandezze, comporta necessariamente il ricorso a modelli
di calcolo ogniqualvolta sia necessario verificarne la conformità con le suddette prescrizioni. Per quanto
concerne l’esposizione a campi elettrici e magnetici quasi-stazionari, nonostante la disponibilità di software
capaci di gestire modelli umani ad alta risoluzione, al momento la normativa vigente tende a proporre
approcci semplificati, rinviando l’uso dei modelli più sofisticati considerati non ancora sufficientemente
“maturi” (CENELEC, 2005 e 2007). Assolutamente priva di procedure di riferimento è invece l’analisi
dosimetrica di un corpo in movimento all’interno di un forte campo magnetico stazionario (tipicamente
in prossimità di tomografi a risonanza magnetica MRI), prevista dall’ICNIRP (ICNIRP, 2009) ma ancora
confinata nella sfera della ricerca.
Il presente contributo vuole illustrare l’uso di alcuni modelli di calcolo sviluppati dagli autori seguendo
un’ottica “normativa” ed utilizzabili per svolgere un’indagine dosimetrica nel caso di campi elettrici e
magnetici quasi-stazionari (Bottauscio, Chiampi, Zilberti, 2009) e di movimento all’interno di campi magnetici
stazionari (Chiampi, Zilberti, 2011). Tali modelli presentano infatti caratteristiche di semplicità ed efficienza,
come richiesto comunemente dal processo di unificazione, ma al contempo risultano sufficientemente
versatili da permettere lo studio di scenari d’esposizione alquanto complessi.
MODELLI DI CALCOLO
I modelli in oggetto si fondano sui teoremi integrali di Green e sulla loro applicazione numerica tramite il
metodo degli elementi al contorno (Boundary Element Method - BEM). Una prima formulazione, sviluppata
nel dominio della frequenza e dedicata ai campi elettrici quasi-stazionari, permette di simulare scenari
d’esposizione che includano oggetti sia con potenziale noto e imposto, sia con potenziale flottante;
l’eventuale presenza del terreno è gestita automaticamente per mezzo del metodo delle immagini. Un
secondo modello, specifico per campi magnetici a bassa frequenza, consente la stima delle grandezze
indotte in un corpo che si trovi in prossimità di conduttori percorsi da corrente, nell’ipotesi che il campo da
essi prodotto si possa considerare imperturbato. I risultati forniti da questi due approcci sono sovrapponibili
al fine di contemplare una possibile situazione di esposizione mista. Infine, una terza formulazione
sviluppata nel dominio nel tempo è utilizzabile per svolgere l’analisi dosimetrica di un corpo che compia
movimenti rigidi di traslazione o rotazione all’interno di un campo magnetico stazionario. Quest’ultimo
modello, realizzato con preciso riferimento agli scanner MRI, permette di studiare gli effetti indotti nel
corso dello spostamento di un operatore o di un paziente, secondo una qualsiasi traiettoria, nei pressi del
tomografo. Tutti i succitati modelli di calcolo sono stati validati per mezzo di soluzioni analitiche e/o per
confronto con simulazioni numeriche basate su schemi computazionali completamente indipendenti.
FORMULAZIONE PER CAMPI ELETTRICI QUASI-STAZIONARI
A bassa frequenza i campi elettrici ambientali sono sostanzialmente prodotti da oggetti carichi caratterizzati
da un valore imposto del potenziale elettrico. La tensione di questi oggetti rispetto al terreno tipicamente
105
è nota (si pensi al caso delle linee elettriche di trasmissione e distribuzione), mentre la carica da essi
posseduta può essere dedotta solamente risolvendo la relativa matrice di capacità. E’ pertanto ragionevole
impostare la formulazione per l’analisi dosimetrica in riferimento al fasore del potenziale scalare elettrico
V, rappresentando anche eventuali corpi elettricamente carichi tramite il potenziale da essi esibito.
Quest’ultimo deve soddisfare ovunque l’equazione di Laplace, di cui, per un qualsiasi punto P interno ad
una regione Ω omogenea e delimitata da una o più superfici chiuse ∂Ω, la fisica-matematica fornisce la
nota soluzione integrale:
(1)
dove n rappresenta la coordinata del sistema locale secondo la direzione del versore normale diretto
all’interno di Ω ed, essendo il problema quasi-stazionario, la funzione di Green assume la forma Ψ=1/(4πr)
(r indica la distanza tra il punto di calcolo P ed un qualsiasi punto appartenente a ∂Ω).
Applicando a questa equazione la tecnica BEM, ogni superficie di frontiera (∂Ω) delle diverse regioni
costituenti il dominio di calcolo è discretizzata in elementi di forma triangolare con dimensioni relativamente
ridotte. Su ognuno di tali triangoli il potenziale elettrico e la sua derivata normale sono stati assunti uniformi.
Imponendo la validità della relazione (1) per gli stessi punti appartenenti a ∂Ω, per ciascuno dei volumi
presenti, il potenziale del generico elemento i-esimo di superficie è espresso tramite il contributo di tutti gli
M triangoli che si affacciano sul volume stesso:
(2)
dove si impone il fattore ξ = 0.5 per evitare la singolarità della funzione di Green quando r = 0.
Ogni elemento di superficie consente quindi la scrittura di un’equazione scalare che implica due incognite
(il potenziale e la sua derivata normale). Al fine di delineare una matrice che descriva il problema e che
contenga un numero di equazioni pari al numero di incognite, l’equazione (2) è scritta, per ciascun elemento,
in riferimento ad entrambi i volumi (a) e (b)che condividono la superficie su cui giace l’elemento stesso. Le
incognite sono poi legate tra loro dalle condizioni di continuità del potenziale e della componente normale
della densità di corrente.
L’applicazione di questa procedura conduce a un sistema algebrico lineare invertibile, a condizione di
rispettare le seguenti regole:
• nel caso di oggetti a potenziale imposto (che fungerà da termine noto del problema) esiste una sola
incognita per elemento e pertanto è sufficiente la scrittura dell’equazione (2) in riferimento al solo volume esterno;
• nel caso di oggetti con potenziale flottante uniforme, le incognite sono rappresentate da un unico valore
del potenziale e dai valori assunti dalla sua derivata normale su ogni elemento; è pertanto sufficiente
applicare la relazione (2) nel solo volume esterno ed introdurre poi un vincolo integrale che leghi la carica posseduta dall’oggetto (solitamente nulla) ai medesimi valori di derivata normale.
Nel codice di calcolo è stato inoltre implementato il metodo delle immagini che, senza alterare le dimensioni
della matrice, permette di includere nelle simulazioni la presenza del terreno (rappresentato come un piano
perfettamente conduttivo).
Dopo la soluzione del sistema, la stessa equazione (2) consente il calcolo del potenziale in qualsiasi punto
interno ad uno dei volumi, ponendo però ξ = 1. Infine il campo elettrico è valutato esplicitando il gradiente
del potenziale.
FORMULAZIONE PER CAMPI MAGNETICI QUASI-STAZIONARI
All’interno di un corpo umano esposto a campi magnetici a bassa frequenza, né le correnti dielettriche nè
quelle di conduzione sono in grado di perturbare apprezzabilmente il campo ambientale. In assenza di
oggetti ferromagnetici e/o fortemente conduttivi, il campo magnetico può pertanto essere trattato come
una grandezza impressa, ricavabile tramite la legge di Biot-Savart dalle correnti che fluiscono nelle sorgenti
(ad esempio i conduttori di una linea elettrica). Sotto queste ipotesi, il fasore del campo elettrico in un
qualsiasi punto P interno ad una regione omogenea è esprimibile per mezzo di una forma semplificata
della classica Equazione Integrale di Campo Elettrico (EFIE) applicata alla superficie ∂Ω che delimita la
regione stessa:
106
(3)
e la funzione di Green
dove figurano la permeabilità magnetica μ, il fasore del campo magnetico
precedentemente introdotta.
Anche in questo caso, il trattamento numerico dell’equazione (3) è svolto secondo la tecnica BEM,
discretizzando la superficie ∂Ω in M elementi di dimensione sufficientemente ridotta da potervi considerare
uniformi le grandezze di campo. Per un generico elemento i-esimo dovrà quindi essere verificata la
relazione:
(4)
dove compare il già discusso fattore di singolarità ξ.
L’equazione (4) può essere proiettata sui versori di un riferimento locale individuato sull’elemento i-esimo,
ottenendo quindi tre relazioni scalari in luogo di una vettoriale. Ripetendo questa procedura per tutti gli
elementi presenti nel dominio di calcolo, si giunge alla scrittura di un sistema alegbrico costituito da un
numero di equazioni indipendenti pari al numero delle incognite. La soluzione di tale sistema conduce
alla determinazione delle componenti del campo elettrico sugli elementi. Successivamente, applicando
nuovamente l’equazione (4) con fattore ξ unitario, si può calcolare il valore del campo elettrico in un
qualsiasi punto interno a ∂Ω.
E’ opportuno sottolineare che, a differenza di quanto osservato per la formulazione relativa ai campi elettrici,
nel caso dei campi magnetici la presenza del terreno non introduce effetti di perturbazione di alcun tipo.
FORMULAZIONE PER MOVIMENTI IN CAMPO MAGNETICO STAZIONARIO
La formulazione precedente rappresenta il punto di partenza per lo sviluppo dello schema computazionale
che consente l’analisi dosimetrica di un corpo in moto all’interno di un forte campo magnetico stazionario.
Adottando le stesse ipotesi operative già illustrate ed assumendo un sistema di riferimento solidale ad una
regione omogenea Ω in moto rigido, l’equazione (3) si modifica come segue:
(5)
dove l’integrazione necessaria a determinare il campo elettrico nel generico punto P è ancora estesa alla
superficie di contorno ∂Ω ma, nel dominio del tempo, il coefficiente complesso jω è rimpiazzato dalla
corrispondente derivata temporale.
Le elaborazioni necessarie per la soluzione numerica dell’equazione (5) restano immutati rispetto agli
schemi BEM già discussi; in particolare, la superficie ∂Ω è suddivisa in triangoli sui quali le grandezze
di campo sono assunte uniformi. L’operatore di derivata, approssimato da un rapporto incrementale,
conduce così alla versione discretizzata dell’equazione (5):
(6)
dove il rapporto incrementale non si applica al versore normale , giacché, avendo assunto un riferimento
locale e limitando l’analisi a moti rigidi, esso risulta costante nel tempo.
L’equazione (6), proiettata su un sistema locale di versori ed applicata a tutti gli elementi del reticolo, porta
a definire il sistema algebrico lineare che descrive il fenomeno in ogni istante temporale esaminato. Per
ottenere la soluzione relativa all’intera traiettoria di movimento, è quindi necessario ripetere la procedura
per tutti i “passi” in cui è stato scomposto il moto della regione Ω. E’ bene notare che la matrice del sistema
risulta invariante rispetto al passo temporale e pertanto può essere invertita una sola volta per tutte. Inoltre,
il termine ∆t interviene nel denominatore del termine noto dell’equazione (6) come un semplice fattore
moltiplicativo; può perciò essere assunto inizialmente unitario senza perdita di generalità, a patto di
moltiplicare poi la soluzione finale per il suo valore effettivo (operazione che rappresenta un riscalamento
del campo elettrico indotto in ragione della velocità di movimento).
MODELLO BEM DEL CORPO UMANO
Le formulazioni BEM in oggetto sono state impiegate per valutare le grandezze dosimetriche in un soggetto
che si possa trovare in diversi scenari d’esposizione. Per la rappresentazione del corpo umano, come già
107
accennato si è deciso di adottare un modello capace di coniugarsi contemporaneamente con i requisiti di
semplicità voluti dalle norme e con le esigenze di versatilità riscontrabili nello studio di situazioni verosimili.
Per questo motivo, si è ritenuto opportuno creare una versione tridimensionale del cosiddetto “reference
man” (CENELEC, 2007), ottenuto per rotazione intorno al proprio asse del profilo bidimensionale proposto
dalla normativa e reticolato con circa 2300 elementi di superficie triangolari (fig. 1).
Figura 1 | Modello BEM del corpo umano
Il modello umano è assunto omogeneo, con conduttività e permettività relativa rispettivamente pari a 0.2
S/m e 105, come indicato dalle norme (CENELEC, 2007). Dal momento che tutte le formulazioni BEM
illustrate conducono al calcolo del campo elettrico indotto, il calcolo della densità di corrente è ottenibile
semplicemente sulla base di tali proprietà.
ESEMPI DI APPLICAZIONE DELLE FORMULAZIONI BEM
In questa sezione vengono presentati alcuni esempi di applicazione dei modelli di calcolo per fini dosimetrici.
E’ importante rilevare che, benché siano stati studiati per riprodurre situazioni realistiche, i casi illustrati non
rappresentano vere e proprie indagini dosimetriche esaustive, ma sono qui utilizzati al fine di evidenziare
le potenzialità dei suddetti modelli computazionali.
Per quanto concerne l’esposizione a campi tempo-varianti con bassa frequenza, è stata prevista la
possibilità di studiare l’effetto congiunto dei campi elettrici e magnetici, sfruttando la linearità dei due
problemi e sovrapponendo quindi i risultati forniti dalle due formulazioni specifiche. Sebbene nelle più
recenti versioni delle proprie linee-guida l’ICNIRP abbia adottato restrizioni di base sul campo elettrico
indotto (ICNIRP, 2010), in conformità alla Raccomandazione 1999/519/EC e alla Direttiva 2004/40/EC, si è
deciso di mostrare i risultati in termini di densità di corrente.
ESPOSIZIONE IN UNA SOTTOSTAZIONE ELETTRICA
Come esempio di esposizione congiunta a campi elettrici e magnetici quasi-stazionari, si propone il caso
di un operatore che si trovi in prossimità dei conduttori di una linea trifase a
380 kV, operativa alla frequenza di 50 Hz all’interno di una sottostazione elettrica. Tali conduttori si trovano
ad un’altezza di 6.5 m sopra il terreno e distano tra loro 5.5 m. La distanza tra le due colonne isolanti che
sostengono ogni conduttore è di 3.5 m e l’operatore è posto in due diverse posizioni, indicate con A e B,
corrispondenti rispettivamente alle zone dove è più intenso il campo elettrico oppure quello magnetico
(fig. 2).
108
Figura 2 | Scenari d’esposizione A e B all’interno di una sottostazione elettrica
Nel corso delle simulazioni si ipotizza che i tre conduttori siano percorsi da un sistema equilibrato di
correnti, di valore efficace pari a 1500 A. In fig. 3 si riporta l’andamento della densità di corrente indotta
lungo l’asse x, all’altezza della fronte del modello umano. Come si può notare, la strategia di calcolo ha
permesso di valutare separatamente la densità di corrente indotta a causa del campo magnetico e quella
dovuta al campo elettrico ambientale; nei casi esaminati è quest’ultimo a determinare l’effetto prevalente.
Si noti come, trattandosi di una grandezza vettoriale e fasoriale, la densità di corrente totale risulti in alcuni
punti amplificata ed in altri ridotta rispetto ai due singoli contributi. Si noti altresì come, per la sola posizione
B, sia stato messo in evidenza l’effetto di un fattore di potenza non unitario.
Lungo la linea di indagine considerata i livelli di densità di corrente indotta sono risultati inferiori al limite
stabilito dalla Direttiva 2004/40/EC, pari a 10 mA/m2.
Figura 3 | Densità di corrente indotta all’altezza della fronte del modello umano
ESPOSIZIONE IN PROSSIMITA’ DI UN TOMOGRAFO MRI
In questo paragrafo si illustrano alcuni esempi di valutazione dell’esposizione di un corpo che si muove
all’interno di un campo magnetico stazionario. Lo scenario scelto riguarda un tomografo a risonanza
magnetica nucleare di tipo tradizionale (tubolare), con un’induzione magnetica nominale di 1.5 T, costituito
da un sistema di 13 bobine che occupano approssimativamente un volume cubico con lato di 1.6 m.
Come spesso previsto dai costruttori, alcune bobine sono contravvolte per limitare l’entità del campo
magnetico al di fuori del dispositivo.
I risultati sono espressi in termini di evoluzione temporale del campo elettrico e della densità di corrente
in corrispondenza di due punti, indicati con A e B, rispettivamente localizzati in prossimità della tempia
sinistra e del cuore.
Nel primo caso (fig. 4) si esamina l’esposizione di un paziente che viene introdotto all’interno del tomografo
con una velocità di 0.1 m/s, partendo da una posizione iniziale tale per cui la testa si trova allineata con
l’apertura della macchina. Data l’elevata uniformità dell’induzione magnetica all’interno del dispositivo MRI,
l’evoluzione temporale del campo indotto nei punti A e B tende a smorzarsi se si limita l’analisi ad uno
spostamento di 1 m.
109
Figura 4 | Valutazione dell’esposizione di un paziente introdotto nel tomografo
La seconda situazione esaminata prevede un movimento di traslazione del modello umano posto in
posizione eretta, con l’asse inizialmente collocato a 0.5 m dalla macchina. Lo spostamento avviene lungo
l’asse del tomografo, con velocità uniforme di 1 m/s. Il campo indotto assume qui un tipico andamento
monotono decrescente, giustificato dal decadimento del campo magnetico allontanandosi dal tomografo
(fig. 5).
Figura 5 | Valutazione dell’esposizione di una persona che si allontana longitudinalmente dal tomografo
Infine, l’ultimo caso proposto è perfettamente analogo al precedente, ma questa volta lo spostamento
avviene in direzione radiale e, a causa della particolare distribuzione spaziale dell’induzione magnetica, il
campo indotto manifesta un’evoluzione più articolata (fig. 6).
Figura 6 | Valutazione dell’esposizione di una persona che si allontana radialmente dal tomografo
110
Gli esempi presentati in questo paragrafo illustrano l’insorgere di campi elettrici dall’andamento temporale
aperiodico e relativamente complesso. Data la modesta velocità di movimento, un’analisi armonica
applicata alle singole componenti spaziali del campo indotto condurrebbe all’identificazione di segnali
armonici di frequenza prossima ad 1 Hz, a cui, in generale, si sovrappone un segnale unidirezionale non
nullo. A titolo di riferimento, le restrizioni di base stabilite dall’ICNIRP per frequenze inferiori a 1 Hz sono pari
a 8 mA/m2 (per la popolazione) e 40 mA/m2 (per i lavoratori).
CONCLUSIONI
Gli approcci computazionali proposti rappresentano uno strumento affidabile ed efficiente per la
dosimetria elettromagnetica di fenomeni lentamente variabili. Pur mantenendo caratteristiche di semplicità,
essi si svincolano da talune ipotesi restrittive spesso presenti nelle procedure normative (ad esempio di
bidimensionalità) e consentono di analizzare innumerevoli scenari d’esposizione plausibili. La stima delle
grandezze indotte ottenibile grazie ad essi costituisce un valido elemento d’indagine, da affiancare alle
campagne di misurazione sperimentali per la verifica di conformità ai limiti vigenti.
BIBLIOGRAFIA
1. Bottauscio O., Chiampi M., Zilberti L., Boundary Element Approaches for the Evaluation of Human
Exposure to Low Frequency Electromagnetic Fields, IEEE Trans. Mag., Vol. 45, 2009.
2. Chiampi M., Zilberti L., Induction of Electric Field in Human Bodies Moving Near MRI: An Efficient BEM
Computational Procedure, IEEE Trans. Biomed. Eng., Vol. 58, 2011.
3. CENELEC, Exposure to electric or magnetic fields in the low and intermediate frequency range Methods for calculating the current density and internal electric field induced in the human body Part
1: General, EN 62226-1, 2005.
4. CENELEC, Exposure to electric or magnetic fields in the low and intermediate frequency range Methods for calculating the current density and internal electric field induced in the human body Part
2-1: Exposure to magnetic fields - 2D models, EN 62226-2-1, 2005.
5. CENELEC, Exposure to electric or magnetic fields in the low and intermediate frequency range Methods for calculating the current density and internal electric field induced in the human body Part
3-1: Exposure to electric fields - Analytical and 2D numerical models, EN 62226-3-1, 2007.
6. ICNIRP, Guidelines for limiting exposure to time-varying electric, magnetic, and electromagnetic fields
(up to 300 GHz), Health Physics, Vol. 74, 1998.
7. ICNIRP, Guidelines on limits of exposure to static magnetic fields, Health Physics, Vol. 96, 2009.
8. ICNIRP, Guidelines for limiting exposure to time-varying electric and magnetic fields (1 Hz to 100 kHz),
Health Physics, Vol. 99, 2010.
9. Parlamento Europeo, Council recommendation of 12 July 1999 on the limitation of exposure of the
general public to electromagnetic fields (0 Hz to 300 GHz) (1999/519/EC), 1999.
10. Parlamento Europeo, Directive 2004/40/EC of the European Parliament and of the Council of 29 April
2004 on the minimum health and safety requirements regarding the exposure of workers to the risks
arising from physical agents (electromagnetic fields) (18th individual Directive within the meaning of
Article 16(1) of Directive 89/391/EEC), 2004.
111
Articoli
Il fattore di rischio ambientale da radiazione solare UV-A
Petkov B. H.1, Lanconelli C.2, Vitale V.3, Tomasi C.4, Gadaleta E.5, Mazzola M.6, Lupi A. 7, Busetto M.8
Istituto di Scienze dell’Atmosfera e del Clima (ISAC), Consiglio Nazionale delle Ricerche (CNR), Via P.
Gobetti 101, I-40129 Bologna, Italia, [email protected]
ISAC-CNR, via P. Gobetti 101, I-40129 Bologna, Italia, [email protected]
ISAC-CNR, via P. Gobetti 101, I-40129 Bologna, Italia, [email protected]
ISAC-CNR, via P. Gobetti 101, I-40129 Bologna, Italia, [email protected]
Centre for Molecular Oncology and Imaging, Institute of Cancer and CR-UK Clinical Centre, Barts and The
London School of Medicine (QMUL), London, UK
ISAC-CNR, via P. Gobetti 101, I-40129 Bologna, Italia, [email protected]
ISAC-CNR, via P. Gobetti 101, I-40129 Bologna, Italia, [email protected]
ISAC-CNR, via P. Gobetti 101, I-40129 Bologna, Italia, [email protected]
RIASSUNTO
Viene proposto un metodo per stimare i periodi dell’esposizione alla radiazione solare UV-A (315 – 400 nm)
in grado di fornire le dosi ritenute sufficienti a provocare cancro alla pelle negli sperimenti di laboratorio. Lo
spettro solare è stato pesato con adeguate funzioni, create per permettere un confronto corretto tra la dose
solare ambientale e quella applicata in laboratorio. Il metodo tiene conto anche dello spessore dello strato
corneo sul periodo dell’esposizione. I risultati, validi alle medie latitudini, mostrano che le dosi critiche sono
già raggiunte con un’esposizione alla radiazione ambientale UV-A, in un periodo della durata inferiore ad un
mese.
INTRODUZIONE
Negli ultimi anni è stato registrato un notevole aumento dei casi di cancro alla cute (Boukamp, 2005) che si
considera possa risultare dall’accrescimento della esposizione alla radiazione solare ultravioletta (UV, da
circa 295 – 400 nm). I primi studi dei danni che la radiazione UV è in grado di provocare alla molecola di
acido desossiribonucleico (DNA), inducendo il processo di carcenogenesi, hanno evidenziato che la parte
UV-B (295 – 315 nm) è diretta responsabile delle mutazioni del DNA (Setlow, 1974; Freeman et al., 1989).
Infatti, il DNA assorbe direttamente l’irradianza UV-B e può essere danneggiato dai fotoni che a questo
range di energie penetrano nelle cellule della pelle. Oggi invece, numerose ricerche dimostrano che il ruolo
della parte ultravioletta UV-A (315 – 400 nm) per la carcenogenesi non può essere trascurato (Agar et al.,
2004). L’impatto dell’UV-A non è diretto sulle molecole di DNA (He et al., 2006; Wischermann et al., 2008)
come quello dell’UV-B, ma la radiazione UV-A è 20 – 30 volte più intesa della UV-B nello spettro solare e
viene assorbita con minore efficienza dagli strati esterni della cute.
Anche se non esiste, ad oggi, uno spettro d’azione che permetta le valutazioni del rischio dall’esposizione
alla radiazione solare UV-A, gli esperimenti di laboratorio danno una stima delle dosi in grado di indurre
il processo di carcinogenesi. Il presente studio si propone di produrre un algoritmo per valutare tempi
dell’esposizione alla radiazione ambientale UV-A, tali da fornire dosi sufficienti a provocare tumori
squamocellulari come indicato da precedenti esperimenti di laboratorio. Un’analisi dettagliata dei risultati
è presentata in Petkov et al. (2011).
METODOLOGIA
La dose biologica D(ΔT), o l’energia, fornita dalla radiazione spettrale F(λ, t) biologicamente attiva,
emessa alla lunghezza d’onda λ nel momento t e che viene assorbita da un unità di superficie orizzontale
per un intervallo di tempo ΔT è definita dalla seguente equazione
(1)
113
La funzione peso A(λ), che compare nella equazione (1), è chiamata spettro d’azione, e rappresenta
l’efficienza che l’irradianza di lunghezza d’onda λ, ha nel produrre l’effetto biologico analizzato, Δλ e ΔT
indicano l’intervallo spettrale e di tempo sui quali eseguire l’integrale. Le curve dello spettro d’azione A(λ)
sono caratteristiche per ogni effetto biologico e vengono costruite analizzando i risultati sperimentali: così
ad esempio esiste uno specifico spettro d’azione per i danni da eritema (McKinlay and Diffey, 1987), quelli
da danni alla molecola di DNA (Setlow, 1974), e così via. L’equazione (1) fornisce un metodo per valutare il
tempo di esposizione a una sorgente di radiazione sufficiente a causare danni all’organismo umano quando
(i) la funzione peso A(λ) dell’effetto biologico corrispondente è conosciuta e (ii) il limite della dose DL(ΔT)
al di sopra della quale i danni diventano molto probabili è definito. Le sottosezioni seguenti discutono
brevemente una metodologia atta a definire adeguate funzioni peso per esposizione ad irradianza UV-A
delle cellule della pelle umana, ed una stima della dose DL(ΔT), basate sugli sperimenti di laboratorio.
LA COSTRUZIONE DELLA FUNZIONE PESO E CALCOLO DELLA DOSE AMBIENTALE
He et al. (2006) e Wischermann et al. (2008) hanno effettuato uno studio sull’effetto della radiazione UV-A
sulle cellule di cute in laboratorio irradiando i cheratinociti umani HaCaT (Boukamp et al., 1988) con
lampade del tipo F20T12/BL/HO PUV-A e Mutzhas UV-ASUN 3000, rispettivamente. In entrambi i casi le
cellule HaCaT sono state irradiate in vitro e successivamente impiantate nei topi.
Per tener conto della differenza tra lo spettro di radiazione solare e quello delle lampade, è necessario
introdurre una funzione peso L(λ) tramite la quale la dose prodotta dalla radiazione solare F0(λ, t) possa
essere confrontata con quella applicata in laboratorio. Assumiamo che una tale funzione L(λ) inserita
nell’equazione (1), insieme con F0(λ, t) porterebbe alla stessa dose prodotta da una lampada con potenza
W(t) e spettro relativo FR(λ). In questo caso otterremmo
(2)
Generalmente, l’uguaglianza delle due dosi, espressa dall’equazione (2) non implica l’uguaglianza
degli effetti prodotti dalle radiazioni F0(λ, t) e W(t) FR(λ), dato che gli effetti biologici sono sensibili alle
caratteristiche spettrali delle due radiazioni. Per raggiungere una parità sia delle dosi sia degli effetti prodotti
dalle dosi si deve assumere anche che
(3)
Quindi, per poter confrontare correttamente la dose prodotta dalla radiazione solare con quella ottenuta da
una sorgente artificiale in laboratorio, lo spettro solare và pesato in modo tale da essere “trasformato” nello
spettro della sorgente di laboratorio. La fig. 1(a) mostra i due spettri relativi alle due lampade, identificati
come FRF (λ) per F20T12/BL/HO PUV-A e FMR(λ, t) per Mutzhas UV-ASUN 3000 usate per l’irradiamento
nei due esperimenti descritti precedentemente. La fig. 1(b) mostra lo spettro solare F0(λ, t) misurato a
mezzogiorno del 22 giugno a Bologna. Tale curva, normalizzata rispetto al valore massimo di irradianza
spettrale, puo’ essere considerata rappresentativa delle caratteristiche tipiche della radiazione solare UV
alle medie latitudini. Essa è utile al fine di ottenere, applicando l’equazione (3), le due funzioni peso LF(λ)
e LM(λ), presentate nella fig. 1(c).
Nei calcoli della dose ambientale UV-A, oltre alle funzioni peso opportune, va considerato anche l’effetto
dell’assorbimento dello strato corneo della cute, che negli esperimenti in laboratorio non è considerato
essendo sono stati svolti irradiando le cellule HaCaT in vitro. Quindi, la dose solare UV-A nelle presenti
analisi si calcola utilizzando la seguente equazione
(4)
dove HSC è lo spessore dello strato corneo e τ(λ, HSC) è la sua trasmittanza presentata nella fig. 2 (Bruls
et al., 1984). Nell’equazione (4) le dosi DF(ΔT, HSC) e DM(ΔT, HSC), sono ottenute usando le due funzioni
peso corrispondenti LF(λ) e LM(λ).
114
Figura 1 | Caratteristiche spettrali dei parametri usati nello studio.
Il panello (a) mostra gli spettri relativi delle sorgente usate negli sperimenti di laboratorio, (b) esibisce lo spettro solare
nell’intervallo delle lunghezze d’onda 300 – 420 nm, normalizzato a 1, e (c) presenta le funzioni peso calcolate dividendo ogni spettro dal panello (a) con i valori dalla curva esibita nel panello (b), secondo l’equazione (3)
Figura 2 | La trasmittanza dello strato corneo
Le diverse curve mostrano la trasmittanza per spessore variabile dello strato corneo da 10 μm a 30 μm.
RISULTATI DEGLI ESPERIMENTI DI LABORATORIO E LIMITI DELLE DOSI AMBIENTALI UV-A
Come è stato già detto precedentemente, per poter valutare i rischi collegati all’esposizione della radiazione
solare UV-A si devono definire i limiti oltre i quali l’effetto dell’irraggiamento potrebbe indurre un processo
di carcenogenesi. Le dosi applicate negli sperimenti di laboratorio fatti da He et al. (2006) e Wischermann
et al. (2008) possono dare una stima approssimativa di questi limiti.
115
Tabella 1 | Risultati degli esperimenti di laboratorio.
Dosi applicati (kJ m-2)
Trattamento di 5
settimane Wischermann
et al. (2008)
Trattamento di 15
settimane Wischermann
et al. (2008)
50 (4 per settimana)
A: 0%
B: 33% (2 di 6 casi)
A: 0%
B: 63% (5 di 8 casi)
200 (1 per settimana)
A: 50% (3 di 6 casi)
B: 17% (1 di 6 casi)
A: —
B: 63% (5 di 8 casi)
240 (1 per settimana)
Trattamento di 18
settimane He et al.
(2006)
64% (7 di 11 casi)
La prima colonna mostra la dose applicata e le modalità di irraggiamento. Le altre colonne mostrano la
frequenza percentuale dei tumori squamocellulari sviluppati nei topi successivamente all’impiantazione di
cellule HaCaT irradiate in laboratorio con radiazione UV-A da lampada. In parentesi è mostrato il numero
dei casi dove il tumore si sviluppa e il numero totale dei casi studiati nel trattamento indicato.
La scheda dell’irraggiamento e le dosi usate dai due gruppi di ricercatori sono mostrate nella tab. 1.
He et al. (2006) hanno fatto un trattamento con UV-A di 18 settimane usando un irradiamento di 240 kJ
m-2 a settimana. Wischermann et al. (2008) lavorano su due diverse serie di cheratinociti (A e B) irradiati
parallelamente, con un trattamento UV-A di 5 settimane ed uno di 15 settimane. Essi assumono due
modalità di irradiamento: (i) 50 kJ m-2, quattro volte a settimana e (ii) 200 kJ m-2, una volta a settimana, al
fine di studiare l’effetto di accumulo delle dosi. Come si vede dalla tab. 1, dove è presentata la frequenza
dei casi di sviluppo del carcinoma squamocellulare, la probabilità della malattia nella serie B (con 15
settimane trattamento) per entrambi i modi di irradiamento è la stessa. Anche la frequenza dei tumori nella
seria B (5 settimane, 4 volte a settimana) è molto simile alla percentuale media delle serie A e B nel caso di
irradiamento effettuato una sola volta a settimana. Questo consente di concludere che il trattamento con
piccoli dosi applicate più spesso in un periodo comparativamente corto, causa approssimativamente lo
stesso effetto osservato per un trattamento con dosi più alte ma applicate meno frequentemente.
Figura 3 | Le dose pesati ambientali della radiazione UV-A
La figura mostra il comportamento annuale della dose pesata DM per diversi intervalli temporali di esposizione ΔT, calcolata con il modello radiativo TUV (Madronich et al., 1993) per medie latitudini e diversi spessori dello strato corneo HSC.
116
Negli sperimenti di laboratorio quindi, una dosa UV-A da lampada, di 1000 kJ m-2 (5 settimane per 200 kJ
m-2 a settimana) porta ad una probabilità di sviluppo del cancro di circa il 25%, mentre per una dose di 3000
kJ m-2 una tale probabilità si alza a circa 42%, in accordo con Wischermann et al. (2008). He et al. (2006)
riferiscono una percentuale del 64% per una dose di 4320 kJ m-2. Essendo l’organismo umano dotato di
meccanismi di protezione, un trasferimento diretto e semplice di questi risultati ai casi reali ambientali non
può essere fatto (Setlow 1974; Sutherland 1997). D’altra parte gli esperimenti di laboratorio avvalorano
la relazione tra irradianza da UV-A e l’instaurarsi di fenomeni di carcenogenesi. Per questo motivo, non
verranno qui quantificate le probabilità dell’eventuale sviluppo di carcinoma squamocellulare nella cute nei
casi reali ambientali, ma si evidenzia come una dose DM(ΔT, HSC), calcolata usando la funzione LM(λ)
ricostruita dai dati di Wischermann et al. (2008), di 1000 kJ m-2, sia già una dose critica. L’aumento della
dose fino a DM(ΔT, HSC) = 3000 kJ m-2 aumenta significatamene la probabilità della corcinogenesi. Per
le considerazioni precedenti, la dose valutata tenendo conto della funzione LF(λ) (He et al., 2006) DF(ΔT,
HSC) va confrontata con il valore 4320 kJ m-2, per poter affermare che è raggiunto o superato un limite
critico per l’induzione di carcinogenesi.
RISULTATI E DISCUSSIONE
La fig. 3 mostra la dose DM(ΔT, HSC) valutata, usando il modello radiattivo TUV (Madronich et al., 1993), per
le medie latitudini e per diversi tempi di esposizione e spessore dello strato corneo HSC. Si vede che anche
per un irradiamento di tutta la giornata la dose critica di 1000 o 3000 kJ m-2 non si raggiunge nemmeno
durante l’estate, rimanendo i valori di DM(ΔT, HSC) ben al di sotto di tale soglia. La fig. 4 evidenzia il
comportamento della dose giornaliera DM(ΔT, HSC) nel caso HSC=10 μm stimata usando le misure fatte a
Bologna nella primavera – estate del 2008. Le notevoli variazioni delle dosi sono risultato dell’effetto delle
nubi, che possono causarne la riduzione di circa un ordine di grandezza.
Figura 4 | Le dosi ambientali pesate della radiazione UV-A
La figura mostra la dose ambientale UV-A DM valutata per Bologna nel periodo aprile – agosto, 2008 sulla base delle
misure dell’irradianza UV-A. La curva rossa corrisponde all’esposizione perdurante tutta la giornata, la curva verde
all’esposizione tra le 10 e le 14 UTC di ogni giorno, mentre la curva blu si riferisce all’irradiamento tra l’alba e le 10 UTC
da un lato, sommata a quella tra le 14 UTC e il tramonto, dall’altro.
Infine, la fig. 5 mostra l’andamento della dose cumulativa D(n)
(ΔT, HSC), definita come
F/M
(5)
che rappresenta la crescita della dose D(n)
(ΔT, HSC) o D(n)
(ΔT, HSC) dopo n giorni di irradiamento durante
F
M
i diversi intervalli temporali giornalieri ΔT, iniziando dal 14 giugno 2008 a Bologna. In fig. 5 si vede come,
nel caso di esposizione perdurante per tutta la giornata, i valori critici di 1000 e 3000 kJ m-2 della dose
D(n)
(ΔT, HSC) si raggiungono dopo 5 e 11 giorni di irradiamento, mentre per un’esposizione dall’alba
M
fino alle 10 UTC e continuata dalle 14 UTC fino al tramonto, fornisce gli stessi valori dopo 7 e circa 20
giorni, respettivamente. E’ interessante anche a notare che la dose D(n)
(ΔT, HSC) raggiunge il valore di
M
(n)
-2
3000 kJ m per lo stesso periodo di trattamento n per quale la dose D F (ΔT, HSC) arriva al suo livello critico
di 4320 kJ m-2.
117
Figura 5 | La dose UV-A accumulata.
La crescita della dose ambientale UV-A accumulata su una superficie orizzontale a Bologna durante l’estate 2008. La
dose è calcolata sulla base delle misure dell’irradianza per diversi periodi dell’esposizione giornaliera e HSC 10 μm. Le
dose critiche sono indicate dalle linee orizzontali. Il tempo è in UTC.
CONCLUSIONI
Sulla base di risultati ottenuti in laboratorio è stata fatta una stima dei tempi di esposizione alla radiazione
solare UV-A (315 – 400 nm) in grado di fornire le dosi sufficienti a danneggiare DNA. Usando misure della
radiazione UV al suolo effettuate a Bologna, si valuta che un periodo di esposizione compreso tra 10 e
25 giorni, a seconda delle modalità di irradiamento giornaliero, potrebbe portare a rischi per la salute
umana.
Nella stima di tutte le dosi riportate sono state assunte le seguenti importanti approssimazioni:
(i) La pelle irradiata è assunta essere una superficie orizzontale. Tuttavia, la reale inclinazione delle diversi
parti del corpo rispetto all’orizzonte cambia continuamente durante la giornata e un cambiamento, a
volte notevole, della radiazione UV-A che penetra nella pelle (Koepke and Mech, 2005) e quindi della
dose, è verosimilmente atteso.
(ii) Lo spessore dello strato corneo è assunto constante. Numerosi studi mostrano che esso si allarga,
qualche volta in modo significativo con la crescita dell’idratazione della cute (Bouwstra et al., 2003;
Egawa et al., 2007; Xiao et al., 2007), anche dopo l’irradiamento con UV (Bruls et al., 1984; Lavker et
al., 1995; Gambichler et al., 2005). Ciò dovrebbe ridurre le dosi presentate nella fig. 5.
BIBLIOGRAFIA
1. Agar, N.S. et al. The basal layer in human squamous tumors harbors more UVA than UVB fingerprint
mutations: A role for UVA in human skin carcinogenesis. Proc. Natl. Acad. Sci. USA 101, 4954-4959,
2004.
2. Boukamp, P. UV-induced skin cancer: similarities-variations. J Dtsch Dermatol Ges 3, 493-503,
2005.
3. Bouwstra, J.A. et al. Water Distribution and Related Morphology in Human Stratum Corneum at
Different Hydration Levels. The Journal of Investigative Dermatolgy 120, 750-758, 2003.
4. Bruls, W.A.G. et al. Transmission of human epidermis and stratum corneum as a function of thickness
in the ultraviolet and visible wavelengths. Photochem. Photobiol. 40., 485-494, 1984.
5. Egawa, M. et al. In vivo estimation of stratum corneum thickness from water concentration profiles
obtained with raman spectroscopy. Acta Derm.-Venereol. 87, 4-8, 2007.
118
6. Freeman, S.E. et al. Wavelength dependence of pyrimidine dimer formation in DNA of human skin
irradiated in situ with ultraviolet light. Proc. Natl. Acad. Sci. USA 86, 5605-5609, 1989.
7. Gambichler, T. et al. UVA1 and UVB irradiated skin investigated by optical coherence tomography in
vivo: a preliminary study. Clin. Exp. Dermato. 30, 79-82, 2005.
8. He, Y.Y. et al. Chronic UVA irradiation of human HaCaT keratinocytes induces malignant transformation
associated with acquired apoptotic resistance. Oncogene 25, 3680-3688, 2006.
9. Koepke P and Mech M. UV irradiance on arbitrarily oriented surfaces: variation with atmospheric and
ground properties. Theor. Appl. Climatol. 81, 25–32, 2005.
10. Lavker, R. M. et al. Cumulative effects from repeated exposures to suberythemal doses of UVB and
UVA in human skin. J Am. Acad. Dermatol. 32, 53-62, 1995.
11. Madronich, S. UV radiation in the natural and perturbed atmosphere. In: Tevini M.(Ed.), Environmental
Effects of UV (Ultraviolet) Radiation. Boca Raton, Lewis, pp. 17-69, 1993.
12. McKinlay, A.F. and Diffey, B.L. A reference action spectrum for ultraviolet induced erythema in human
skin. CIE J. 6, 17 – 22, 1987.
13. Petkov B. et al. Preliminary assessment of the risk associated with solar ultraviolet-A exposure. Rad.
Environ. Biophys. 50, 219–229, 2011.
14. Setlow, R.B. The wavelengths in sunlight effective in producing skin cancer: a theoretical analysis.
Proc. Natl. Acad. Sci. USA 71, 3363 – 3366, 1974.
15. Wischermann, K. et al. UVA radiation causes DNA strand breaks, chromosomal aberrations and
tumorigenic transformation in HaCaT skin keratinocytes. Oncogene 27, 4269-4280, 2008.
16. Xiao P. et al. Opto-thermal radiometry and condenser-chamber method for stratum corneum water
concentration measurements. Appl. Phys. B 86, 715-719, 2007.
119
Articoli
Esposizione occupazionale a campi magnetici
con forma d’onda complessa:
tre casi studio in ambito industriale e sanitario
Nicola Zoppetti (1), Daniele Andreuccetti (1), Andrea Bogi (2), Iole Pinto (2)
(1) IFAC-CNR, via Madonna del Piano 10 - 50019 Sesto Fiorentino (FI)
[email protected] , [email protected]
(2) Azienda U.S.L. 7 di Siena Laboratorio Agenti Fisici, Strada di Ruffolo 4 - 53100 Siena
[email protected] , [email protected]
RIASSUNTO
In questo lavoro ci si è posti l’obbiettivo di verificare l’impatto di diverse norme e linee guida riguardanti
l’esposizione umana a campi elettromagnetici, applicandole a casi concreti riscontrati in ambienti di
lavoro. A questo fine, si sono sfruttati i risultati di alcune campagne di misuraorganizzate nell’ambito di
una convenzione tra AUSL7 e IFAC-CNR, finalizzata allo sviluppo ed al popolamento della banca dati sui
campi elettromagnetici del Portale Agenti Fisici (PAF, http://www.portaleagentifisici.it/). Gli esempi presentati
riguardano sia l’ambito industriale (saldatura ad arco e macchine da cucire industriali), sia quello sanitario
(stimolazione magnetica transcranica). Per ognuno di essi si descrivono le tecniche di verifica del rispetto
dei limiti delle grandezze radiometriche, con particolare riferimento agli indici di esposizione che si applicano
a campi con forma d’onda non sinusoidale.
INTRODUZIONE
La normativa internazionale sull’esposizione della popolazione e dei lavoratori ai campi elettrici e magnetici
di bassa frequenza (fino a 100 kHz) ha subito negli ultimi anni un complesso processo di evoluzione. In
ambito ICNIRP, alle storiche linee guida pubblicate nel 1998 (ICNIRP,1998), si è aggiunto nel 2003 uno
statement specifico per i campi con forma d’onda non sinusoidale (ICNIRP 2003), per poi arrivare – nel
2010 – alla pubblicazione di nuove linee guida per la sola bassa frequenza (ICNIRP 2010). Queste ultime,
oltre a modificare i limiti del 1998, hanno recepito parte delle procedure proposte nello statement del 2003.
Parallelamente, anche la normativa tecnica si è evoluta, purtroppo non sempre in modo armonico con le
linee guida ICNIRP, alle quali tuttavia spesso si riferisce.
In questo lavoro si illustrano inizialmente le principali metodiche definite nelle linee guida ICNIRP, ponendo
particolare attenzione alle problematiche che è necessario affrontare applicandole. In seguito, tali
metodiche sono usate in tre casi concreti con lo scopo di verificare la coerenza dei risultati forniti, laddove
questa sia auspicabile, e quantificare le discrepanze dovute, ad esempio, ai diversi livelli di riferimento di
(ICNIRP,1998) e (ICNIRP,2010).
La trattazione si limiterà al caso del campo magnetico a frequenza ‘bassa’ che coinvolge un gran numero
di sorgenti di particolare interesse; coerentemente alla classificazione adottata dall’ICNIRP, per bassa si
intende entro i 100 kHz. Ci riferiremo in particolare alla seguente espressione che rappresenta l’induzione
magnetica in un generico punto le cui componenti cartesiane sono state espresse in serie di Fourier e dove
si è trascurato il termine che rappresenta il valor medio.
(1)
La teoria ci insegna che f0 è l’inverso del periodo della forma d’onda considerata e che tanto più alto sarà
il numero n di armoniche considerate, quanto più fedele sarà la rappresentazione in serie. Inoltre, il fatto
di considerare una porzione limitata dello spettro (tra 0 e 100 kHz) fa sì che in questo contesto si possa
considerare n come finito.
121
METODI DI VERIFICA
Come è noto, i limiti delle grandezze radiometriche definiti nelle linee guida ICNIRP (livelli di riferimento),
sia quelle attuali sia quelle passate, dipendono dalla frequenza. L’applicazione delle prescrizioni risulta
quindi banale solo nel caso di esposizione a campi monocromatici per i quali si confronta semplicemente
il valore efficace del campo con il livello di riferimento alla frequenza di interesse. Nel caso in cui il campo in
oggetto non sia puramente sinusoidale esistono diversi metodi mediante i quali si può verificare il rispetto
dei livelli di riferimento ICNIRP, alcuni definiti nel dominio del tempo alcuni nel dominio della frequenza.
I principali tra questi saranno descritti nei seguenti paragrafi e saranno applicati ai casi studio presentati
successivamente.
Il metodo ICNIRP standard
Il metodo, originariamente introdotto in (ICNIRP,1998), è definito nel dominio della frequenza e consiste
nel rapportare l’ampiezza di ciascuna sinusoide con il relativo livello di riferimento ICNIRP per il picco e di
sommare linearmente tali rapporti ottenendo un indice numerico che, se superiore a 1 indica il superamento
dei limiti. L’espressione (2) piuttosto che riferirsi ai valori di picco utilizza i valori efficaci ed in particolare
Brms(kf0) è il valore efficace della componente spettrale alla frequenza kf0 e BL(kf0) è il relativo livello di
riferimento ICNIRP (che è espresso in termini di valore efficace).
(2)
Secondo tale metodo si suppone che tutte le componenti spettrali siano in fase tra loro e che pertanto
assumano simultaneamente il relativo massimo.
Il metodo ‘weighted peak’ nel dominio della frequenza
Per offrire una alternativa che fornisse risultati meno cautelativi rispetto al metodo standard, in (ICNIRP,2003)
è stato introdotto il cosiddetto metodo weighted peak (WP nel seguito). Esso prevede che si tenga conto
sia delle ampiezze delle componenti spettrali del campo sia delle relative fasi. Per fare ciò è possibile
operare sia nel dominio della frequenza sia nel dominio del tempo. Per applicare il metodo nel dominio
della frequenza ci si riferisce alla espressione (3), riportata anche in (ICNIRP,2003). Operativamente, una
volta determinato lo spettro delle forme d’onda (fdo) si pesano le ampiezze delle componenti spettrali
con i livelli di riferimento per il picco. Inoltre si considerano anche le rispettive fasi θk ma a queste si
deve aggiungere un ulteriore contributo φk di cui sarà più chiaro il significato quando si descriveranno le
modalità di applicazione del metodo WP nel dominio del tempo.
(3)
Per finalizzare la valutazione secondo l’espressione (3), è quindi necessario un ulteriore passaggio. Infatti,
a partire dalle ampiezze e dalle fasi modificate come si è descritto, è necessario tornare nel dominio del
tempo e determinare il massimo della fdo sintetizzata a partire dallo spettro elaborato. Anche in questo
caso un indice WP complessivo superiore ad 1 comporta il superamento dei livelli di riferimento.
I documenti ICNIRP non danno indicazioni sul passo temporale da utilizzare per ricostruire la fdo sintetizzata.
Un riferimento a tal proposito è costituito dalla norma EN50444 (CENELEC,2008), in cui si prescrive di
e cioè all’inverso di dieci volte la più alta frequenza che
impiegare un passo temporale pari a
compare nello spettro di partenza. Lo spirito di tale scelta è quello di utilizzare un passo temporale che
garantisca di individuare il massimo assoluto delle fdo sintetizzate che rappresentano gli indici WP.
Il metodo ‘weighted peak’ nel dominio del tempo
Il calcolo degli indici WP può essere effettuato nel dominio del tempo. Per fare ciò si elaborano le fdo
che rappresentano le componenti cartesiane del campo con dei filtri la cui risposta in ampiezza ha un
andamento con la frequenza che ricalca quello dell’inverso dei livelli di riferimento. L’ICNIRP indica di
realizzare tali filtri come serie di filtri del primo ordine, tollerando quindi che la risposta in ampiezza si
discosti sensibilmente da quella lineare a tratti che caratterizza l’andamento dei livelli di riferimento (tale
scostamento è pari a circa 3 dB presso i cambi di pendenza). Inoltre si tollera l’effetto della risposta in fase
di tali filtri che è tutt’altro che piatta come si può notare in figura 1 (in (ICNIRP,2003) si prova a giustificare
tale effetto limitandosi al solo polo a 800/820 Hz). A questo punto è possibile spiegare l’origine del termine
φk in espressione (3), che è proprio lo sfasamento introdotto dal filtro analogico alla frequenza fk.
122
Figura 1 | Confronto inverso reference levels ICNIRP Figura 2 | Confronto risposte in ampiezza dei filtri IC2010 per i lavoratori con risposta del relativo filtro del pri- NIRP considerati nel seguito dell’articolo
mo ordine
Nota all’applicazione del metodo ‘weighted peak’
In generale il metodo WP può essere applicato nel dominio del tempo solo se si è in grado di realizzare, in
hardware o in software, il filtro con le risposte in ampiezza ed in fase desiderate.
In (ICNIRP,2003) si propongono due casi di cui solo uno fa riferimento ad un filtro realizzabile. È il caso del
filtro passa alto (per il campo) del primo ordine con polo a 800 Hz (popolazione) o 820 Hz (lavoratori). L’altro
caso invece fa riferimento ad un passa basso del primo ordine ‘ideale’, cioé con risposta in ampiezza con
cambio di pendenza ‘a spigolo’ presso il polo e risposta in fase a gradino ampio 90 gradi. In tal caso l’unica
applicazione possibile è quella nel dominio della frequenza. In (ICNIRP,2010) il metodo WP viene esteso
indicando l’utilizzo di serie di filtri del primo ordine che rappresentano l’inverso dei livelli di riferimento su
tutto l’intervallo di frequenze di applicazione.
STRUMENTAZIONE DI MISURA E PROCEDURE DI ELABORAZIONE DATI
Prima di passare alla trattazione dei casi studio è opportuno descrivere brevemente la strumentazione di
misura utilizzata e gli strumenti software realizzati per effettuare le analisi dei dati.
Per le misure di campo magnetico è stata utilizzata la sonda Narda ELT400 dotata di sensore isotropico
con banda da pochi Hz fino a 400 kHz. Questo strumento, tramite le cosiddette uscite analogiche, rende
disponibili delle fdo in tensione direttamente proporzionali alle componenti cartesiane del campo misurato.
Tali fdo sono state acquisite e campionate mediante una scheda di acquisizione Agilent modello U2531A
collegata con un personal computer. Le fdo acquisite sono state quindi elaborate con apposite applicazioni
realizzate in linguaggio C++ o Python che implementano i vari metodi di verifica presi in considerazione.
CASO STUDIO IN AMBITO INDUSTRIALE: SALDATRICI AD ARCO
Il primo caso studio presentato si riferisce a misure effettuate presso una azienda siderurgica in cui si
impiegano saldatrici ad arco. La presentazione di questo esempio e dei successivi non è mirata ad una vera
e propria valutazione dell’esposizione del lavoratore, ma piuttosto al confronto dei metodi precedentemente
descritti. Pertanto ci si riferirà a misure effettuate in un singolo punto e si approfondirà l’analisi delle
fdo acquisite. Si rimanda a (Zoppetti 2012) per approfondimenti sugli effetti della effettiva distribuzione
dell’induzione magnetica e dei relativi indici di esposizione nello spazio. Nel caso delle saldatrici ad arco,
oltre alla normativa generica esistono una specifica norma di base, la EN50444 (CENELEC, 2008), ed una
di prodotto, la EN50445 (CENELEC, 2008), riguardanti l’esposizione umana ai CEM. Ciò assume particolare
rilevanza considerando che nella norma EN50499 (CENELEC, 2011) si indicano tutte le apparecchiature
certificate secondo specifiche norme armonizzate come conformi a priori.
Al fine di semplificare le analisi nel dominio della frequenza, la norma di prodotto prescrive di considerare
solo le armoniche che superano il 3% della componente fondamentale.
In questo paragrafo considereremo due fdo, corrispondenti a due modalità di utilizzo dello stesso apparato
e confronteremo i risultati ottenuti nel dominio del tempo con quelli ottenuti nel dominio della frequenza, sia
elaborando gli spettri completi, sia considerando solo le armoniche che superano il 3% della fondamentale.
Le fdo misurate denominate fdo A e fdo B sono mostrate nelle figure 3 e 4; come si può notare la prima
123
è relativa ad un evento isolato, che dura circa 1 secondo mentre la seconda ad una lavorazione più lunga
del tempo di osservazione del fenomeno. Entrambe le misure si riferiscono a punti posti in prossimità dei
cavi, come prescritto nella norma EN50444 (CENELEC, 2008).
Figura 3 | Componenti e modulo di fdo A nel dominio
del tempo
Figura 4 | Componenti e modulo di fdo B nel dominio
del tempo
In tabella 1 sono riportati i risultati delle analisi eseguite nel dominio del tempo che comprendono
l’applicazione del metodo WP utilizzando filtri del primo ordine. In particolare si usano sia un filtro passa
alto come prescritto in (ICNIRP,2003) sia un filtro completo che considera tutti i cambi di pendenza delle
(ICNIRP,1998).1
Tabella 1 | Sintesi risultati analisi misure saldatrice nel dominio del tempo
fdo A
fdo B
Brms [μT]
52.5
21.3
|B|max [μT]
408
60
WP2003 lavoratori (passa alto del primo ordine)
0.762
0.611
WP1998 lavoratori (cascata filtri primo ordine)
0.705
0.611
WP2010 lavoratori (cascata filtri primo ordine)
0.161
0.181
In tabella 2 sono invece riportati i risultati delle analisi eseguite nel dominio della frequenza. In questo caso,
per ogni fdo si considera sia lo spettro completo, sia quello in cui sono state scartate tutte le armoniche
inferiori al 3% di quella più ampia. Per quanto riguarda gli spettri completi si osserva come per fdo A
il rapporto tra II1998 (in cui non si tiene conto delle fasi) e l’indice WP1998 (che si riferisce alla stessa
pesatura delle ampiezze ma tiene conto anche delle fasi) è circa pari a 7. L’analogo rapporto per fdo
B è invece pari a oltre 18. Ciò, oltre alle diverse caratteristiche del segnale è dovuto anche alla maggior
risoluzione spettrale che caratterizza lo spettro della fdo B.
Si osservi quanto gli indici WP calcolati con gli spettri ‘alleggeriti’ risultino meno cautelativi rispetto agli
stessi indici riferiti agli spettri completi. Questi invece risultano ben allineati ai valori calcolati operando
nel dominio del tempo. Tuttavia, non è semplice prevedere fino a che punto l’approccio suggerito dalla
norma CENELEC porti a sottostimare gli indici di esposizione. Questo dipende infatti sia dall’andamento
dello spettro della forma d’onda coinvolta, sia dagli effetti del filtraggio sulle fasi originali (figura 1). In
tabella 2 si può notare come in generale gli indici che si riferiscono agli spettri ‘alleggeriti’ sono sempre
marcatamente più bassi di quelli che si riferiscono agli spettri completi, tranne che nel caso della fdo A e
dell’indice WP2010.
1
In realtà si trascura il cambio di pendenza a 65 kHz sia perché le fdo analizzate hanno spettri contenuti entro tale
limite sia perché questo è l’indicazione che emerge in (ICNIRP1998) e in (ICNIRP2003)
124
Tabella 2 | Sintesi risultati analisi misure saldatrice nel dominio della frequenza
fdo A
Spettro completo
Risoluzione spettrale [Hz]
Brms [μT]
fdo B
3%
Spettro completo
52.3
21.3
0.5
52.5
|B(f)|max [μT]
0.33
21.2
19.5
f @|B(f)|max [Hz]
3%
3.25
11.0
299.7
II1998
4.991
0.736
12.367
0.491
WP2003 lavoratori (passa alto ideale)
0.796
0.281
0.611
0.153
WP2003 lavoratori (passa alto del primo ordine)
0.763
0.279
0.611
0.145
WP1998 lavoratori (cascata filtri primo ordine)
0.710
0.227
0.669
0.140
WP2010 lavoratori (cascata filtri primo ordine)
0.161
0.150
0.181
0.029
Questa osservazione offre lo spunto per una critica di fondo al criterio introdotto dal CENELEC. Infatti, l’aver
fissato una soglia (arbitraria) in termini di ampiezza rapportata a quella della componente fondamentale del
campo non tiene in alcun conto del fatto che i limiti ICNIRP variano con la frequenza. Non è detto, cioè, che
una riga che conta per meno del 3% della fondamentale nello spettro del campo, continui a contare meno
del 3% della fondamentale anche nello spettro dell’indice di esposizione. Altrettanto arbitrario - ma forse
più sensato dal punto di vista protezionistico - sarebbe stato introdurre una soglia in termini di percentuale
sul livello di riferimento ICNIRP, come peraltro accade nella norma CENELEC EN50500 (CENELEC,2008)
che riguarda le esposizioni a bordo di materiale rotabile.
AMBITO INDUSTRIALE: MACCHINE DA CUCIRE INDUSTRIALI
Il secondo caso studio considerato è relativo all’esposizione ai campi generati dalle macchine da cucire
operanti in una piccola impresa tessile. In questo caso si è verificato che la sorgente propriamente detta
era il motore elettrico trifase che equipaggia la macchina, che in genere è installato subito sotto il piano di
lavoro, poco più avanti rispetto alle ginocchia dell’operatore. In questa particolare circostanza la possibilità
che tali apparati fossero usati da lavoratrici incinta ha fatto sì che si sia adottato un approccio cautelativo,
considerando i limiti validi per la popolazione. In questo caso non c’è una norma tecnica specifica, pertanto
oltre allo spettro completo (derivante da un’acquisizione di 50000 campioni con tempo di campionamento
di 20 microsecondi, pari ad una durata di 1 secondo), al fine della riduzione del numero di armoniche degli
spettri sono state considerate delle porzioni della forma d’onda originaria. Tali porzioni sono lunghe 40 ms
e 20 ms (rispettivamente 2 ed 1 periodo a 50Hz) e sono centrate sull’istante in cui si verifica il massimo
del modulo del campo. Nelle figure 5 e 6 sono rappresentate rispettivamente la forma d’onda originaria e
quella lunga 40 ms.
Figura 5 | Componenti e modulo di fdo nel dominio del Figura 6 | Componenti e modulo di fdo nel dominio del temtempo (1s di acquisizione)
po (40 ms di acquisizione centrati sul massimo modulo)
125
I risultati delle analisi svolte sia nel dominio del tempo sia nel dominio della frequenza sono riassunti in
tabella 3. Ancora una volta si può osservare come l’indice II1998 sia più cautelativo del corrispondente
indice WP1998 che tiene in conto delle fasi e come ciò sia tanto più vero quanto più sono numerose le righe
dello spettro che si elabora. Un fenomeno molto interessante è inoltre quello che si osserva per gli indici
WP calcolati nel dominio della frequenza relativi allo spettro con risoluzione pari ad 1 Hz. Questi infatti, pur
tenendo conto delle fasi, sono molto maggiori degli stessi indici calcolati nel dominio del tempo.
Tabella 3 | Sintesi risultati analisi misure macchina da cucire nel dominio del tempo e della frequenza
Dominio
del tempo
Risoluzione spettrale [Hz]
Dominio della frequenza
1
25
50
1
(+ finestra)
Bmax [μT]
174.6
-
-
-
Brms [μT]
126.6
126.6
127.4
127.5
125.1
-
176.7
178.1
178.2
173.2
|B(f)|max [μT]
f @|B(f)|max [Hz]
-
II1998 popolazione
-
10.251
2.540
50
2.366
6.457
WP2003 popolazione
(passa alto ideale)
-
5.811
1.627
1.628
1.637
WP2003 popolazione
(passa alto del primo ordine)
1.616
6.307
1.609
1.608
1.616
WP1998 popolazione
(cascata filtri primo ordine)
1.658
6.384
1.655
1.655
1.660
WP2010 popolazione
(cascata filtri primo ordine)
0.474
1.104
0.480
0.479
0.480
Questo fenomeno è ben descritto in letteratura e prende il nome di spectral leakage (Grandke1983).
L’origine di questo fenomeno è da imputarsi al fatto che, quando si esegue la DFT di una fdo misurata in un
certo periodo di tempo ∆T, in realtà stiamo considerando lo spettro di una fdo indefinita nel tempo ottenuta
ripetendo indefinitamente la fdo osservata. Ora, il ∆T di 1 secondo della fdo originaria è un multiplo di 20
ms e quindi ci si sarebbe potuti aspettare che la fdo ripetuta indefinitamente non presentasse discontinuità.
Per qualche motivo (ce ne possono essere molti ma non approfondiamo qui la questione) ciò non accade
ed è questo ‘gradino’, che si manifesta una volta al secondo, che origina degli indici WP relativamente
più alti rispetto a quelli determinati nel dominio del tempo. Quando si considerano solo 20 o 40 ms tali
discontinuità non si manifestano e gli indici WP sono allineati con quelli calcolati nel dominio del tempo.
Come ulteriore riprova di ciò, in tabella 3 si riportano anche i risultati di una fdo alla quale si è applicata nel
dominio del tempo una opportuna ‘finestratura’. Tale operazione rende la fdo periodica con periodo pari
ad 1 secondo, annullandone ‘dolcemente’ le componenti cartesiane, all’inizio ed alla fine del ∆T. Come
si nota in tabella questa operazione è sufficiente a riportare gli indici WP in linea con quelli determinati nel
dominio del tempo.
Queste ultime considerazioni, nate come commento di un caso particolare, possono essere generalizzate
dicendo che l’applicazione dell’approccio WP nel dominio del tempo è meno critica rispetto a quella nel
dominio della frequenza che spesso richiede interventi correttivi mirati e specifici alla particolare situazione
affrontata e che in ogni caso risulta più laboriosa.
AMBITO SANITARIO: STIMOLAZIONE MAGNETICA TRANSCRANICA
Un interessante caso riscontrato in ambito sanitario è quello degli apparati per stimolazione magnetica
transcranica (SMT). Si tratta di un’apparecchiatura il cui funzionamento è basato sull’applicazione di intensi
impulsi di campo magnetico rilasciati da un applicatore a bobina che viene posizionato dall’operatore (a
volte tenendolo in mano, a volte mediante un supporto) in prossimità della testa del paziente.
Le misure a cui si riferiscono le figure 7 e 8 e la tabella 4 sono state effettuate a soli 8 centimentri
dall’applicatore ed evidenziano campi superiori al millitesla. In particolare in figura 8 si impiega il cosiddetto
metodo della frequenza equivalente, definito in [7] e diffusamente spiegato in (Andreuccetti,2010). Tale
metodo, applicabile a campi con caratteristiche impulsive, permette di determinare un indice, denominato
qui RETT, ottenuto come rapporto tra l’ampiezza dell’impulso ed il limite ICNIRP per il picco ad una
opportuna frequenza equivalente. Tale frequenza si determina come 1/2tp dove tp è la durata di un impulso
126
Figura 7 | Campo generato da apparati per SMT (domi- Figura 8| Applicazione del metodo RETT al campo genio del tempo)
nerato da SMT
rettangolare che ‘copre’ la fdo impulsiva. In figura si è determinato la frequenza equivalente basandosi
sull’istante nel quale il campo supera la percentuale del massimo riportata in legenda.
Tabella 4 | Sintesi risultati misure SMT nel dominio del tempo e della frequenza
Dominio del tempo Dominio della frequenza
Risoluzione spettrale [Hz]
-
400
Bmax [μT]
1365.2
-
Brms [μT] (*su 2.5 ms)
349.4
-
|B(f)|max [μT]
-
276.2
f @|B(f)|max [Hz]
-
400
II1998 popolazione
-
32.5
WP2003 lavoratori (passa alto ideale)
-
21.6
WP2003 lavoratori (passa alto del primo ordine)
23.9
23.9
WP1998 lavoratori (cascata filtri primo ordine)
23.8
23.9
WP2010 lavoratori (cascata filtri primo ordine)
4.8
4.8
Come si può notare mentre l’inizio dell’impulso in corrispondenza del ripido fronte di salita è praticamente
coincidente per tutte le percentuali adottate non così è per il più lento fronte di discesa e ciò introduce
un grosso margine di discrezionalità nella scelta di tp, specialmente nel caso di fronti di salita/discesa
relativamente lenti. Confrontando gli indici RETT riportati nella legenda di figura 8 con gli indici WP1998 di
tabella 4 si può notare come si ottenga una buona corrispondenza considerando le frequenze equivalenti
più basse.
Come si può notare in tabella 4 c’è un’ottima corrispondenza tra indici calcolati nel dominio del tempo e
della frequenza. Siamo infatti in condizioni ideali per l’applicazione delle procedure software essendo il
fenomeno osservato ben definito nel tempo ed interamente rappresentato dalla fdo campionata cosicché
i primi e gli ultimi campioni memorizzati corrispondono al solo rumore.
DISCUSSIONE E CONCLUSIONI
Il processo di sviluppo del Portale Agenti Fisici ha fornito l’occasione per affrontare varie situazioni di
esposizione a campi di bassa frequenza in ambito occupazionale, in un contesto normativo assai articolato
a causa delle sempre più numerose tecnologie ed applicazioni che impiegano frequenze sotto i 100 kHz.
Gli esempi selezionati si sono prestati a discutere sia l’impatto dell’evoluzione normativa, sia alcune criticità
in termini di applicabilità delle procedure definite nelle linee guida e nelle norme tecniche.
Le misure sono state eseguite campionando e memorizzando su supporto informatico le tre componenti
cartesiane del campo. Questo approccio non solo ha reso possibile l’applicazione di diversi metodi di
verifica agli stessi dati ma è anche risultato particolarmente indicato anche ai fini di archiviazione (PAF)
ad esempio per poter poter far fronte a evoluzioni della normativa o anche alla necessità di misurarsi con
127
standard inizialmente non previsti.
Entrando nel merito dei risultati ottenuti è interessante osservare come, fissato l’andamento del limite con
la frequenza, il metodo standard fornisca indici che sono tra le 5 e le 10 volte più grandi di quelli forniti dal
metodo WP.
In generale, si è visto che i metodi che operano nel dominio della frequenza sono soggetti alle problematiche
associate al cosiddetto ‘spectral leakage’, per correggere il quale devono essere utilizzati specifici
accorgimenti computazionali non sempre efficaci.
L’applicazione del metodo ‘weighted peak’ nel dominio del tempo, pur non essendo esente da problemi
(legati ad esempio all’implementazione dei filtri e alla gestione del loro transitorio), presenta in generale
meno criticità sia rispetto agli altri metodi, sia rispetto allo stesso metodo WP se applicato nel dominio della
frequenza.
Nel caso delle saldatrici ad arco infine è stato evidenziato come le analisi eseguite secondo una specifica
norma di prodotto possano potenzialmente fornire risultati non coerenti con l’impianto ICNIRP. Tale
problema è discusso anche in (Andreuccetti, 2012) che tratta di misure effettuate a bordo di materiale
rotabile ed in generale si può ripresentare laddove nella normativa tecnica si introducano dei criteri di
semplificazione che non trovano riscontro nelle linee guida internazionali.
BIBLIOGRAFIA
1. Andreuccetti, Bogi, Zoppetti, Procedura di verifica del rispetto dei livelli di riferimento dell’induzione
magnetica in presenza di forme d’onda complesse con frequenze fino a 100 khz - parte I: aspetti
generali Collana Technical, Scientific And Research Reports Vol.2 n.65-1 report n. CNR-IFAC-TR-02010 ISSN 2035-5831, febbraio 2010 (http://puma.isti.cnr.it/dfdownload.php?ident=/cnr.ifac.fi/2010IS-001)
2. Andreuccetti, Zoppetti, Pieri, Del Nord, Neri, Un caso di esposizione occupazionale al campo magnetico
a bordo treno. Atti (su supporto elettronico) del Quinto Convegno Nazionale “Il controllo degli agenti
fisici: ambiente, salute e qualità della vita” 6-7-8 giugno 2012, Novara, ISBN 978-88-7479-118-7.
3. CENELEC EN 50444, Norma di base per la valutazione dell’esposizione umana ai campi elettromagnetici
prodotti dalle apparecchiature per la saldatura ad arco e processi affini. Prima edizione, maggio
2008.
4. CENELEC EN 50445, Norma per famiglia di prodotti per dimostrare la conformità delle apparecchiature
per la saldatura a resistenza, saldatura ad arco e processi affini ai limiti di base relativi all’esposizione
umana ai campi elettromagnetici (0 Hz – 300 GHz). Prima edizione, maggio 2008.
5. CENELEC EN 50499, Procedura per la valutazione dell’esposizione dei lavoratori ai campi
elettromagnetici. Prima edizione, novembre 2011.
6. CENELEC EN 50500, Measurement procedures of magnetic field levels generated by electronic and
electrical apparatus in the railway environment with respect to human exposure. July 2008.
7. Grandke Interpolation Algorithms for Discrete Fourier Transforms of Weighted Signals. IEEE Transaction
on instrumentation and Measurements. Vol IM-32, N. 2 June 1983
8. ICNIRP Guidelines, Guidelines for limiting exposure to time-varying electric, magnetic, and
electromagnetic fields (up to 300 GHz). Health Physics, Vol.74, N.4, April 1998, pp.494-522, April
1998.
9. ICNIRP Statement, Guidance on determining compliance of exposure to pulsed and complex nonsinusoidal waveforms below 100 kHz with ICNIRP guidelines. Health Physics, Vol.84, N.3, March 2003,
pp.383-387, March 2003.
10. ICNIRP. Guidelines for limiting exposure to time-varying electric and magnetic fields (1 Hz to 100 kHz).
Health Physics, Vol.99, N.6, pp.818-836, December 2010.
11. Zoppetti, Andreuccetti, Bogi, Pinto, Norme CENELEC relative all’esposizione umana ai campi magnetici
generati da saldatrici ad arco: una ricognizione critica basata su interventi in situazioni reali. Atti (su
supporto elettronico) del XXXV Congresso Nazionale AIRP di Radioprotezione, 17•19 ottobre 2012
Venezia ISBN 978-88-88648-35-4.
128
Articoli
Intervento di mitigazione su una linea a 132 kV nella città di Pisa
e riduzione dell’esposizione della popolazione
Colonna N.(1), Licitra G.(2)
(1) Dipartimento Provinciale ARPAT di Pisa, Via Vittorio Veneto 27, 56127 Pisa (PI),
[email protected]
(2) Dipartimento Provinciale ARPAT di Lucca, Via Vallisneri 6, 55100 Lucca (LU),
[email protected]
Figura 1 | Foto aerea della
zona in esame. In rosso il tracciato della linea a 132 kV che
attraversa il quartiere di Barbaricina a Pisa.
PREMESSA
Il quartiere di Barbaricina nel Comune di Pisa è attraversato dalle prime 12
campate di una linea a 132 kV (vedi Figura 1); numerose abitazioni e due
scuole si trovano molto vicino all’elettrodotto, alla distanza dai conduttori
allora consentita dal D.P.C.M. 23/04/1992, ora abrogato.
Tale linea ha inoltre la particolarità di avere un significativo carico di corrente.
L’Agenzia Regionale per la Protezione Ambientale della Toscana (ARPAT)
fin dal 1997 esegue misure e monitoraggi dell’induzione magnetica a
50 Hz presso tali recettori. Nel 2003, su specifica richiesta del Comune
di Pisa, ARPAT ha inoltre modellizzato in 3D l’impatto elettromagnetico
della linea sul quartiere, evidenziando che, pur essendo rispettati i limiti di
legge, tuttavia, i livelli presenti sia all’interno delle abitazioni, che delle due
scuole non sono trascurabili. Nella situazione di maggiore esposizione
con la massima mediana giornaliera della corrente si è raggiunto il valore
di 3 μT.
A seguito dello studio prodotto da ARPAT l’Amministrazione comunale ha
promosso nel tempo varie iniziative volte a risolvere tale problema, non
incontrando però la disponibilità del precedente gestore della linea ad
avviare un confronto ed a cercare delle soluzioni.
Dopo questa fase di stallo, nel 2009 la linea è diventata di proprietà di
Terna S.p.A. e a fine 2010 sono iniziati i contatti del Comune di Pisa col
nuovo gestore per trovare una soluzione al problema, sempre col supporto
tecnico di ARPAT. Intanto sull’edificio scolastico il Comune ha deciso
di intervenire sul recettore progettando la schermatura; per attenuare
anche l’esposizione dei residenti del quartiere si è iniziato un percorso per
intervenire sulla linea.
OBIETTIVI
Nel luglio 2011, su richiesta del Comune, ARPAT ha formulato una proposta
tecnica di intervento di mitigazione da effettuarsi sulla linea elettrica, che
riducesse significativamente i livelli di esposizione dei recettori presenti lungo il tracciato. Tale proposta
consiste nell’ottimizzazione delle fasi per le tre campate in doppia terna (di lunghezza complessiva pari a
540 m) e sulla compattazione dei conduttori per le nove campate in terna singola (di lunghezza complessiva
pari a 1600 m); non intervenendo,quindi, sulla modifica del tracciato, per contenere i costi di realizzazione.
La proposta tecnica di ARPAT è stata ritenuta valida dal gestore ed è stata presa in esame dallo stesso, in
primo luogo per valutarne la specifica fattibilità tecnica sulle campate in esame e, successivamente, per
redigere un progetto esecutivo. Il gestore della linea elettrica ed il Comune di Pisa si sono accordati sul
fatto che l’intervento di mitigazione dovesse essere a carico dell’Amministrazione.
129
MATERIALI E METODI
STIMA DELL’ESPOSIZONE DELLA POPOLAZIONE
Al fine di stimare il livello medio di esposizione a lungo termine all’induzione magnetica a 50 Hz della
popolazione residente in prossimità dell’elettrodotto di Barbaricina, ARPAT ha acquisito negli anni, a partire
dal 1999, i dati sulle correnti circolanti, misurate dal gestore (ogni quarto d’ora) all’estremo della linea.
L’analisi statistica su base annua di tali valori di corrente ha evidenziato che i parametri: media, mediana,
5° e 95° percentile sono rimasti stabili nel tempo. Le variazioni della corrente media di anno in anno sono
comprese entro il ±5%. Ciò è dovuto al fatto che il carico di corrente della linea, nell’assetto di rete tipico, è
legato alla produzione di energia da parte di un impianto industriale a ciclo continuo. Per tale linea è stato
inoltre riscontrato che la media e la mediana su base annua sono sovrapponibili entro il ±3%. Esaminando
nel dettaglio la distribuzione temporale tipica della corrente durante l’arco delle 24 ore, si è ottenuto che
per tale linea la corrente media nel periodo diurno (6:00 - 22:00) è del 5-6% superiore rispetto alla media
nelle 24 ore e, quindi, la corrente media nel periodo notturno (22:00 - 6:00) è del 10-12% inferiore rispetto
alla corrente media nelle 24 ore.
Per la modellizzazione tridimensionale dell’impatto delle dodici campate che interessano il quartiere è
stata utilizzata, come dato di input, la corrente media nel periodo 1999 - 2011. La scelta della media come
parametro rappresentativo è in linea con i protocolli metodologici adottati negli studi epidemiologici di coorte
sulla popolazione esposta all’induzione magnetica a 50 Hz, realizzati sia in Italia [2] che negli altri paesi.
Per tali calcoli è stato utilizzato il software previsionale PLEIA-EMF ver. 1.6, realizzato per ARPAT dall’IFACCNR di Firenze [1]. Per ottenere una buona accuratezza dei risultati del calcolo ed un ottimo accordo
con i valori di induzione magnetica misurati, sono stati effettuati numerosi sopralluoghi, in cui sono state
misurate tutte le distanze e le altezze utili ai fini della modellizzazione. In un corridoio largo 70 m con al
centro il tracciato della linea ARPAT ha individuato 104 abitazioni (numeri civici), disposte su varie altezze
(in gran parte composte da piano terra e primo piano, ma anche con qualche secondo piano), per le
quali è stato calcolato il livello medio dell’induzione magnetica al centro dell’abitazione ed agli estremi
(punto più vicino alla linea e punto più lontano). Tali livelli sono stati poi confrontati con quelli attesi dopo
la mitigazione della linea per stimarne la riduzione.
TRATTO IN DOPPIA TERNA
Per ottimizzare le fasi delle prime tre campate in doppia terna (ammazzettata sia all’estremo della linea
che sul quarto sostegno, vedi Figura 2 a sinistra) occorre realizzare la disposizione antisimmetrica, con
le fasi identiche disposte sulle mensole centrali dei sostegni. Tale disposizione, in questo caso specifico,
si ottiene spostando sul quarto sostegno la fase “4” in basso e la fase “8” in alto e, sugli altri 3 sostegni,
rimuovendo i raccordi orizzontali che collegano i conduttori con la stessa fase (sulle mensole alte e su
quelle basse), lasciando inalterati i conduttori centrali (fase “12”) e collegando tra loro le altre fasi con nuovi
raccordi in diagonale (vedi Figura 2 a destra).
Figura 2 | Sostegni in doppia terna
Sostegno in doppia terna sul quale avviene l’ammazzet- Sostegno in doppia terna sul quale avviene l’ammazzettamento, prima dell’intervento.
tamento, dopo l’ottimizzazione delle fasi.
130
TRATTO IN TERNA SINGOLA
Per il tratto in terna singola la compattazione dei conduttori si ottiene inserendo, in uno o due punti
lungo la campata, tre compattatori in materiale composito, disposti a triangolo, che riducono la distanza
reciproca dei conduttori da circa 6 m a soli 2 m (vedi Figura 3). Per le due campate con i conduttori
disposti “a bandiera” tali compattatori possono essere inseriti verticalmente. Per agevolare l’installazione
dei compattatori, su alcuni sostegni, si passerà dall’armamento dei conduttori in sospensione a quello in
amarro, agganciando il conduttore più basso al fusto del sostegno. L’inserimento dei compattatori, inoltre,
comporta di fatto anche un innalzamento da terra del baricentro dei conduttori.
ARPAT, sempre mediante il codice di calcolo PLEIA-EMF ver 1.6, ha modellizzato preventivamente tali
modifiche da apportare alla linea, stimando la riduzione attesa dei livelli presso i recettori più vicini al
tracciato e fornendo, quindi, al Comune di Pisa tutte le informazioni necessarie per una corretta valutazione
costi – benefici, per poi poter decidere sull’impegno di spesa da affrontare.
Figura 3 | Linea a 132 kV in terna singola con i conduttori compattati.
Esempi, su due campate, dell’inserimento dei compattatori a triangolo realizzato.
RISULTATI
I valori di induzione magnetica di seguito riportati corrispondono, in ogni punto, al livello medio di
esposizione a lungo termine, calcolato con la corrente media nel periodo 1999 - 2011.
TRATTO IN DOPPIA TERNA
Le simulazioni, effettuate a varie altezze su una griglia di punti con passo di 0.5 m e sovrapposte alla
Cartografia Tecnica Regionale in scala 1:2000, indicano che presso i recettori più vicini al tracciato nel
tratto in doppia terna si ottiene, a parità di corrente circolante, una riduzione del 66% dei livelli di induzione
magnetica.
In tale tratto al piano terra dell’abitazione più vicina al tracciato si passa da un livello di induzione magnetica
di 0.69 μT ad un livello di 0.22 μT; nell’abitazione al primo piano più vicina al tracciato si passa da un livello
di induzione magnetica di 0.66 μT ad un livello di 0.20 μT (vedi Figura 4 alla pagina seguente).
TRATTO IN TERNA SINGOLA
Nel tratto in terna singola, a parità di corrente circolante, si ottiene una riduzione dei livelli che varia da un
minimo del 25% ad un massimo del 55%, a seconda della posizione del recettore e della sua distanza dalla
sorgente. I recettori più vicini ai compattatori installati risentono di una maggiore riduzione dei livelli, mentre
quelli che si trovano in prossimità dei sostegni della linea risentono, a parità di distanza dalla sorgente, di
una riduzione minore.
Nel tratto in terna singola, infatti, l’inserimento dei compattatori disposti a triangolo comporta una
deformazione delle curve isolivello dell’induzione magnetica che, invece, non avviene per l’ottimizzazione
delle fasi per il tratto in doppia terna. In conduttori che, in presenza dei compattatori, in un punto si
avvicinano significativamente tra loro, modificano l’andamento dei livelli di induzione magnetica all’interno
della campata.
131
Figura 4 | mappatura dei livelli di induzione magnetica al primo piano, prima e dopo la mitigazione.
Livelli di induzione magnetica nelle abitazioni vicine al tratto in doppia terna: a sinistra i livelli attuali e destra i livelli attesi
dopo l’ottimizzazione delle fasi.
Ad esempio nella campata, descritta nelle Figure 5 e 6, in cui saranno inseriti i compattatori disposti a
triangolo, allo stato attuale, ad un’altezza da terra di 7.5 m (corrispondente al secondo piano) i livelli di
induzione magnetica raggiungono il valore massimo di 2.2 μT e dentro le abitazioni il valore massimo di
1.5 μT. Tali valori dopo la compattazione dei conduttori si riducono a 1.1 μT all’esterno e a 0.9 μT dentro le
abitazioni (vedi Tabella 1).
Tabella 1 | Riduzione dei livelli di induzione magnetica al secondo piano.
Intervalli di variazione (min e max) dei livelli di induzione magnetica all’interno degli edifici al secondo piano, allo stato
attuale e dopo la compattazione dei conduttori.
Edificio n.
Livelli di induzione magnetica – B (μT)
Riduzione percentuale
dei livelli massimi (%)
Prima della compattazione
Dopo la compattazione
1
0.7 < B < 1.3
0.6 < B < 0.9
31
2
0.5 < B < 1.5
0.3 < B < 0.8
47
3
0.2 < B < 0.4
0.2 < B < 0.3
25
Sempre per la campata, descritta nelle Figure 5 e 6, allo stato attuale, ad un’altezza da terra di 4.5 m
(corrispondente al primo piano) i livelli di induzione magnetica raggiungono il valore massimo di 1.4 μT
all’esterno e il valore massimo di 1.1 μT dentro le abitazioni. Tali valori dopo la compattazione dei conduttori
si riducono a 0.8 μT all’esterno e a 0.7 μT dentro le abitazioni.
Nella campata, descritta nelle Figure 7 e 8 (alla pagina seguente), con conduttori disposti a “bandiera”,
in cui saranno inseriti i compattatori disposti verticalmente, allo stato attuale, ad un’altezza da terra di
7.5 m (corrispondente al secondo piano) i livelli di induzione magnetica raggiungono il valore massimo di
3.1 μT e dentro le abitazioni il valore massimo di 1.9 μT. Tali valori dopo la compattazione dei conduttori si
riducono a 1.0 μT all’esterno e a 0.8 μT dentro le abitazioni (vedi Tabella 2).
132
Figura 5 | Mappatura dei livelli di induzione magnetica al secondo piano, prima e dopo la mitigazione.
Livelli di induzione magnetica nelle abitazioni vicine al tratto in terna singola: a sinistra i livelli attuali e a destra i livelli
attesi dopo l’inserimento dei compattatori a centro campata. I numeri in blu indicano i 3 edifici con il secondo piano.
Figura 6 | Mappatura dei livelli di induzione magnetica al primo piano, prima e dopo la mitigazione.
Livelli di induzione magnetica nelle abitazioni vicine al tratto in terna singola: a sinistra i livelli attuali e a destra i livelli
attesi dopo l’inserimento dei compattatori a centro campata.
Tabella 2 | riduzione dei livelli di induzione magnetica al secondo piano
Intervalli di variazione (min e max) dei livelli di induzione magnetica all’interno degli edifici al secondo piano, allo stato
attuale e dopo la compattazione dei conduttori.
Edificio n.
Livelli di induzione magnetica – B (μT)
Riduzione percentuale
dei livelli massimi (%)
Prima della compattazione
Dopo la compattazione
4
0.3 < B < 0.9
0.2 < B < 0.6
33
5
0.5 < B < 1.6
0.3 < B < 0.7
55
6
0.5 < B < 1.9
0.3 < B < 0.8
55
133
Figura 7 | mappatura dei livelli di induzione magnetica al secondo piano, prima e dopo la mitigazione.
Livelli di induzione magnetica nelle abitazioni vicine al tratto in terna singola a bandiera: a sinistra i livelli attuali e a
destra i livelli attesi dopo l’inserimento in due punti dei compattatori disposti verticalmente. I numeri in blu indicano i 3
edifici con il secondo piano.
Figura 8 | mappatura dei livelli di induzione magnetica al primo piano, prima e dopo la mitigazione.
Livelli di induzione magnetica nelle abitazioni vicine al tratto in terna singola a bandiera: a sinistra i livelli attuali e a
destra i livelli attesi dopo l’inserimento in due punti dei compattatori disposti verticalmente.
134
Per la stessa campata, allo stato attuale, ad un’altezza da terra di 4.5 m (corrispondente al primo piano)
i livelli di induzione magnetica raggiungono il valore massimo di 1.8 μT e dentro le abitazioni il valore
massimo di 1.3 μT. Tali valori dopo l’inserimento dei compattatori si riducono a 0.7 μT all’esterno e a
0.6 μT dentro le abitazioni (vedi Figura 8 alla pagina precedente).
DISCUSSIONE E CONCLUSIONI
L’intervento di mitigazione, proposto da ARPAT e realizzato da Terna Rete Italia S.p.A. sulle 12 campate
dell’elettrodotto che attraversano il quartiere di Barbaricina a Pisa, ha comportato una significativa riduzione
dei livelli di esposizione a lungo termine dei circa 350 residenti, presenti, lungo il tratto in esame di 2.1 km,
in un corridoio di 70 m di larghezza con al centro il tracciato della linea.
Al fine di verificare la riduzione dei livelli ottenuta, ARPAT ha effettuato una serie di monitoraggi in continua,
prima e dopo l’intervento di mitigazione, nei 2 edifici scolastici e in 16 abitazioni rappresentative dei diversi
tratti di linea. La percentuale di riduzione dei livelli di induzione magnetica è stata, quindi, calcolata a parità
di corrente circolante, utilizzando per ogni sito la correlazione corrente-campo, ricavata sia prima, che
dopo la modifica della linea.
L’ottimizzazione delle fasi nel tratto in doppia terna ha determinato una riduzione percentuale dei livelli di
induzione magnetica che va dal 40% al 70% al diminuire della distanza degli edifici dall’asse della linea.
Tale riduzione è uniforme lungo la campata a parità di distanza dal tracciato.
Con la compattazione dei conduttori si sono ottenute riduzioni percentuali che vanno dal 15% al 55% al
diminuire della distanza tra la singola abitazione e i compattatori inseriti nella campata. Le abitazioni più
vicine ai compattatori hanno beneficiato maggiormente della mitigazione.
In particolare per le situazioni più critiche, caratterizzate da livelli medi di esposizione a lungo termine
superiori a 1 μT, si è ottenuto una riduzione dei livelli di esposizione del 30%-40%.
Non essendo tecnicamente possibile inserire i compattatori molto vicino ai sostegni della linea, i due edifici
in corrispondenza dei sostegni esistenti hanno beneficiato di una minore riduzione dei livelli.
Tale intervento nella città di Pisa, dimostra che è possibile ridurre significativamente i livelli di esposizione
della popolazione, qualora si ritenga di intervenire, anche laddove sono rispettati i limiti di legge, puntando
su soluzioni tecniche relativamente semplici da realizzare e che abbiano soprattutto costi sostenibili per il
bilancio di un Comune. Indispensabile inoltre per raggiungere l’obiettivo la concreta disponibilità dei vari
soggetti interessati ad interagire in maniera sinergica.
L’intervento si è caratterizzato inoltre per un rapporto costo – benefici molto favorevole. Il caso studio
illustrato mostra inoltre come sia fondamentale una corretta pianificazione urbanistica per la costruzione di
nuovi edifici, per evitare che poi ci si trovi a dover cercare di intervenire, con vincoli tecnici ed economici,
su una linea elettrica già esistente. Nei casi in cui comunque è necessario, o opportuno, intervenire è
possibile evitare di ricondursi necessariamente all’interramento delle linee, essendo questo intervento tale
da determinare difficoltà spesso insormontabili.
BIBLIOGRAFIA
1. D. Andreuccetti, N. Zoppetti, Magnetic fields dispersed by high-voltage power lines: an advanced
evaluation method based on 3d models of electrical lines and the territory. Radiation Protection
Dosimetry, volume 111 N.4 2004 pp.343-347.
2. L. Fazzo, V. Tancioni, A.Polichetti, I.Iavarone, N. Vanacore, P. Papini, S. Farchi, C. Bruno, R. Pasetto,
P. Borgia, P. Comba, Morbidity experience in populations residentially exposed to 50 Hz magnetic
field. Methodology and preliminary findings of a cohort study. International Journal of Occupational
and Environmental Health, volume 15 N.2 Apr/Jun 2009 pp.132-141.
135
Articoli
Metodi e procedure per l’analisi di emissioni elettromagnetiche
generate da impianti HVDC
Borsero M.*, Bottauscio O.*, Chiampi M.+, Crotti G.*, Zilberti L.*
*Istituto Nazionale di Ricerca Metrologica, Strada delle Cacce 91, 10135 Torino, [email protected]
+Politecnico di Torino, Corso Duca degli Abruzzi 24, 10129 Torino
RIASSUNTO
Il lavoro illustra metodi e risultati relativi alla valutazione preventiva delle emissioni elettromagnetiche di un
sistema di collegamento tra Italia e Francia in alta tensione continua (HVDC), costituito da due cavi interrati,
posizionato prevalentemente al di sotto del manto autostradale. La valutazione è stata effettuata facendo uso
sia di modelli numerici per la previsione del campo generato dai cavi interrati in relazione a diverse modalità
di posa, sia di rilievi sperimentali delle emissioni in stazioni di conversione AC/DC. L’attività descritta è
stata svolta nell’ambito del progetto TIPE “Transmission Infrastructure for Power Exchange”, finanziato dalla
Regione Piemonte.
INTRODUZIONE
Le connessioni in alta tensione continua (high voltage direct current - HVDC), utilizzate nel passato quasi
esclusivamente per connessioni sottomarine, si stanno diffondendo in alternativa alle tradizionali linee di
trasmissione a tensione alternata. Queste connessioni presentano infatti significativi vantaggi sia nella
trasmissione di elevate potenze su distanze considerevoli, per le minori perdite in linea che compensano
i maggiori costi di installazione, sia nell’interconnessione di sistemi asincroni (generazione distribuita
e offshore). La posa della linea in cavo interrato, eventualmente utilizzando infrastrutture pre-esistenti
(autostrade e gallerie), fornisce inoltre una possibile soluzione a situazioni in cui il tracciato interessi aree
a forte densità abitativa.
In sede di progetto la scelta del tracciato del cavo non può prescindere da una valutazione preventiva delle
emissioni elettromagnetiche in relazione all’esposizione umana, in tutti i tratti in cui si attraversino zone
con infrastrutture pre-esistenti o aree abitative. Tale valutazione dovrebbe includere anche le stazioni di
conversione AC/DC di interesse per la molteplicità di sorgenti di campo presenti e l’eventuale contiguità ad
aree accessibili alla popolazione e/o ai lavoratori e per la sovrapposizione ad altre sorgenti di campo. La
valutazione preventiva delle emissioni e la conseguente stima dell’esposizione possono essere effettuate
numericamente, quando siano note tutte le caratteristiche della sorgente e dell’ambiente circostante.
Laddove tutti questi elementi non siano noti a priori o l’ambiente sia particolarmente complesso per
numero e caratteristiche delle sorgenti e delle apparecchiature circostanti, l’analisi si deve basare su rilievi
sperimentali eseguiti su strutture analoghe.
Nel seguito si illustrano metodologie e risultati ottenuti dall’Istituto Nazionale di Ricerca Metrologica (INRIM),
in collaborazione con il Politecnico di Torino, nella valutazione preventiva delle emissioni elettromagnetiche
prodotte da un sistema in alta tensione continua, costituito prevalentemente da cavi posizionati al di sotto
del manto autostradale. L’attività è stata svolta nell’ambito del progetto TIPE Transmission Infrastructure
for Power Exchange, che la Regione Piemonte ha finanziato nel triennio 2008-2010 in vista di un possibile
futuro collegamento tra Italia e Francia. Dopo un richiamo delle caratteristiche progettuali delle linee
considerate, vengono discusse le diverse procedure utilizzate ed i risultati ottenuti con riferimento alle
emissioni delle linee in cavo e delle stazioni di conversione AC/DC. La valutazione è effettuata facendo uso
sia di tecniche numeriche, per la previsione del campo generato dalle linee in relazione a diverse modalità
di posa, sia di rilievi sperimentali, per la stima delle emissioni all’interno e in prossimità della stazioni di
conversione. Lo studio è completato da misure ante-opera dei livelli di campo statico, a bassa frequenza
e a radiofrequenza lungo il percorso ipotizzato per i cavi.
137
CARATTERISTICHE DELLE LINEE IN CAVO
Il sistema di trasmissione considerato è formato da due linee (denominate A e B), che costituiscono un
sistema bipolare HVDC, le cui caratteristiche sono riportate in Tabella 1. Le linee possono essere gestite
indipendentemente, con l’unico vincolo che i flussi di potenza nelle due linee abbiano lo stesso verso.
Ciascuna linea è alimentata da trasformatori, collegati in parallelo alla rete trifase, e da unità di conversione,
ciascuna delle quali è composta da due convertitori AC/DC a 12 impulsi.
Le due linee possono essere posate secondo tre configurazioni (corsia di emergenza, viadotto, galleria), a
seconda delle caratteristiche del tratto autostradale, come descritto qui di seguito.
#1 Posa lungo la corsia di emergenza: i conduttori sono disposti su un piano orizzontale al di sotto di una
lastra ferromagnetica (lunghezza 70 cm, spessore 0.6 cm) inserita per motivi di protezione meccanica.
I cavi sono posti a una profondità di 130 cm e spaziati di 21 cm.
#2 Posa in viadotto: le due linee sono sovrapposte e appoggiate a sostegni metallici la cui presenza
non altera in misura significativa la distribuzione del campo magnetico. Le profondità di posa sono
rispettivamente di 70 cm (linea A) e di 120 cm (linea B).
#3 Posa in galleria: i conduttori, disposti su un piano orizzontale all’interno di un tubo in cemento, sono
distanziati di 40 cm.
Per ciascuna posa si analizzano le disposizioni delle polarità dei conduttori illustrate in Tabella 2, a cui
corrispondono diversi valori dei parametri elettrici (auto e mutue induttanze) della linea.
Tabella 1 | Caratteristiche di una singola linea HVDC
Tensione nominale Un
800 kV
Potenza nominale Pn
500 MW
Corrente d.c. nominale In
625 A
Lunghezza nominale Ln
184 km
Tabella 2 | Disposizione dei conduttori
Disposizione 1
Pose #1 e #3
Disposizione 2
Pose #1 e #3
Disposizione 1
Posa #2
Disposizione 2
Posa #2
CAMPO MAGNETICO GENERATO DALLA LINEA IN CAVO
Per valutare le emissioni generate dalle linee HVDC si è fatto uso del codice di calcolo Powerfield [1],
sviluppato e commercializzato dall’INRIM. Tale codice, basato su un metodo ibrido FEM/BEM (elementi
finiti ed elementi al contorno) e sulla tecnica delle “lastre sottili” [2, 3], fornisce la distribuzione del campo
magnetico ambientale quando siano noti i dati di progetto delle linee (forma, dimensioni e posizione
dei conduttori), le condizioni di alimentazione (componente continua e armoniche della corrente) e le
caratteristiche di eventuali schermi magnetici.
Il campo elettrico prodotto dalla linea nell’ambiente circostante è considerato trascurabile, in quanto la
presenza di guaine metalliche connesse a terra lo confina all’interno del cavo stesso.
ANALISI DEL CAMPO MAGNETICO STATICO
Al fine di individuare la configurazione che, a parità di corrente in linea, produce i massimi livelli di campo, si
è analizzata la distribuzione del campo magnetico a livello del terreno facendo riferimento ad una corrente
unitaria. I valori ottenuti per le tre configurazioni di posa sono sintetizzati in Figura 1, nei casi in cui sono
alimentate sia entrambe le linee, sia una sola di esse. I risultati mostrano che i livelli del campo per la posa
#1 sono significativamente inferiori rispetto quelli delle pose in viadotti e gallerie, che rappresentano le
condizioni più critiche. Si è inoltre verificato che la disposizione dei conduttori (+ - + -) genera livelli di
campo superiori e dovrebbe pertanto essere sostituita dalla disposizione (+ - - +). A titolo di esempio, la
Figura 2 mostra la distribuzione spaziale del campo magnetico statico relativo alla posa in galleria, nella
disposizione (+ - + -), ipotizzando, per entrambe le linee, una corrente pari a quella nominale In (625 A).
138
Figura 1 | Distribuzione del campo magnetico lungo una linea orizzontale a livello del terreno, riferita ad una corrente
di valore unitario. L’origine del sistema di riferimento è coincidente col centro del sistema di conduttori. a) Posa #1, b)
Posa #2, c) Posa #3.
Figura 2 | Distribuzione spaziale del campo magnetico statico per la posa in galleria (#3), con disposizione dei
conduttori (+ - + -). Le linee isolivello del campo magnetico relative a 5 A/m, 10 A/m, 50 A/m e 100 A/m sono evidenziate.
I valori di campo magnetico statico prodotti dalla componente DC della corrente di linea (il valore massimo
è circa 57 A/m per In= 625 A) a livello del terreno risultano sempre notevolmente inferiori rispetto ai livelli
di riferimento indicati dall’International Commission on Non-Ionising Radiation Protection (ICNIRP) per la
popolazione (3.2·105 A/m) e per i lavoratori (1.6·106 A/m) rispettivamente [4].
CAMPO MAGNETICO VARIABILE NEL TEMPO
Il sistema di conversione AC/DC genera componenti armoniche delle correnti che si propagano lungo
la linea, dando origine a campi magnetici periodici [5]. Le componenti armoniche della corrente sono
valutate attraverso un modello circuitale che include convertitori e linea. In Figura 3 sono riportate, per la
posa #3, le distribuzioni lungo la linea delle armoniche prevalenti con tensioni AC nominali a inizio e fine
linea, in assenza di sequenza inversa, e con una potenza trasmessa pari all’80% della potenza nominale.
In queste condizioni, sono presenti solo le armoniche multiple di 12 rispetto alla frequenza fondamentale
di 50 Hz del sistema AC; in particolare l’armonica 12esima (600 Hz) risulta essere quella prevalente.
Figura 3 | Distribuzione dell’ampiezza delle componenti armoniche della corrente lungo la linea: a) disposizione dei
conduttori (+ - + -), b) disposizione dei conduttori (+ - - +), c) solo una linea alimentata.
139
Si rileva inoltre un forte incremento dell’armonica 24esima (1200 Hz) nel caso della disposizione (+ - + -),
a causa di fenomeni di risonanza, legati alle caratteristiche geometriche delle linee e alla disposizione dei
conduttori.
Per un’analisi sistematica delle diverse situazioni che si presentano si introduce la funzione Kp che
rappresenta la distribuzione del campo magnetico generato da una corrente unitaria in direzione verticale.
La funzione Kp, determinata con simulazioni numeriche, dipende dalla configurazione di posa e dalla
disposizione dei conduttori. Al fine di verificare il rispetto dei livelli di riferimento per l’esposizione umana,
deve essere soddisfatto il seguente criterio:
(1)
dove n è l’ordine dell’armonica di frequenza fn, In è il valore efficace della corrispondente corrente armonica
e
rappresenta il livello di riferimento indicato dall’ICNIRP [6], che nella gamma di frequenze da
400 Hz a 3 kHz è pari a 64000/fn A/m. Poiché il valore di Kp a livello del terreno è, per ogni configurazione
analizzata, inferiore a 0.08 m-1, la condizione (1) risulta sempre ampiamente verificata per tutte le armoniche
considerate.
VALUTAZIONE DELLE EMISSIONI ELETTROMAGNETICHE DELLA STAZIONE
DI CONVERSIONE AC/DC
Il rilievo sperimentale delle emissioni elettromagnetiche generate da una sottostazione di conversione AC/
DC in alternativa all’uso di modelli numerici è dettato dalla complessità e dalla quantità delle sorgenti di
campo, che riducono drasticamente i vantaggi di una simulazione numerica. Si è fatto quindi riferimento
alla sottostazione di proprietà di Terna SpA, che alimenta la connessione HVDC sottomarina (500 MW, 400
kV) tra Italia e Grecia. L’interconnessione (di lunghezza pari a 167 km) è realizzata mediante un sistema
monopolare, utilizzando il mare come conduttore di ritorno. Sul lato italiano la sottostazione è connessa alla
linea sottomarina tramite un cavo interrato di lunghezza pari a 43 km, mentre sul lato greco la connessione
con la sottostazione di conversione avviene mediante una linea aerea di lunghezza pari a 110 km [7].
L’analisi delle emissioni elettromagnetiche della sottostazione di conversione è stata condotta distinguendo
i diversi contributi dovuti alle sorgenti presenti. Si sono misurati il campo magnetico statico e a bassa
frequenza e il campo elettromagnetico a radiofrequenza, individuandone le principali sorgenti nelle aree
accessibili esterne all’edificio dei convertitori, sintetizzate in Tabella 3. Le misure di campo magnetico
statico sono state limitate al lato DC e lungo il percorso del cavo HVDC. Le misure a bassa frequenza e a
radiofrequenza sono state effettuate sia sul lato AC, sia su quello DC. In tutte le misure la sonda di campo
è stata posizionata a 1.1 m dal suolo.
Tabella 3 | Sorgenti di campo e aree di misura
Sorgenti
Aree di misura
A Sotto il conduttore DC in uscita
dall’edificio dei convertitori, tra l’edificio e
l’induttore di spianamento
B A lato dell’induttore di spianamento
C Discesa cavo verso l’interramento
D Sopra il cavo interrato
E Cavi di ritorno
Campo magnetico statico
Convertitori AC/DC
Conduttore HVDC aereo
Cavo interrato
Conduttori di ritorno
Campo magnetico
a bassa frequenza
Linee trifase HV AC 380 kV
Trasformatori
Convertitori AC/DC
Campo elettromagnetico
a radiofrequenza
Convertitori AC/DC
Conduttori aerei (effetto corona)
F
Sotto la linea 380 kV, ingresso edificio
convertitori
G Sotto la linea 380 kV, vicino ai filtri AC
C Discesa cavo verso l’interramento
B A lato dell’induttore di spianamento
A Sotto il conduttore DC in uscita
dall’edificio dei convertitori, tra l’edificio e
l’induttore di spianamento
B A lato dell’induttore di spianamento
C Discesa cavo verso l’interramento
F Sotto la linea 380 kV, ingresso edificio
convertitori
G Sotto la linea 380 kV, vicino ai filtri AC
Durante la campagna di misure [8] la potenza P erogata dalla sottostazione è risultata variabile tra 200 MW
e 500 MW (valore nominale PN della sottostazione). Il massimo carico è stato riscontrato nelle ore centrali
140
della giornata. I dati sono stati rilevati in stazione con i sistemi di misura presenti sull’impianto e sono stati
forniti dal gestore i valori medi orari di carico. L’incertezza associata ai valori di carico indicati nel seguito è
stata stimata pari al 15%, includendo nella valutazione il contributo legato alla variazione tra due valori medi
orari consecutivi. Il corrispondente contributo di incertezza che può essere associato ai valori di induzione
misurati è quindi pari al 7.5%.
Le caratteristiche principali della strumentazione di misura utilizzata sono riassunte in Tabella 4. Tutti i
misuratori sono stati preliminarmente tarati presso l’Istituto Nazionale di Ricerca Metrologica (INRIM)
mediante i sistemi di generazione di campi magnetici ed elettromagnetici di riferimento [9, 10]. L’incertezza
relativa (livello di fiducia 95%) associata ai valori di misura riscontrati, valutata tenendo conto dei contributi
dovuti a taratura e condizioni di misura on-site (non uniformità spaziale della distribuzione di campo in
relazione alle dimensioni della sonda utilizzata, incertezza di posizionamento, variabilità del carico,..) è
risultata contenuta tra il 10% e il 20%.
Tabella 4 | Strumentazione di misura
Campo
Misuratore/sonda
Banda passante
Intervallo di misura
Campo magnetico statico
NARDA – mod. ETM-1 Sonda
Hall 3D
DC
0.010 mT-2 T
Campo magnetico a
bassa frequenza
1) NARDA mod. EFA300 Sonda
esterna 3D 100 mm2
2) NARDA mod. ELT 400 Sonda
esterna 3D 100 mm2
Uscita analogica tre
componenti di campo. Oscil.
digitale Yokogawa (8 bit, 10
MS/s)
5 Hz-32 kHz
10 Hz-400 kHz
10 nT-32 mT
50 nT-80 mT
Campo elettromagnetico
a radiofrequenza
Holaday mod. HI-4422
10 kHz-1GHz
1 V/m-300 V/m
RISULTATI DI MISURA E CONFRONTO CON I LIVELLI DI RIFERIMENTO
Campo magnetico statico
I valori di induzione magnetica misurati sotto l’uscita del conduttore DC e in prossimità dell’induttore di
spianamento variano da 0.13 a 0.21 mT, che corrispondono a 0.19 mT e 0.31 mT se riportati alla potenza
nominale PN. Valori più elevati, fino a 0.65 mT (riferiti a PN) sono stati riscontrati in prossimità del cavo HVDC
(area di misura C), posizionando la sonda all’interno della griglia di protezione.
Campo magnetico variabile nel tempo
Misure di campo magnetico variabile nel tempo sono state effettuate sul lato AC della stazione di
conversione. La Figura 4 mostra gli andamenti temporali delle tre componenti di campo misurate sotto
i conduttori di fase ad una distanza di circa 7.7 m dal trasformatore posto in ingresso alla stazione di
conversione. La potenza P erogata durante la misura era pari a 43% PN. L’ampiezza (valori di picco) delle
componenti armoniche (Figura 4b) mostra che, come atteso, sono presenti le sole componenti di 11esima
e 13esima armonica (fisiologiche per la strategia di conversione adottata). Il campo magnetico risultante
sotto i conduttori e in prossimità dei filtri AC è dello stesso ordine di grandezza.
Misure di campo variabile nel tempo sono state effettuate anche sul lato DC della stazione, allo scopo
di rilevare le sole componenti armoniche. La Figura 5a mostra le forme d’onda dell’induzione magnetica
registrate posizionando la sonda di campo a 0.6 m di distanza dal cavo HVDC (area di misura C, a una
distanza di circa 10 m dall’edificio dei convertitori), all’interno della griglia metallica di protezione intorno
al percorso discendente del cavo. L’ampiezza delle componenti armoniche dell’induzione magnetica
è riportata nel grafico in Figura 5b. Oltre all’armonica a 600 Hz e ai suoi multipli, si evidenziano una
componente a 300 Hz (attribuibile a un imperfetto coordinamento dei due ponti AC/DC) e una a 100 Hz
(presumibilmente dovuta a uno squilibrio delle tensioni AC).
141
a)
b)
Figura 4 | Induzione magnetica misurata sul lato AC: a) forma d’onda delle componenti di induzione; b) componenti
armoniche.
a)
b)
Figura 5 | Induzione magnetica misurata in prossimità del cavo DC (0.6 m): a) forme d’onda delle componenti di
induzione; b) ampiezza delle componenti armoniche.
Andamenti analoghi si riscontrano in prossimità dell’edificio dei convertitori (aree di misura A e B). Si
sottolinea che l’ambiente in esame è caratterizzato dalla presenza di numerose sorgenti di campo
magnetico e di parti metalliche conduttrici e/o ferromagnetiche che possono perturbare la distribuzione
del campo. Infine, sorgenti di campo magnetico a 50 Hz (ad esempio linee HVAC e alimentazioni dei servizi
ausiliari) giustificano la presenza, sul lato DC di campi magnetici a 50 Hz di ridotta intensità.
I rilievi a radiofrequenza, effettuati sia sul lato AC in prossimità dell’edificio dei convertitori (area di misura F),
sia sul lato DC in prossimità del cavo HVDC (aree di misure C e D), sono risultati sempre inferiori a 6 V/m.
VALUTAZIONE DELL’ESPOSIZIONE E CONFORMITÀ AI LIVELLI DI RIFERIMENTO.
Per quanto riguarda i livelli di campo magnetico statico, la conformità ai limiti ICNIRP [4] è stata riscontrata,
in tutte le situazioni considerate, per diretto confronto con il limite indicato sia per i lavoratori (2 T), sia per
la popolazione (400 mT), facendo riferimento ai valori di induzione riportati alla potenza nominale PN.
Nel caso del campo magnetico a bassa frequenza, si è valutata la conformità alle prescrizioni valutando
l’indice di esposizione T mediante la relazione che implementa l’approccio più cautelativo [6]:
(2)
dove B(fn) è l’ampiezza dell’armonica di ordine n e Blim(fn) è il corrispondente livello di riferimento. La
142
conformità ai limiti è stata largamente verificata (T<0.1) in tutte le zone esaminate. A causa delle armoniche
generate dal convertitore, gli indici massimi si riscontrano sul lato DC, sebbene i valori di campo più elevati
siano stati misurati sul lato AC. Il contributo delle componenti armoniche di ordine elevato, sebbene di
entità limitata, è il più significativo in quanto i livelli di riferimento si riducono con la frequenza.
Con riferimento infine al campo elettromagnetico RF, i valori rilevati presso l’edificio di conversione lato
DC e AC (A, B, F e G) e in prossimità del cavo (C, E), sono risultati di alcune unità di volt al metro, inferiori
di almeno un ordine di grandezza rispetto al livello di riferimento più restrittivo (61 V/m) nella gamma di
frequenza di interesse.
VALUTAZIONE ANTE OPERA DELL’AMBIENTE ELETTROMAGNETICO
I livelli di campo pre-esistenti all’installazione sono stati stimati con una campagna di misure lungo
l’autostrada A32 e nell’area circostante la stazione elettrica di Piossasco (TO), identificando nove postazioni
ritenute rappresentative sia per il tracciato stradale (barriera tunnel, barriera autostradale, gallerie, piazzole
di sosta), sia per la presenza di sorgenti di campo (linee di trazione ferroviaria, cabine, linee di trasmissione
dell’energia elettrica, alimentazione dei servizi autostradali, trasmettitori per telefonia mobile, radio-TV e per
comunicazioni di servizio).
Le misure sono state eseguite con la strumentazione sopra descritta (Tabella 4) per il campo magnetico a
bassa frequenza. Per i rilievi di campo statico si è fatto uso di un misuratore triassiale “flux-gate” mentre,
per la gamma di frequenze compresa tra 10 kHz e 2.5 GHz, sono state effettuate anche misure a banda
stretta mediante l’uso di un analizzatore di spettro e di antenne tarate di campo elettrico e magnetico.
Il campo magnetico statico misurato è risultato compreso tra 35 μT e 60 μT. I valori di induzione per il
campo magnetico BF sono risultati non superiori a qualche centinaio di nanotesla. I campi RF misurati,
di cui un esempio è riportato in Figura 6, sono rappresentativi di livelli e frequenze riscontrabili in ambienti
suburbani: i valori massimi, in relazione alla gamma di frequenza esplorata, sono risultati sempre inferiori
a 1 V/m (telefonia mobile, comunicazioni di servizio).
Per quanto riguarda infine i rilievi in prossimità della sottostazione elettrica di Piossasco, lungo il percorso
ipotizzato per il cavo HVDC sino all’ingresso della stazione, si sono riscontrati i valori tipici attesi in prossimità
di linee di trasmissione AC.
Figura 6 | Intensità del campo elettrico e magnetico a radiofrequenza, rilevate nell’area di una piazzola autostradale.
CONCLUSIONI
La valutazione preventiva delle emissioni elettromagnetiche di un sistema di trasmissione in alta tensione
continua (HVDC) ha richiesto la messa a punto di specifici strumenti numerici sia di carattere circuitale, per
la previsione della distribuzione delle componenti armoniche della corrente lungo la linea, sia basati sulla
soluzione di problemi di campo, per la successiva valutazione della distribuzione dell’induzione magnetica
prodotta dalle condutture. Per quanto riguarda i rilievi sperimentali, è stata inoltre evidenziata l’importanza
della scelta della strumentazione di misura e dell’adozione di specifiche procedure, in funzione delle tipologie
di sorgenti e delle condizioni ambientali riscontrabili nelle diverse situazioni operative. L’applicazione degli
strumenti sviluppati per lo studio dell’impatto elettromagnetico di una linea HVDC di collegamento tra Italia
e Francia, effettuato nell’ambito del progetto TIPE finanziato dalla Regione Piemonte, ha evidenziato, con
riferimento alle soluzioni di progetto considerato (posa del cavo prevalentemente al disotto del manto
autostradale), la compatibilità delle emissioni con i limiti attualmente indicati per l’esposizione della
popolazione.
143
RINGRAZIAMENTI
Gli autori ringraziano il Prof. M. Pastorelli e l’Ing. E. Pons del Politecnico di Torino per gli indispensabili
contributi forniti e la Terna S.p.A. per aver consentito l’effettuazione delle misure “in situ”.
BIBLIOGRAFIA
1. Software PowerfieldTM, www.powerfield.it
2. O. Bottauscio, M. Chiampi, A. Manzin, “Numerical analysis of magnetic shielding efficiency of
multilayered screens,” IEEE Trans. Mag., Vol. 40, pp. 726-729, 2004.
3. O. Bottauscio, M. Chiampi, A. Manzin, ”Nonlinear ferromagnetic shield modeling by the thin-shell
approximation”, IEEE Trans. Mag., Vol. 42, pp. 3144-3146, 2006.
4. ICNIRP “Guidelines on Limits of Exposure to Static Magnetic Fields”, Health Physics 96 (4) (2009).
5. L. Zilberti, E. Pons, O. Bottauscio, M. Chiampi, M. Pastorelli. “Evaluation of the Electromagnetic
Environment Around Underground HVDC Lines”, IEEE Trans. Power Delivery, Vol. 25, no. 4, pp. 30853094 (2010).[
6. ICNIRP “Guidelines for limiting exposure to time-varying electric and magnetic fields (1 Hz to 100
kHz)”, Health Physics, vol. 99, n. 6, pp. 818-836 (2010).
7. A. Giorgi et al. ““The Italy-Greece HVDC link”, CIGRE Session, 2002, Paper 14-116.
8. Borsero, G. Crotti, G. Vizio, L. Zilberti, “Measurement of magnetic and electromagnetic fields in a HV
AC/DC conversion substation”. Proceedings of the 16th International Symposium on High Voltage
Engineering - ISH2009, pp. 368-373, Cape Town (South Africa), August 2009.
9. M. Borsero, G. Crotti, L. Anglesio, G. D’Amore., “Calibration and evaluation of uncertainty in the
measurement of environmental electromagnetic fields”, Rad. Prot. Dos., Vol. 97, no. 4, pp. 363-368
(2001).
10. M. Chiampi, G. Crotti, D. Giordano: “Set up and characterization of a system for the generation of
reference magnetic fields from 1 to 100 kHz”, IEEE Trans. IM, Vol. 564, no. 2, pp. 300-304 (2007).
144
Articoli
Metodi di indagine per studi epidemiologici di coorte
di popolazioni esposte a livelli elevati di campo magnetico a 50 Hz
Fazzo L., Polichetti A., Comba P.
Istituto Superiore di Sanità, viale Regina Elena 299, 00161 Roma,
[email protected], [email protected], [email protected]
RIASSUNTO
In questo contributo si presentano le metodologie utilizzate in due indagini epidemiologiche su una coorte
di soggetti esposti nelle proprie abitazioni a livelli di campo magnetico a 50 Hz al di sopra dei 0.4 microtesla,
con l’obiettivo di applicarle in contesti analoghi per una successiva analisi “pooled” delle stime prodotte..
BACKGROUND
Nel 2002 la IARC pubblica la Monografia sui campi elettrici e magnetici statici e a frequenze estremamente
basse (ELF, comprendenti i 50/60 Hz) (IARC, 2002), in cui i campi magnetici ELF vengono classificati come
“possibilmente cancerogeni per l’uomo” (Gruppo 2B), in base ai risultati di due analisi pooled dei dati di
studi epidemiologici sulle leucemie infantili precedentemente pubblicati (Ahlbom et al, 2000; Greenland et
al, 2000). L’evidenza dell’associazione tra i campi magnetici e la leucemia infantile viene definita “limitata”
e “inadeguata” per tutte le altre patologie tumorali.
L’anno successivo, l’International Commission on Non-Ionizing Radiation Protection in un proprio documento
raccomanda che studi futuri abbiano un’alta qualità metodologica, siano su campioni sufficientemente
numerosi e con un numero sufficiente di soggetti altamente esposti (ICNIRP, 2003). La necessità di
concentrare gli studi su un numero sufficiente di soggetti esposti a livelli di campo magnetico al di sopra
dei 0.3-0.4 microtesla era stata menzionata anche dagli autori delle analisi pooled su menzionate.
Più recentemente, il WHO confermando la valutazione della IARC, evidenzia alcune questioni ancora aperte
riguardo effetti sanitari diversi dalle patologie oncologiche, come i disordini neurodegenerativi, differenze
nei tempi di rilascio della melatonina, alterazioni nel controllo autonomico del cuore e variazioni nel numero
delle cellule Natural Killer. Tra i possibili effetti sanitari da indagare segnala con un livello di priorità medioalta i disordini neurodegenerativi, lo sviluppo dei sistemi immunitario ed ematologico, gli esiti riproduttivi e
dello sviluppo. Il documento sottolinea la mancanza di un chiaro contrasto tra le categorie di alta e bassa
esposizione come punto critico negli studi epidemiologici e la necessità di indagare i gruppi con più alti
livelli di esposizione (WHO, 2007).
Studi pubblicati successivamente ai documenti su citati, in particolare sulle leucemie infantili, disordini
neurologici e risposte immunitarie, i cui risultati indicano possibili effetti avversi a livelli di esposizione simili
a quelli suggeriti per le leucemie infantili, supportano l’esigenza di studiare popolazioni altamente esposte.
Per una trattazione esaustiva, si riinvia al Comba e Fazzo (2009) nelle fonti bibliografiche ivi citate.
Il concetto di studi su gruppi ad alto rischio non è nuovo nelle indagini di epidemiologia (Terracini e
Segnan, 1977; Fazzo e Comba, 2004). Tipicamente la distribuzione dell’esposizione a sostanze inquinanti
è descritta come log-normale, con un numero decrescente di soggetti esposti ai livelli più elevati. Questa
distribuzione può quindi determinare una assenza di rischio o un rischio moderato per la maggior parte
della popolazione, con una piccola proporzione di soggetti esposti ad elevati livelli. E’ in questa “coda”
della distribuzione che occorre concentrare l’attività di indagine, al fine di poter individuare eventuali impatti
sulla salute. Ciò può comportare un miglioramento delle conoscenze su effetti di esposizioni altrimenti non
rilevabili, nonché all’individuazione delle priorità nei risanamenti ambientali, per il perseguimento di una
equità ambientale.
L’esposizione a campi magnetici nella popolazione generale si caratterizza per avere una piccola porzione
di soggetti con valori elevati di campo magnetico che si discostano in modo marcato dal valore medio.
Secondo il WHO la media geometrica della densità di flusso magnetico nelle abitazioni è tra 0.0025 e 0.07
microtesla in Europa e tra 0.055 e 0.11 negli Stati Uniti (WHO, 2007). Per l’Italia secondo Anversa et al.
145
(1995) e Petrini et al. (2001) la porzione della popolazione con una esposizione media nel tempo maggiore
di 0.4 microtesla è tra 0.20 e 0.30%, tenendo conto solo dei campi magnetici generati dalle linee elettriche
ad alta tensione.
In questo quadro l’Istituto Superiore di Sanità ha messo a punto un protocollo di indagini da effettuare
su popolazioni altamente esposte nelle proprie abitazioni, prevedendo indagini su diversi esiti sanitari
(Vanacore et al, 2001).
E’ stato così individuato un quartiere del comune di Roma, denominato Longarina, parte del quale costruito
intorno al 1950 sotto un elettrodotto a 60 kV con valori di campo magnetico dell’ordine di unità di microtesla
nelle abitazioni più vicine alla linea. Due studi epidemiologici sulla coorte di tutti i soggetti residenti dal 1954
al 2003, per un qualsiasi periodo di tempo, nel corridoio di 100 metri ai due lati dalla linea elettrica hanno
evidenziato eccessi di mortalità e di morbosità per alcune cause specifiche nei soggetti esposti ai livelli
più elevati di campo magnetico e residenti nell’area per un più lungo periodo di tempo (Fazzo et al, 2005;
Fazzo et al, 2009).
OBIETTIVI
Sulla base dei risultati di queste indagini e tenendo conto di alcuni studi successivi ai documenti
precedentemente citati, appare opportuno replicare il protocollo applicato negli studi epidemiologici nel
Progetto su Longarina in aree con caratteristiche comparabili, in particolare con una quota consistente
di soggetti esposti nelle proprie abitazioni a livelli di campo magnetico generati da linee elettriche che
possono essere considerati “elevati” (compresi cioè tra qualche decimo e qualche unità di microtesla).
L’obiettivo è quello di pervenire ad analisi pooled di dati prodotti con protocolli e metodi replicabili, in
indagini epidemiologiche su popolazioni che esperiscono gli stessi livelli di esposizione. Le stime pooled,
grazie al maggiore numero dei soggetti indagati, risulteranno avere una maggiore precisione, permettendo
quindi una maggiore confidenza nella interpretazione dei risultati ottenuti.
MATERIALI E METODI
Qui di seguito vengono descritti i metodi utilizzati nel progetto Longarina, dei quali si propone la
replicazione.
Tipo di studio epidemiologico
Lo studio epidemiologico è quello di coorte residenziale, al fine di indagare diverse patologie per le quali
esistono in letteratura segnalazioni di possibile associazione con l’esposizione in studio.
Individuazione dell’area in studio e valutazione dell’esposizione
L’area di Longarina è stata individuata per la sua vicinanza ad una linea elettrica a 60 kV e perché
ben delimitata rispetto al centro urbano prospiciente. La valutazione dell’esposizione ha permesso
l’identificazione delle abitazioni interessate dai maggiori livelli di campo magnetico generato dalla linea,
individuando quale area di interesse un corridoio di 100 metri da entrambi i lati della linea (fig.1).
La valutazione dei livelli di campo magnetico generati dalla linea elettrica nelle abitazioni si è basata su
un modello previsionale, corroborato da misurazioni spot e prolungate nel tempo negli edifici a diversa
distanza dalla linea.
Il modello ha permesso la ricostruzione dell’esposizione pregressa e attuale, basandosi sui dati storici
di funzionamento della linea forniti dal gestore, le caratteristiche dell’impianto e la distanza degli edifici
dalla linea. Per il Progetto Longarina è stato applicato il programma di calcolo «Campi» messo a punto
dall’Istituto di fisica applicata «Nello Carrara» del Consiglio nazionale delle ricerche (Andreuccetti, 2002).
Misurazioni spot e prolungate nel tempo nelle abitazioni, effettuate con rilevatori Emdex LightTM, sono
state utilizzate per corroborare i risultati del modello.
Una lettura dei dati delle misurazioni dirette eseguite in abitazioni a diversa distanza dalla linea elettrica ha
indicato la linea elettrica quale maggiore sorgente di campo magnetico presente nelle abitazioni (fig.2).
L’area in studio è stata suddivisa in sub-aree. L’area più vicina alla linea (abitazioni distanti meno di 28
metri dalla linea) è caratterizzata dai più elevati livelli di induzione magnetica, da un minimo di 0.19 μT
(calcolato ai margini dell’area assumendo una corrente elettrica trasportata dalla linea pari a 167.5 A,
valore medio dei dati storici di carico) fino ad un massimo misurato sperimentalmente di circa 3 μT. L’area
più lontana dalla linea (abitazioni distanti più di 33 metri dalla linea) è invece caratterizzata da livelli di
induzione magnetica generati dalla linea inferiori a 0.17μT (calcolati per una corrente elettrica di 167.5 A).
146
Figura 1 | area in studio
Figura 2 | densità del flusso magnetico misurata in abitazioni a diversa distanza dalla linea elettrica
STIMA DELLO STATO DI SALUTE DELLA POPOLAZIONE
La coorte in studio è costituita dai soggetti che hanno risieduto nell’area dall’anno di costruzione delle
prime abitazioni (1954) alla data di inizio dell’indagine (2003), per un qualsiasi periodo di tempo. Per
la enumerazione della coorte nel caso del Progetto Longarina ci si è avvalsi della collaborazione con il
comitato locale, le cui informazioni sono state corroborate dai dati dell’Anagrafe comunale. Negli studi di
coorti residenziali è necessaria la collaborazione con le Anagrafi comunali per l’individuazione dei soggetti
da indagare (Fazzo et al, 2010).
Per la stima del possibile impatto dell’esposizione ai campi magnetici sullo stato di salute della popolazione
si è proceduto prima all’analisi della mortalità e, successivamente, della morbosità.
Per ogni soggetto della coorte è stato accertato lo stato in vita e per i deceduti, utilizzando il Registro
Nominativo della Cause di Morte, la causa di decesso. Sono state indagate le cause per le quali in
147
letteratura erano presenti indicazioni di una possibile associazione con l’esposizione a campi magnetici
e quelle indicative dello stato di salute generale della popolazione: in tabella 1 sono riportate le cause di
decesso indagate e i rispettivi codici della IX revisione della Classificazione Internazionale delle malattie
(International Classification Diseases: ICD).
Tabella 1 | Cause di mortalità indagate
Elenco cause
ICD* 9 revisione
TUTTE LE CAUSE
0001-9999
Tutti i tumori maligni
1400-2089
T.m. apparato digerente e peritoneo
1500-1599
T.m. stomaco
1510-1519
T.m. intestino e retto
1520-1548
T.m. intestino tenue
1520-1529
T.m. colon e sigma
1530-1539
T.m. pancreas
1570-1579
T.m. apparato respiratorio
1600-1659
T.m. trachea, bronchi e polmoni
1620-1629
T.m. organi genitourinari
1790-1899
T.m. vescica
1880-1889
T.m. rene e di altri e non specificati organi urinari
1890-1899
T.m. sistema nervoso centrale
1900-1929
T.m. encefalo
1910-1919
T.m. sistema linfoematopoietico
2000-2089
Leucemie
2040-2089
Leucemia linfoide
20740-2049
Leucemia mieloide
2050-2059
Diabete
2500-2509
AIDS
2790-2799
Malattie cardiovascolari
3900-4599
Cardiopatie ischemiche
4100-4149
Disturbi circolatori dell’encefalo
4300-4389
Malattie dell’apparato respiratorio
4600-5199
Bronchite, enfisema, asma
4900-4939
Malattie dell’apparato digerente
5200-5799
Cirrosi
5710-5719
Cirrosi epatica senza menzione di alcool
5715
Cause violente
8000-9999
* ICD: International Classification Diseases
Sono stati quindi calcolati con metodo indiretto i Rapporti di Mortalità Standardizzati per età per ciascuna
causa dell’intera coorte e per subfasce di esposizione, rispetto ai tassi della popolazione della Regione.
Per la stima della morbosità sono state utilizzate le Schede di Dimissione Ospedaliera, disponibili presso
l’Osservatorio della Regione. Attraverso un record linkare con il Sistema Informativo Ospedaliero sono stati
identificati i ricoveri dei soggetti della coorte e identificate per ogni soggetto la prima ospedalizzazione
con una delle cause di interesse riportata in diagnosi principale. In Tabella 2 sono descritte le patologie
selezionate e i rispettivi codici della IX revisione della Classificazione Internazionale delle malattie
(International Classification Diseases: ICD).
Sono quindi stati calcolati i Rapporti di Morbosità Standardizzati per età rispetto alla popolazione della
regione Lazio, per l’intera coorte e per le subfasce di esposizione.
Per un maggiore approfondimento dei metodi utilizzati nelle diverse fasi dell’indagine si rimanda agli articoli
pubblicati (Fazzo et al, 2005; Fazzo et al, 2009).
148
Tabella 2 | Patologie selezionate per l’analisi delle Schede di Dimissione Ospedaliera
Patologia
ICD* 9 revisione
Tumori totali
140-239
Tumori maligni primitivi
140-208 (escl.196-198)
T.m. app. digerente e peritoneo
150-159
T.m. del pancreas
157
T.m. dell’encefalo e di altre parti sist. nervoso
191-192
T.m. della gh. tiroidea e altre gh. endocrine e str. connesse
193-194
T.m. del sist. linfoematopoietico
200-208
Leucemie totali
204-208
Tumori maligni secondari e natura non specificata
196-198 e 239
Tumori benigni
210-229
T.b. app. digerente e peritoneo
211
T.b. del pancreas
211.6-211.7
T.b. dell’encefalo e di altre parti sistema nervoso
225
T.b. della ghiandola tiroidea e altre gh. endocrine e str. connesse
226-227
Disturbi della ghiandola tiroide
240-246
Malattie ematologiche
280-289
Malattie sistema nervoso e organi di senso
320-389
Malattie sistema circolatorio
390-459
Malattie ischemiche
410-414
Complicanze della gravidanza
630-639
Malattie perinatali
760-779
* ICD: International Classification Diseases
Meta-analisi delle stime
Le stime elaborate nelle singole aree, suddivise per livelli di esposizione, saranno utilizzate per il calcolo di
stime pooled applicando un metodo ad effetti random, che non implica necessariamente una omogeneità
tra le singole stime (Blettner et al, 1999).
RISULTATI E DISCUSSIONE
L’analisi di mortalità della coorte di Longarina ha evidenziato un eccesso di mortalità per tutti i tumori
maligni, in particolare del pancreas; l’eccesso interessa maggiormente i soggetti che hanno risieduto per
un periodo maggiore di 30 anni nell’intera area e in quelli che hanno risieduto nella subarea più vicina alla
linea, per un qualsiasi periodo di tempo.
Lo studio delle Schede di Dimissione Ospedaliera ha confermato i risultati emersi dallo studio precedente.
Sono stati evidenziati eccessi dei tumori maligni primitivi, in particolare del pancreas, e dei tumori secondari;
tra le patologie non oncologiche sono risultate in eccesso quelle ematologiche e ischemiche. Gli eccessi
anche in questo caso sono risultati essere concentrati tra i soggetti con una permanenza nell’area di più
di 30 anni e più vicino alla linea.
Indicazioni di una alterazione del quadro ematologico nei soggetti con queste caratteristiche sono state
evidenziate anche dall’indagine clinica, i cui risultati preliminari sono stati presentati al Convegno della
Società Internazionale di Epidemiologia Ambientale del 2011 (Bruno et al, 2011).
Entrambi gli studi epidemiologici di coorte, pur risentendo della bassa numerosità degli attesi che determina
una bassa precisione delle stime, hanno evidenziato eccessi di alcune patologie nelle popolazioni
maggiormente esposte. Tali risultati, se riconfermati da successivi studi, potrebbero fornire indicazioni di
un impatto sulla salute dell’esposizione residenziale ad elevati livelli di campo magnetico a 50 Hz anche
per patologie diverse dalla leucemia infantile.
I risultati dell’analisi pooled grazie ad una maggiore potenza statistica, saranno caratterizzati da una
maggiore precisione delle stime.
149
CONCLUSIONI
I risultati degli studi epidemiologici sulla coorte di Longarina sono di particolare interesse in quanto relativi
a patologie diverse dalla leucemia infantile e per le quali la IARC prima e il WHO dopo hanno definito
l’evidenza di associazione con esposizione a campi magnetici a 50 Hz “inadeguata”.
Future indagini in contesti simili, su popolazioni altamente esposte potranno fornire utili elementi per
individuare le priorità di risanamento ambientale, in termini di sanità pubblica. Inoltre, un’analisi pooled
delle stime, permetterebbe una maggiore confidenza nei risultati e un avanzamento nelle conoscenze del
possibile impatto sulla salute dell’esposizione a campi magnetici a 50 Hz.
BIBLIOGRAFIA
1. Ahlbom A, Day N, Feychting M, et al. 2000. A pooled analysis of magnetic fields and childhood
leukemia. Br J Cancer ;83:692-8
2. Andreuccetti D. 2002. Campi. Un programma per il calcolo del campo elettrico e dell’induzione
magnetica generati da linee elettriche. Versione 4.1. Istituto di Fisica Applicata «Nello Carrara», CNR,
Firenze, maggio 2002.
3. Anversa A, Battisti S, Carreri V, et al. 1995.Power frequency fields, buildings and the general public:
exposure levels and risk assessment. In: M.Maroni, editor. Proceedings of the International Conference
“Healthy Buildings ‘95”. Milano;1995. p. 113-126.
4. Blettner, M., Sauerbrei, W., Schlehofer, B. et al.1999. Traditional Review, Meta-analyses and Pooled
Analyses in Epidemiology. Int. J. Epidemiol.; 28:1-9
5. Bruno C, Vanacore N, Del Giudice I. et al. 2011. A cross sectional investigation on the health status in a
population exposed to 50 Hz magnetic fields in a district of Rome: haematological and immunological
parameters. 2011. 23th Congress of the International Society fro Environmental Epidemiology. 13-16th
Sept. 2011. Abstract Book.
6. Comba P, Fazzo L. 2009. Health effects of magnetic fields generated from power lines: new clues for
an old puzzle. Ann Ist Super Sanità; 45, (3): 233-237
7. Fazzo L, Comba P. 2004. Il ruolo dei gruppi ad alto rischio nello studio delle relazioni tra ambiente e
salute. Ann Ist Super Sanità;40(4):417-426
8. Fazzo L, Grignoli M, Iavarone I, et al. 2005. Studio preliminare di mortalità per causa di una popolazione
con esposizione residenziale a campi magnetici a 50 Hz, in un quartiere del comune di Roma. Epid
Prev; 29:243-52.
9. Fazzo L, Tancioni V, Polichetti A, et al. 2009. Morbidity experience in populations residentially exposed
to 50 Hz magnetic fields: methodology and preliminary findings of a cohort study. Int J Occup Environ
Health; 15:133-42.
10. Fazzo L, Puglisi F, Pellegrino A. et al. 2010. Studio di mortalità e morbosità di una coorte di residenti
in prossimità dell’area industriale di Milazzo, nel Comune di Pace del Mela (Messina). Epidemiol Prev;
34(3): 80-86
11. Greenland S, Sheppard AR, Kaune WT, et al. 2000. A pooled analysis of magnetic fields, wire codes,
and childhood leukemia. Epidemiol;11:624-34
12. International Agency for Research on Cancer (IARC). 2002. IARC Monographs on the Evaluation of
Carcinogenic Risks to Humans. Non-ionizing radiation, part 1: static and extremely low-frequency
(ELF) electric and magnetic fields. IARC, Lyon, 2002. Vol. 80.
13. International Commission on Non-Ionizing Radiation Protection (ICNIRP). 2003. Exposure to Static
and Low Frequency Electromagnetic Fields, Biological Effects and Health Consequences (0-100 kHz).
ICNIRP, Munich, 2003.
14. Petrini C, Polichetti A, Vecchia P, Lagorio S. 2001. Assessment of exposure to 50 Hz magnetic fields
from power lines in Italy. In: M. Hietanen, K. Jokela, J. Juutilainen, editors. Proceedings of EBEA 2001.
5th International Congress of the European BioEle
15. Terracini B, Segnan N. 1977. Identificazione dei gruppi ad alto rischio. Epidemiol Prev;0:17-23.
16. Vanacore N, Benedetti M, Conte D, et al.2001. Approccio metodologico multidisciplinare allo studio
degli effetti neurocomportamentali associati all’esposizione ai campi magnetici a 50 Hz. Rapporti
ISTISAN 04/01, http://www.iss.it/publ/rapp/2001/0401.pdf
17. World Health Organization (WHO). 2007. Extremely low frequency fields. Environmental Health Criteria,
Vol. 238. WHO, Geneva, 2007.
150
Articoli
Circuito d’Interconfronto ISPRA IC015
Misure selettive di campi elettromagnetici ad alta frequenza:
Analisi dei fattori d’influenza attraverso l’elaborazione statistica
dei risultati
Ardoino L.1, Barbieri E.1, Barbizzi S.1, Anglesio L.2, d’Amore G.2, Silvi A.M.3
1
2
3
ISPRA - Servizio di Metrologia Ambientale – via Vitaliano Brancati, 48 – Roma
Arpa Piemonte, Dipartimento Tematico Radiazioni, Via Jervis 30, Ivrea (TO)
ARPA Toscana – Dip. provinciale di Pisa, via V. Veneto, 27 - Pisa
RIASSUNTO
L’interconfronto ISPRA IC015, organizzato da ISPRA in collaborazione con ARPA Piemonte, è stato pianificato
e attuato cercando di coniugare i “dettami” degli Standard sui Proficiency testing e sugli interconfronti (ISO
Guide 43-1, 17043, etc), con le problematiche e le specificità delle misure radioprotezionistiche di campi
elettromagnetici.
L’interconfronto ha riguardato la misura ambientale del campo elettromagnetico prodotto da sorgenti di
trasmissioni e telecomunicazioni.e si è focalizzato, in particolare, sulla misura del campo elettrico associato
a segnali GSM, UMTS e FM, in due distinti siti nella provincia di Torino; il protocollo richiedeva di fornire,
come risultati, il valore dei singoli contributi in frequenza di alcune portanti delle tipologie suddette, anziché
il valore del campo elettrico totale come normalmente viene fatto quando si effettuano misure in campo per
verifiche di conformità. Ai partecipanti, 25 laboratori provinciali e un laboratorio straniero, è stato chiesto di
utilizzare le proprie procedure consolidate fornendo il dettaglio delle impostazioni (parametri di acquisizione)
degli strumenti.
Questo lavoro consiste nell’analisi dei risultati delle misure del Circuito d’Interconfronto ISPRA IC015
combinati con le informazioni sui parametri di acquisizione utilizzati e forniti dai partecipanti.
INTRODUZIONE
Nell’ambito delle misure ambientali di campi elettromagnetici, le procedure di misura sono, ad oggi,
abbastanza uniformate tramite le Norme Tecniche CEI 211-7 e CEI 211-10 App H per le trasmissioni
radiotelevisive e le telecomunicazioni (alte frequenze) e la CEI 211-6 per la frequenza di rete (ELF). Come
è noto, però, le procedure definite nelle suddette norme lasciano una certa arbitrarietà nell’impostazione
dei parametri di misura, la cui scelta, alle alte frequenze soprattutto, è demandata a chi effettua la misura
in campo e può influire sul risultato stesso della misura.
Alle alte frequenze, infatti, il campo totale è generalmente dovuto all’insieme dei contributi del campo
emesso da sorgenti diverse e associato a segnali (prevalentemente trasmissioni radiotelevisive e
telecomunicazioni) che differiscono per frequenza, modulazione, ampiezza. Ne consegue che la sola
misura del campo elettrico totale (banda larga), non fornisce adeguate informazioni sul sito e sulle sorgenti
ed in particolare, qualora il sito risulti non conforme (superamento del livello di esposizione o del valore di
attenzione secondo il DPCM 8/07/2003), si rende necessario il ricorso a misure selettive che permettano
l’identificazione di tutti i singoli contributi, effettuate con una catena strumentale costituita da un’antenna
selettiva, un cavo schermato lungo e un analizzatore di spettro.
Queste misure presentano degli elementi di complessità legati principalmente alle impostazioni dei parametri
di acquisizione (e alla taratura degli strumenti) e degli elementi di criticità dovuti, invece, soprattutto, alla
variabilità temporale intrinseca ai segnali stessi e alla variabilità spaziale dei livelli di campo legata alle
caratteristiche delle sorgenti.
Le procedure definite nelle Norme Tecniche hanno solo parzialmente fornito una soluzione a questi elementi
di complessità e criticità fornendo indicazioni sulla taratura degli strumenti, sul posizionamento dei sensori
e sui tempi di acquisizione e sull’impostazione di alcuni parametri di acquisizione del segnale (modalità,
span e filtri dell’analizzatore di spettro), lasciando però, come innanzi detto, una certa arbitrarietà nella
151
scelta di diversi fattori.
Valutazioni specifiche dell’influenza di questi fattori sono state effettuate in laboratorio e in condizioni
controllate (Barellini et al., 2006), ma raramente è stato possibile effettuare valutazioni statistiche a causa
della mancanza di campioni adeguati.
L’insieme dei risultati delle misure dei partecipanti all’interconfronto IC015 e delle informazioni sulle
impostazioni usate da ciascuno, ha consentito di effettuare proprio questo tipo di valutazioni.
Lo scopo di queste valutazioni è quello di verificare la significatività delle variazioni all’interno di un
campione, dovute all’influenza di questi fattori.
E’ chiaro comunque, in questo caso, che affinché il campione in questione fosse idoneo a un’analisi
di questo tipo, è stato necessario tenere attentamente sotto controllo le criticità dovute alla variabilità
temporale e spaziale dei segnali misurati, che è stato fatto attraverso un’accurata caratterizzazione del sito
e la scelta di aree aventi un buon grado di omogeneità spaziale dei livelli di campo.
L’obiettivo più ampio di questo lavoro è quello di stimolare la revisione delle attuali Norme Tecniche
(2001) rendendole più adeguate ai segnali oggi maggiormente diffusi, tenendo conto dell’evoluzione della
strumentazione disponibile, e introducendo indicazioni più specifiche sulle impostazioni dei parametri di
misura in modo da rendere confrontabili i risultati delle stesse.
MATERIALI E METODI
Il lavoro si basa sull’analisi dei risultati delle misure del Circuito d’Interconfronto ISPRA IC015 combinati con
le informazioni sui parametri di acquisizione utilizzati e forniti dai partecipanti congiuntamente ai risultati
stessi.
Organizzazione del circuito d’interconfronto ISPRA IC015
Lo svolgimento del Circuito d’Interconfronto ISPRA IC015 si è articolato nelle seguenti fasi:
• raccolta delle adesioni sulla base di un protocollo preliminare contenente informazioni sul target (tipo
di misura e grandezze), località e date; al contempo si sono raccolte informazioni sulle dotazioni strumentali e sulle procedure usate dai partecipanti;
• caratterizzazione dei siti individuati (valutazione della tipologia di campi elettromagnetici presenti in
termini di frequenza, modulazione, intensità, stabilità temporale) con particolare attenzione ai livelli di
omogeneità spaziale; stesura e invio del protocollo definitivo,
• raccolta e taratura degli strumenti, organizzazione del supporto logistico, invio degli schemi per posizioni e turni,
• misure in campo dei partecipanti,
• assegnazione di un codice identificativo ad ogni partecipante (i dati sono trattati in maniera assolutamente anonima),
• raccolta dei risultati e analisi dei dati secondo le ISO Guide 43-1 e ISO 13528.
L’interconfronto ha avuto come oggetto misure selettive di campo elettrico associato a segnali GSM,
UMTS e FM ed è stato articolato in due giornate, in due siti distinti: in prossimità di una stazione radiobase
Vodafone sul terrazzo di un parcheggio in area urbana e in prossimità di un complesso di trasmittenti
radiotelevisive alla sommità di una collina residenziale.
Come risultati sono stati richiesti i contributi di campo elettrico ad alcune frequenze nelle bande suddette. I
campioni oggetto di questa analisi, pertanto, sono costituiti dai valori forniti dai partecipanti alla medesima
frequenza, nell’ambito di una misura. Il valore assegnato per ciascuna frequenza/campione è stato
determinato come valore di consenso ottenuto mediante la statistica robusta. Anche lo scarto tipo e
l’incertezza attribuita al valore assegnato sono quelli ottenuti dalla statistica robusta (ISO 13528:2005 –
Appendice C, Algoritmo A).
All’interconfronto hanno partecipato 27 dipartimenti provinciali (incluso un partecipante estero); tutti hanno
fornito i risultati e le informazioni richieste; due partecipanti, però, hanno contribuito ad una sola delle
giornate di misura.
Per la raccolta dei risultati delle misure è stato creato un format protetto in Excel in cui i partecipanti, oltre ai
risultati, hanno riportato i dati di orario e posizione della misura, e, per ogni banda, le modalità e i parametri
utilizzati per l’acquisizione del segnale.
L’analisi dei risultati dei partecipanti, finalizzata alla valutazione dell’accettabilità attraverso l’assegnazione
152
di z-scores, è stata preceduta da un’accurata fase di verifica dell’attendibilità dei dati (procedura di
Validazione) e seguita da un’approfondita fase di valutazioni del tipo suddetto.
La validazione dei dati forniti dai partecipanti, necessaria per la scelta del valore di consenso come valore
di riferimento, si è basata principalmente sul confronto qualitativo coi dati di caratterizzazione dei siti, sul
confronto fra i dati dei diversi partecipanti che hanno effettuato le misure nello stesso punto e nello stesso
intervallo di tempo e, per ogni partecipante, sul confronto coi dati preliminari riportati sulle schede cartacee
e nelle relazioni tecniche.
In questo tipo d’interconfronti la scelta del valore di consenso come valore assegnato è pressoché
obbligata, a meno di non poter effettuare un elevato numero di misure e monitoraggi e di non intervenire sulla
sorgente. Inoltre, un valore assegnato ottenuto con un metodo diverso dal valore di consenso richiederebbe
la definizione di una procedura di misura che tenga conto della riferibilità metrologica e garantisca
un’incertezza ampiamente inferiore a quella ammessa dalla Norma Tecnica. Ciò comporterebbe poi
l’imposizione, ai partecipanti, degli stessi parametri di acquisizione utilizzati per la determinazione del valore
assegnato, venendo meno, quindi, l’intento di lasciare che ognuno utilizzi le proprie procedure consolidate
e obbligandoli a effettuare le misure con una procedura diversa da quella usata abitualmente.
Nel sito 1, dalle misure di caratterizzazione sono state identificate due aree distinte per livelli di campo
elettrico in cui sono stati definiti 15 punti di misura totali: 9 nell’area avente il livello più elevato (EBCCH_
≈ 2 ± 0,25 V/m) e 6 in quella al livello più basso (EBCCH_Vodafone_952 ≈ 1,2 ± 0,08 V/m). Per la misura
Vodafone_952
del segnale UMTS, invece, è stato necessario effettuare delle misure aggiuntive per determinare un fattore
di pesatura da utilizzarsi per rendere i risultati delle misure dei partecipanti indipendenti dalla posizione.
Nel sito 2, nonostante l’elevata omogeneità spaziale di E, sono stati fissati solo quattro punti di misura
(effettuando quindi sette turni per un totale di circa 8 ore) data la necessità di impiegare i laboratori
schermati per garantire l’immunità degli strumenti (normalmente garantita fino a 10 V/m), essendo, nei
punti selezionati, E>12 V/m.
Elaborazione dei dati
Per entrambi i siti i dati sono stati organizzati e analizzati “per frequenza”.
Sono stati elaborati prima i dati del sito 2 (emittenti FM) in quanto tutti i partecipanti hanno fornito il contributo
di 7 specifiche frequenze richieste: sono stati creati 8 insiemi di dati (campioni) di ugual numero di elementi
(le 7 frequenze richieste più un campione con la somma dei contributi come rappresentativo del contributo
al campo totale della banda FM).
Per quanto riguarda il sito 1, ove ogni partecipante ha effettuato due misure in due aree distinte (per livello
di campo) e vi sono state misurate le due tipologie di segnale GSM e UMTS, l’elaborazione dei dati è stata
più articolata e complessa. Inoltre, a differenza del sito 2, non sono stati richiesti i contributi a specifiche
frequenze ma solo di identificare le portanti BCCH fra tutte le frequenze rilevate da ciascun partecipante.
Per il segnale GSM, per ciascuna delle due misure, sono state identificate tutte le frequenze misurate da
un numero congruo di partecipanti, fissato arbitrariamente in 8. Si sono ottenuti 14 campioni per ciascuna
delle due misure. Le frequenze sono quasi tutte le stesse.
Per l’elaborazione dei risultati delle misure del segnale UMTS è stato necessario “manipolare” ripetutamente
i dati riportando, innanzitutto, tutti i risultati sotto forma di misura Channel Power (alcuni partecipanti avevano
fornito la sola misura del canale_pilota e/o il valore estrapolato); si è dovuto poi effettuare un’operazione di
“pesatura”, in funzione della posizione, dei risultati delle due misure ed infine la media delle due, ottenendo
così un unico risultato per partecipante. Alle frequenze dell’UMTS, nell’area delle misure, il grado di
uniformità spaziale del campo elettrico non era sufficiente a classificare direttamente i campioni in uno o
due gruppi ed è stato necessario utilizzare il fattore di pesatura ottenuto dalle misure di caratterizzazione.
L’elaborazione statistica dei dati è stata effettuata mediante l’utilizzo di Excel mentre, per alcuni test statistici
è stato utilizzato il programma free Dataplot.
In generale, ogni campione è stato sottoposto a:
test di Huber e Normal Probability Plot, per individuare eventuali outliers e per verificare la normalità delle
distribuzioni dei dati, requisito essenziale per i test effettuati,
test statistici a una via (test della mediana e t-Student per dati disaccoppiato) e ANOVA a più fattori per la
verifica delle ipotesi di influenza,
applicazione del metodo della statistica robusta (Algoritmo A) per la determinazione del valore di consenso
come media robusta con scarto tipo robusto e incertezza.
Valutazione dell’accettabilità dei risultati prodotti fatta mediante z-scores.
Il riepilogo dei test effettuati con i relativi risultati è riportato nelle seguenti Tabelle 1 (dati GSM) e 2 (dati FM).
153
Tabella 1 | Riepilogo dei Test effettuati su alcuni campioni della mis1 (segnale GSM)
TCH
SDCCH
TCH
BCCH
BCCH
BCCH
SDCCH
947,2
948,2
948,8
951,4
952,0
952,8
953,8
Media robusta
1,90
1,68
1,77
0,15
2,13
0,14
2,25
Incertezza (95%)
0,28
0,30
0,22
0,02
0,22
0,02
0,16
21
21
21
17
25
19
21
Outliers (Test Huber)
0
0
2
1
1
0
5 (*)
Distribuzione (NPPlot)
Norm
Norm
Norm
Norm
Norm
Norm
Norm
Differenza livelli E
per Aree di misura (*2)
signif
signif
signif
signif
signif
signif
signif
Non signif
Non signif
Non signif
-
Non signif
-
Non signif
Fattore: Modalità
acquisizione, Avg vs
MaxHold [t-Student]
signif
signif
signif
signif
-
Non signif
Non signif
Non signif
Non signif
-
Fattore: filtro VBW (solo
su dati Avg) [t-Student]
signif
Fattori: RBW, VBW e
Modalità [ANOVA]
signif
signif
signif
Non signif
Non signif
Non signif
Non
applic
Portanti
Numero campioni totali
Test
Differenza livelli E
fra turni (*3)
(*2)
(*3)
la differenza riguarda solo l’AREA di mis1 (E=2,13 ± 0,22 V/m) confrontata con quella di mis2 (E=1,52 ± 0,18
V/m), non le posizioni all’interno della stessa area.
la valutazione è fatta solo fra i turni “completi”, ovvero quelli in cui tutte le postazioni erano occupate.
Tabella 2 | Riepilogo dei Test effettuati sui dati delle emittenti FM (sito2)
Portanti
89,7
91,3
93,9
94,4
96,4
98,5
101
Media robusta
1,83
1,24
3,09
8,09
1,89
0,66
1,65
Incertezza (95%)
0,19
0,18
0,39
0,99
0,16
0,08
0,13
25
25
25
25
25
25
25
Numero campioni totali
Test
Outliers (Test Huber)
0
0
0
0
1
0
1
Distribuzione (NPPlot)
Norm
Norm
Norm
Norm
Norm
Norm
Norm
Differenza livelli E
fra turni, (1-4 vs 5-7)
[t-Student]
Non Sign
Non Sign
Non Sign
Non Sign
Non Sign
Non Sign
Non Sign
Fattore: antenna
(isotropa vs
monoassiale) [t-Student]
Non Sign
Non Sign
Non Sign
Non Sign
Non Sign
Non Sign
Non Sign
Fattore: Modalità
acquisizione, Avg vs
MaxHold [t-Student]
Non applicabile
Fattore: detector (RMS
vs Peak) [t-Student]
Non applicabile
Prima di introdurre l’analisi vera e propria dei (possibili) fattori d’influenza, riportiamo alcuni grafici dei
risultati dei partecipanti rapportati al valore di consenso e all’incertezza attribuitagli (statistica), che sono
stati utilizzati per la determinazione degli z-scores e la valutazione dell’accettabilità. L’osservazione di questi
grafici accompagnata ad un rapido commento può essere utili anche ai fini di una migliore comprensione
della successiva analisi.
154
Figura 1 | Valori dei partecipanti, rapportati al valore di consenso, per alcune portanti GSM.
I due grafici in alto mostrano le distribuzioni ordinate dei valori dei partecipanti rapportati al valore di
consenso, per due portanti traffico della mis_1 (del settore corrispondente all’area di misura); i due grafici
in basso, invece, mostrano le distribuzioni dei valori per le BCCH (952,0 MHz) di entrambe le misure.
Gli asterischi che affiancano i codici in ascisse indicano i risultati ottenuti utilizzando la modalità Avg. La
presenza di questi ultimi fortemente concentrata verso i valori più bassi nelle portanti TCH rappresenta,
già di per sé, un’evidenza dell’influenza del fattore modalità (Avg/MaxHold) limitatamente, però, al caso
di segnali altamente variabili, dato che tale “concentrazione” si annulla completamente nella misura delle
portanti BCCH (molto più stabili). In realtà, osservando attentamente i dati delle portanti TCH, questa
“sottoclasse” (tratteggio rosso) sembra essere affetta anche da un altro fattore di differenziazione che
viene approfondito, per quanto possibile, in seno all’analisi successiva. Questa distribuzione dei valori si
ritrova per tutte le portanti traffico di entrambe le misure.
RISULTATI E CONCLUSIONI
Misura del segnale GSM
In un primo momento, il test t di Student è stato utilizzato sui risultati (un campione per ogni area) delle
misure di caratterizzazione per verificare le ipotesi di: - esistenza di due aree distinte per livello di campo,
- omogeneità dei valori all’interno di ciascuna area.
Lo stesso criterio è stato poi applicato su diversi campioni di dati dei partecipanti confermando l’ipotesi
delle due aree distinte, ciascuna con un buon livello di omogeneità spaziale. Il test è stato applicato su due
campioni della medesima frequenza (per esempio, BCCH_mis1 e BCCH_mis2)1 fornendo un p<0,012, e
poi su sottoclassi, create in base alle posizioni, all’interno di ciascuna campione (p>0,12, differenze non
significative).
La verifica delle due suddette ipotesi sui dati dei partecipanti si è resa necessaria a causa della dispersione
1
Il campione di dati alla FREQ_misX (X=1,2), rappresenta l’insieme dei risultati delle misure di tutti i partecipanti in
tutti i punti dell’area X.
2
valore p. E’ una stima della probabilità che un certo risultato, o uno ancora più estremo, si sia verificato per caso,
in caso di validità dell’ipotesi nulla. Un valore piccolo di p significa che l’ipotesi nulla è difficile da sostenere e che
l’effetto misurato è significativo. Piccolo significa usualmente <0.05 o, con la condizione più restrittiva <0.01.
155
dei dati che presentavano (per ciascuna frequenza), una Deviazione Standard maggiore di quella del
campione delle misure di caratterizzazione rendendo, quindi, meno evidente la differenza tra i due livelli
medi. Considerato che il campione di dimensioni maggiori è costituito da 25 elementi, queste valutazioni
hanno indotto a verificare che tali numerosità3 fossero sufficienti a rilevare le differenze in gioco. La verifica
della numerosità dei campioni, fatta sotto le ipotesi di un livello di significatività di 0,05 per rilevare variazioni
entro il 15-20% (potenza 0,8), ha confermato l’adeguatezza di parte dei campioni.
In realtà, comunque, sono stati presi in considerazione solo alcuni dei campioni, scelti sulla base delle
caratteristiche di stabilità/variabilità del segnale (TCH e BCCH appunto), del livello medio misurato e del
numero di elementi del campione, corrispondente al fatto che tutti o quasi i partecipanti hanno fornito il
dato a quella frequenza. In particolare sono stati considerati i campioni di quattro portanti traffico e della
BCCH del settore che puntava sull’area delle misure e delle altre due BCCH. Il sommario dei test effettuati
è riportato in Tabella 1.
Come fattori4 d’influenza sono stati considerati, in generale: la tipologia dell’antenna (monoassiale o
isotropa), la modalità di misura (Averaging vs MaxHold), i filtri RBW e VBW.
Lo studio della dipendenza dal tipo di rivelatore (detector RMS o PEAK), è stato escluso in quanto è
risultato strettamente collegato alla modalità di misura. Infatti i partecipanti hanno utilizzato per tutte le
misure in modalità Avg il detector RMS, mentre per quelle in modalità MaxHold, il detector PEAK.
Lo SPAN e lo sweep-time non sono stati considerati in quanto, a differenza dei filtri, la moltitudine di valori
utilizzati dai partecipanti non avrebbe permesso di ricondurli a fattori a due o tre livelli.
Tutti i fattori sono stati considerati variabili qualitative.
Per quanto riguarda la tipologia dell’antenna, isotrope o monoassiali (fattore a due livelli), l’effetto è stato
valutato attraverso il test t-Student su diversi campioni, risultando sempre non significativo (p>0,1).
Lo stesso test è stato utilizzato per la valutazione del solo effetto della modalità di acquisizione, confermando
le ipotesi formulate in base ai grafici precedentemente commentati: il “fattore modalità” influenza fortemente
la misura delle TCH (p<0,01) ma non la misura delle BCCH (p>0,3).
Per valutare, invece, l’effetto dei diversi filtri RBW e VBW in possibile relazione con la modalità di acquisizione,
si è ricorsi ad una ANOVA a tre fattori. Anche qui i fattori di studio, filtri (fattori a tre livelli) e modalità, sono
trattati come variabili qualitative e codificati, mentre la variabile risposta (il file dei risultati delle misure dei
partecipanti), è una variabile quantitativa.
Nelle Tabelle seguenti è mostrato il trattamento dei dati (“disegno dello studio”) e il risultato fornito
dall’ANOVA (F test) nel caso in cui la variabile risposta è costituita dal campione della BCCH e nel caso di
una delle TCH: nel primo caso non vi è alcuna evidenza di significatività, ma i filtri (Fattori 1 e 2) mostrano
di avere un peso maggiore rispetto alla modalità (Fattore 3), mentre, nel secondo caso viene confermata
la significatività della modalità.
Tabella 3-4 | Tavole del disegno dello studio: a sinistra la codifica delle variabili (fattori di studio), a destra la distribuzione dei livelli.
RBW
codifica RBW
VBW
30 kHz
100 kHz
300 kHz
1
2
3
Livelli
Fattori
RBW
VBW
Avg/MaxH
30 kHz
100 kHz
3000 kHz
1
2
3
4
codifica VBW
1
2
4
2
20
19
20
Avg/MaxHold
Avg
MaxHold
3
2
-
1
2
4
-
2
codifica Avg/MH
3
Si è utilizzato la relazione approssimata
con
, corrispondente a un errore del
tipo I del 5% e
, corrispondente ad una sensibilità dell’80%. A seconda dei valori di σ e Δ (cioè dei
campioni) si ottengono N tra 15 e 22.
4
Fattore: variabile utilizzata per differenziare un gruppo della popolazione (o del campione) da un altro
Livello: uno dei possibili valori (o stati, o determinazioni) che il fattore può assumere
Variabile Risposta: variabile quantitativa oggetto dello studio.
156
Tabella 5 | Risultati dell’ANOVA per due variabili risposta: una misura BCCH e una delle TCH.
ANOVA Table
BCCH 952 MHz
Source
DF
Total (corrected)
23
Factor 1
Factor 2
Factor 3
Estimation
Factor 1
Factor 2
Factor 3
F Statistic
F CDF
2
3,0102
92,55%
2
2,5409
89,33%
Signif
1
0,7163
59,15%
Level-ID
NI
Mean
Effect
SD(Effect)
1
2
2,80999
0,78874
0,40964
2
20
1,8875
-0,13374
0,05523
3
2
2,57
0,54875
0,40964
1
3
2,56
0,53875
0,32678
2
19
1,87842
-0,14282
0,06336
4
2
2,57
0,54875
0,40964
1
4
1,7875
-0,23374
0,27618
2
20
2,068
0,04675
0,05523
F Statistic
F CDF
Signif
ANOVA Table
TCH 947,2 MHz
Source
DF
Total (corrected)
20
Factor 1
2
1,3592
71,33%
Factor 2
2
1,5061
74,65%
Factor 3
1
8,7153
99,01%
**
NI
Mean
Effect
SD(Effect)
Estimation
Factor 1
Factor 2
Factor 3
Level-ID
1
2
2,39999
0,67333
0,62502
2
17
1,74705
0,02039
0,09836
3
2
0,88
-0,84666
0,62502
1
3
2,35
0,62333
0,49672
2
16
1,71562
-0,01104
0,11336
4
2
0,88
-0,84666
0,62502
1
4
0,4925
-1,23416
0,41805
2
17
2,01705
0,29039
0,09836
Misura del segnale UMTS
L’esistenza di un unico campione di dati, dovuto all’operazione di pesatura e media delle due misure, non
ha consentito alcun tipo di analisi. La presenza di solo quattro elementi con impostazioni diverse (modalità)
rende il campione “fortemente sbilanciato” nell’unico fattore d’influenza individuabile.
Misura del segnale FM
A parte i test finalizzati a verificare l’omogeneità spaziale e la stabilità del segnale della sorgente, non
è stato possibile effettuare test per valutare l’influenza dei parametri in quanto quasi tutti i partecipanti
utilizzano le stesse impostazioni.
In generale, i risultati delle valutazioni e dei test effettuati sui dati dell’IC015 hanno prevedibilmente
confermato l’influenza di alcuni fattori limitatamente ad alcuni casi, confermando, quindi, solo in parte,
i risultati ottenuti in condizioni controllate e ribadendo la necessità di fornire, a livello di norme tecniche,
indicazioni più specifiche.
RINGRAZIAMENTI
Gli autori desiderano ringraziare lo staff tecnico del Dipartimento Tematico Radiazioni (Ivrea) di Arpa
Piemonte per il considerevole contributo dato alla realizzazione di questo lavoro e, più in generale, alla
buona riuscita del Circuito d’Interconfronto, per l’accurata caratterizzazione dei siti, per il supporto logistico
157
durante le giornate di misura, per la taratura degli strumenti e per i suggerimenti all’analisi e alla stesura
di questo lavoro. Si ringrazia in particolare: Sara Adda, Mauro Mantovan, Massimiliano Polesel, Stefano
Trinchero, Alberto Benedetto, Massimiliano Alviano, Giuseppe Tagliaro.
BIBLIOGRAFIA
1. Barellini A, Bogi L, Licitra G, Silvi AM, “Dipendenza delle misure di segnali GSM dai parametri
d’impostazione dell’Analizzatore di Spettro Digitale”, Atti del Terzo Convegno Nazionale ‘Controllo
ambientale degli agenti fisici: dal monitoraggio alle azioni di risanamento e bonifica’, Biella, 7-9 giugno
2006.
2. Norma Italiana CEI 211-7 “Guida per la misura e per la valutazione dei campi elettromagnetici
nell’intervallo di frequenza 10 kHz - 300 Ghz, con riferimento all’esposizione umana”, 2001.
3. Norma Italiana CEI 211-10;V1 “Guida alla realizzazione di una Stazione Radio Base per rispettare i
limiti di esposizione ai campi elettromagnetici in alta frequenza Appendice H: Metodologie di misura
per segnali UMTS”, 2004.
4. ISO/IEC Guide 43-1 Proficiency testing by interlaboratory comparison – Part 1: Development and
operation of proficiency testing schemes.
5. ISO 13528:2005(E): “Statistical methods for use in proficiency testing by interlaboratory
comparisons”.
6. ISO/IEC 17043:2010: “Conformity assessment -- General requirements for proficiency testing”
7. Orazio Rossi “Metodi statistici multivariati per l’analisi di dati ecologici ed ambientali”. (2009) Uni.Nova
Editore.
158
Articoli
Misure mediante dosimetria a polisolfone per la quantificazione
dell’esposizione individuale alla radiazione solare ultravioletta
Casale1 G. R., Siani1 A. M., Modesti1 S., Diémoz2 H., Agnesod2 G., Colosimo3 A.
Sapienza Università di Roma, Dipartimento di Fisica, Piazzale Aldo Moro 5, 00185 Roma, giuseppe.
[email protected]
2
Arpa Valle d’Aosta, Loc. Grande Charrière 44, 11020 Saint-Christophe (AO)
[email protected]
3
Sapienza Università di Roma, Dipartimento di Scienze Anatomiche, Istologiche, Medico Legali e
dell’Apparato Locomotore (SAIMLAL) Piazzale Aldo Moro 5, 00185 Roma
[email protected]
1
RIASSUNTO
Vengono presentati sinteticamente alcuni risultati di ricerche condotte a partire dal 2005 dal gruppo di
ricerca di Sapienza Università di Roma ed Arpa Valle d’Aosta sulla quantificazione dell’esposizione personale
alla radiazione solare ultravioletta mediante dosimetria a polisolfone. Dai nostri risultati si conclude che la
dosimetria a polisolfone, combinata all’utilizzo dell’indice ultravioletto UVI, può fornire un valido aiuto per una
valutazione più realistica del rischio da esposizione solare.
INTRODUZIONE
La radiazione solare ultravioletta (RSUV) ha profondamente influenzato l’evoluzione della vita sulla Terra. I
cambiamenti nello stile di vita verificatisi nell’ultimo secolo ed il massiccio aumento dei flussi migratori tra
nord e sud del mondo hanno prodotto importanti variazioni dell’esposizione alla RSUV di alcune categorie
di persone rispetto al passato Oltre a ciò, l’aumento di temperatura attribuito ai cambiamenti climatici
potrebbe indurre le popolazioni che vivono alle medie latitudini a spendere più tempo all’aperto e quindi
al sole (Diffey, 2004).
Le aree del corpo maggiormente esposte alla RSUV sono la pelle e l’occhio. Per la pelle, l’effetto
deterministico più noto, risultante da un’eccessiva esposizione, è l’insorgenza di eritemi soprattutto nei
fototipi chiari (Lucas et al., 2006). Esistono numerosi altri effetti a carico della pelle, spesso di natura
stocastica e su scale temporali diverse, fra cui alcune neoplasie. Esse comprendono il melanoma cutaneo
maligno (CMM) e altri tipi di cancri della pelle non melanomi (NMSC), fra cui i carcinomi a cellule squamose
(SCC), che contribuiscono per circa il 20%, ed il carcinoma a cellule basali (BCC), per il restante 80%. Nel
2006 il WHO (World Health Organization) ha pubblicato una stima di 56.000 morti all’anno in tutto il mondo
dovuti all’esposizione solare ultravioletta, con 100.000 nuovi casi all’anno (Lucas et al., 2006). Per l’Italia
si stimano circa 7000 nuovi casi all’anno (www.epicentro.iss.it). Nel 2009 l’Agenzia Internazionale per la
Ricerca sul Cancro (IARC) ha riconfermato la radiazione solare nel gruppo 1, “carcinogeno per l’uomo”
(El Ghisassi et al., 2009). Recentemente la IARC ha pubblicato un rapporto aggiornato sulla carcinogenesi
da radiazione UV solare ed artificiale (IARC, 2012) ed una serie di nuovi studi sono stati realizzati per
l’esposizione a carico dell’occhio (Gao et al., 2012).
Un effetto positivo noto dell’esposizione alla RSUV è l’innesco di processi che portano alla produzione di
vitamina D, essenziale per fissare il calcio nelle ossa (Grant and Holick, 2005). La carenza di vitamina D
viene sempre più spesso considerata un co-fattore importante anche per numerose patologie di organi
interni. In alcuni studi si parla addirittura di carenza di vitamina D epidemica (Willis et al., 2012) anche se
non mancano, in proposito, le controversie (Gilaberte et al., 2011).
Gli strumenti di misura della RSUV (da terra o da satellite) forniscono informazioni sulla quantità di
radiazione che raggiunge una superficie unitaria orizzontale nell’unità di tempo (irradianza) e, trattando
opportunamente tale dato mediante la conoscenza dello spettro d’azione eritemale, si giunge alla
formulazione dell’UVI (Ultra Violet Index) (WHO, 2002), comunemente usato come indicatore di rischio
dell’esposizione ed adottato da alcune agenzie di servizio anche in Italia (vedi, ad esempio, www.arpa.
159
vda.it). Tuttavia, la complessità dei fattori ambientali che determinano l’UVI, accoppiata alla difficoltà di
modellare la geometria, la postura e le attitudini degli esseri umani, rendono necessaria la messa a punto
di metodi e di misure finalizzati alla quantificazione dell’esposizione personale, che costituisce il punto
di partenza per ogni considerazione ulteriore sugli effetti biologici della RSUV. Gran parte degli studi di
esposizione personale su gruppi di individui è stata condotta in Australia, dove la comunità scientifica da
tempo si interessa degli effetti dannosi della RSUV (Parisi et al, 2000; Down and Parisi, 2008), ma in anche
in Italia è stata di recente sollecitata più attenzione all’argomento da parte della comunità scientifica (www.
uv-index.it).
Il presente lavoro intende fornire una descrizione dell’impiego di una tecnica nota dalla fine degli anni ‘70
del secolo scorso e che tuttora costituisce il riferimento principale per la dosimetria personale UV. Essa
è basata sul polisolfone (PS), un polimero con risposta spettrale simile a quella eritemale e quella della
vitamina D, le cui caratteristiche di assorbimento nell’UV cambiano in seguito all’esposizione solare (Diffey,
1989).
Gli autori illustrano il proprio contributo all’utilizzo e all’affinamento della dosimetria PS, mostrandone i
principali limiti e vantaggi attraverso alcuni risultati di campagne di dosimetria condotte con gruppi di
volontari sul territorio italiano a partire dal 2005. E’ da notare che alcuni degli autori hanno partecipato alla
valutazione del prototipo di un dosimetro elettronico di nuova generazione (Seckmeyer et al., 2012).
MATERIALI E METODI
I dosimetri PS sono dei sensori chimici basati su speciali pellicole le cui proprietà strutturali si modificano
quando irraggiati con fotoni UV. La variazione di assorbanza del polimero tra prima e dopo l’esposizione
viene misurata in laboratorio a 330 nm (∆A330). Essa può essere utilizzata per stimare la dose di radiazione
UV assorbita dal dosimetro in quanto esiste una relazione monotona fra la dose UV e ∆A330 (Diffey,
1989). Se collocati in specifiche parti del corpo, i dosimetri PS possono essere quindi rappresentativi
dell’esposizione personale.
I dosimetri, a causa della discrepanza tra la loro risposta e quella eritemale o della vitamina D, necessitano
di calibrazione con uno strumento di riferimento in grado di misurare l’irradianza biologicamente efficace.
La calibrazione deve essere eseguita in situ, nelle stesse condizioni di angolo zenitale solare (SZA)
e di contenuto colonnare di ozono (O3) a cui si trovano i soggetti esposti. Per realizzarla, un numero
appropriato di dosimetri (tra 10 e 20) viene posizionato sul piano orizzontale (lastra nera visibile nella
fig.1) ed esposto alla radiazione solare all’inizio della calibrazione. I dosimetri vengono successivamente
prelevati ad intervalli di tempo opportunamente scelti. Ad ogni intervallo di tempo è associata una dose
ambientale pesata con uno spettro di efficacia biologica e misurata da uno strumento ben calibrato (in
fig.1 lo spettrofotometro solare in bianco). La curva di calibrazione si ottiene attraverso una relazione tra la
dose ambientale e la variazione di assorbanza e che ha la forma funzionale di un polinomio di terzo grado
con un coefficiente moltiplicativo c che dipende dallo spessore del dosimetro e dalle condizioni ambientali
locali, principalmente SZA ed O3.
Figura 1 | Esempio di calibrazione con lo spettrofotometro Brewer (Sapienza Università di Roma – Dipartimento di
Fisica)
160
Figura 2 | Esempio di curva di taratura ottenuta presso il Dipartimento di Fisica di Sapienza il 27 maggio 2011
Nel caso della curva di calibrazione mostrata in fig.2 il coefficiente c ottenuto con il metodo dei minimi
quadrati è pari a (1.15±0.01) kJ m-2, con un coefficiente di determinazione pari a 0.996.
La curva di calibrazione può, in casi particolari, essere stimata anche attraverso valori teorici, una volta noti
l’intervallo di angoli zenitali durante il periodo di studio e il contenuto totale di ozono. Un contributo alla
comprensione della curva di calibrazione è stato dato dagli autori (Casale et al., 2006).
Contemporaneamente alla calibrazione, i dosimetri posti su parti del corpo di individui prescelti per lo
studio (che seguono le normali abitudini di lavoro o svago) vengono esposti alla RSUV. Dalla curva di
calibrazione è possibile valutare la dose assorbita dai dosimetri e quindi associare tale dose a quella
ricevuta dalla parte del corpo vicina al dosimetro. Alcune cautele vanno adottate nella trasferibilità della
calibrazione a dosimetri quasi verticali, come dimostrato dagli autori (Casale et al., 2012).
Il rapporto di esposizione ER (Exposure Ratio) è un parametro adimensionale definito come rapporto
tra la dose quantificata attraverso un dosimetro e la corrispondente dose ambientale misurata da uno
strumento (ovvero la massima disponibile). ER è stato adottato dagli autori per sintetizzare i risultati delle
misure sul campo, in quanto fornisce la percentuale della dose ambientale intercettata da una determinata
zona del corpo. Occorre tenere conto del fatto che l’incertezza associata ai valori di ER è stimabile intorno
al 20% e mostra buon accordo con altre tecniche dosimetriche (Casale et al., 2011). La stima del 20%
si ottiene applicando la teoria della propagazione degli errori al rapporto che definisce ER e si trova che
esso è determinato in larga parte dall’incertezza associata al radiometro ambientale ed a quella dello
spettrometro di laboratorio con cui si eseguono le misure di assorbanza. Ad aumentare l’incertezza su ER
possono contribuire, sebbene in misura minore, altri fattori di difficile quantificazione, come ad esempio il
corretto posizionamento di un dosimetro sul corpo di un individuo per tutta la durata dell’esposizione.
ER è meno dipendente dalle condizioni ambientali rispetto alle dosi assolute ma è fortemente correlato alle
abitudini ed alla postura degli individui, risultando quindi molto utile per paragonare fra loro condizioni e
periodi di esposizione differenti (Godar, 2005).
In letteratura, si riscontra che in media l’esposizione del corpo alla radiazione UV è inferiore al 100% e varia
fra il 5 e il 15% della corrispondente dose ambientale, con l’eccezione dei lavoratori all’aperto per i quali ER
può raggiungere il 20-30% (Lucas, 2010). Tuttavia, in casi con elevata albedo nell’UV (ad esempio neve) è
da attendersi che tale valore possa essere facilmente superato.
RISULTATI
Campagne di misura
Nella tab.1 è riportata la tipologia di volontari (colonna 1: Gruppo) selezionati per le campagne di esposizione:
bagnanti (Siani et al., 2009), viticoltori (Siani et al., 2011), sciatori (Siani et al., 2008) ed alunni di una scuola
superiore (durante l’ora di educazione fisica). Per alcuni dati l’elaborazione e l’interpretazione sono tuttora
in corso. Si tratta di gruppi di persone prescelte per il tipo di attività svolta durante il lavoro o il tempo libero
al sole. La colonna 2 riporta la data degli esperimenti, alcuni dei quali si sono svolti su più giorni. In tal caso,
i dati sono opportunamente mediati ed aggregati. La colonna 3 (Sito) indica le coordinate geografiche
161
(latitudine e longitudine) dei siti prescelti per le campagne e l’altitudine. Viene anche riportata la tipologia
del sito ai fini di una corretta interpretazione delle misure in relazione ai parametri ambientali. Fregene è un
sito marino sulla costa laziale a 50 chilometri da Roma; Siena si riferisce all’azienda vitivinicola Agricola S.
Felice nei pressi di Castlenuovo Berardenga (SI); Les Suches e Plateau Rosà sono stazioni sciistiche (la
seconda anche estiva) della Valle d’Aosta, rispettivamente sul confine francese e svizzero; per Roma ci si
riferisce all’Istituto Tecnico Aeronautico De Pinedo nella zona sud della città.
Tabella 1 | Elenco degli esperimenti con volontari (Gruppo) con indicazione della data della campagna di misura e
del sito (I=inverno, P=primavera, E=estate, A=autunno)
Gruppo
Data (gg/mm/aaaa)
Sito (lat, lon, alt) - tipologia
Bagnanti P
27/05/2005
Fregene (41.8°N, 12.2°E, 0 m) - marino
Viticoltori P
20-22/04/2005
Siena (43.3°N, 11.3°E, 300 m) - rurale
Viticoltori E
12-13/07/2005
Siena (43.3°N, 11.3°E, 300 m) - rurale
Viticoltori A
11-12/10/2005
Siena (43.3°N, 11.3°E, 300 m) - rurale
Sciatori P
30/03-04/04/2006
Les Suches (45.7°N, 6.6°E, 2100 m) - alpino
Sciatori I
29-30/01/2007
Les Suches (45.7°N, 6.6°E, 2100 m) - alpino
Sciatori E
12/07/2011
Plateau Rosà (45.9°N, 7.7°E, 3488 m) -alpino
Alunni P1
26-27/05/2011
Roma (41.9°N, 12.5°E, 70 m) - urbano
Alunni P2
21/03/2012
Roma (41.9°N, 12.5°E, 70 m) - urbano
Protocollo
Per ogni studio è stato definito e seguito un protocollo per la raccolta dei dati e delle informazioni aggiuntive,
così da garantire la ripetibilità dell’esperimento. All’inizio di ogni campagna di misura, sono stati registrati
età, sesso e fototipo di ciascuno dei partecipanti (secondo la classificazione di Fitzpatrick et al., 1974, sulla
base dell’osservazione del colore degli occhi, della pelle e dei capelli) e sono state poste domande per
evidenziare specifiche problematiche (ad esempio sulla capacità di abbronzarsi o di scottarsi e sull’utilizzo
abituale di crema protettiva). Al fine di valutare oggettivamente eventuali variazioni del colore della pelle dei
volontari in seguito al’esposizione, è stata inserita nel protocollo l’esecuzione di misure di riflettanza della
cute mediante lo spettrofotocolorimetro Minolta CM2600d-Minolta, Osaka, Japan (si veda ad esempio
Siani et al., 2008). Si tratta di uno strumento in grado di fornire lo spettro di riflessione della pelle tra
400 e 700 nm, da cui ottenere informazioni aggregate mediante i parametri colorimetrici L*a*b* (Siani
et al., 2008; Siani et al., 2009; Siani et al., 2011). Queste misure, presentate in lavori specifici, non fanno
però parte della presente rassegna, che vuole invece evidenziare esclusivamente i risultati dosimetrici.
Ai partecipanti, inoltre, è stato fornito un questionario da compilare durante l’esposizione con domande
relative alle posture, alle soste in luoghi chiusi e all’uso della crema protettiva durante l’esposizione (nel
caso dei viticoltori e degli alunni il questionario è stato compilato dai ricercatori stessi sulla base delle
informazioni ricevute e del controllo visivo).
I volontari hanno indossato un dosimetro nella posizione indicata dalla colonna 2 della tab.2, come mostrato
in fig.3. La scelta della parte di corpo è derivata dal fatto che essa fosse la più rappresentativa della zona
esposta per le categorie scelte per lo studio. Per ogni campagna di misura, è stata ottenuta una curva di
calibrazione contemporaneamente all’esposizione dei volontari, da cui è stato possibile valutare la dose
personale e quindi ricavare ER.
Figura 3 | Posizione dei dosimetri durante le campagne di esposizione descritte in tab.1 e tab.2. Da sinistra a destra:
bagnanti, viticoltori, sciatori ed alunni.
162
Analisi statistica
I valori di ER non seguono una distribuzione normale e sono stati quindi descritti attraverso la mediana,
il valore minimo e il valore massimo (colonna 3 della tab.2). Per ogni esposizione, è stato riportato il
valore massimo di UVI raggiunto e determinato dal radiometro utilizzato per la calibrazione. Poiché molti
esperimenti si sono svolti in condizioni di cielo sereno a cavallo del mezzogiorno locale, il valore di UVI
max riportato in tab.2 corrisponde al massimo UVI del giorno. Per le campagne su più giorni, si è riportato
il massimo assoluto del periodo.
Tabella 2 | Rapporto di esposizione (ER) in relazione alla posizione del dosimetro PS. Per ogni esperimento sono
riportati il massimo indice UV raggiunto (UVI max) e il tempo necessario al danno eritemale per un’esposizione di
1SED (1 SED= 100 Jm-2), assumendo UVI max costante, sia su una superficie orizzontale (tery_amb) sia sulla parte del
corpo esposta (tery_pers)
tery_amb (min) tery_pers (min)
Gruppo
Posizione dosimetro PS
Mediana ER (%) [min,max]
UVI max
Bagnanti P
petto
19 [9, 42]
7.7
8.7
45.6
Viticoltori P
nuca; braccio
72 [53, 87]; 44 [30, 60]
6.1
10.9
24.8
Viticoltori E
nuca; braccio
50 [36, 77]; 29 [19, 43]
8.7
7.7
26.4
Viticoltori A
nuca; braccio
100 [72, 120]; 67 [42, 89]
2.8
23.8
35.5
Sciatori P
fronte
102 [46, 172]
7.5
8.9
8.7
Sciatori I
fronte
60 [29, 146]
2.0
33.3
55.6
Sciatori E
fronte
66 [56, 86]
12.0
5.6
8.4
Alunni P1
fronte
22 [3, 72]
8.3
8.0
36.5
Alunni P2
fronte
12 [4, 49]
4.3
15.5
129.2
DISCUSSIONE
A seconda delle esigenze, le campagne si sono svolte coprendo un ampio intervallo di valori UVI, fino a
raggiungere il massimo di 12.0 a Plateau Rosà nel luglio 2011 al mezzogiorno locale. Tale valore costituisce
un massimo di riferimento per il valore di radiazione UV in Europa alla superficie. I dati di ER, sebbene la
loro incertezza del 20% vada considerata con attenzione in quanto influenzata da fattori non direttamente
controllabili dai ricercatori (come il corretto mantenimento del dosimetro in posizione ed il suo utilizzo da
parte del volontario), confermano una notevole variabilità. Essa è principalmente dovuta al tipo di postura
ed alle attività personali, come si vede dalla forte separazione tra il minimo e il massimo. I valori più
elevati tendono ad essere raggiunti quando il dosimetro è in posizione quasi orizzontale (ad esempio
in corrispondenza della nuca dei viticoltori) ma anche quando il dosimetro, pur essendo in posizione
quasi verticale, si trova in un ambiente con elevata albedo e conseguente radiazione riflessa dal suolo.
La tab.2 mostra infatti come in alcuni casi (ad esempio gli sciatori) si possa anche superare il 100%
della dose disponibile su un piano orizzontale. E’ richiesta però particolare attenzione nel trasferire la
calibrazione orizzontale ai dosimetri collocati ad angoli di incidenza della radiazione solare maggiori di 70°
e in condizioni di albedo elevata (Casale et al., 2012).
Allo scopo di chiarire l’utilizzo di ER, dalla tab.2 è possibile apprendere come un elevato valore del rapporto
di esposizione non necessariamente si traduca in un rischio maggiore. Infatti, le colonne 5 e 6 sono state
ottenute utilizzando una relazione presentata in McKenzie et al. (2009) per determinare il tempo necessario
al manifestarsi dell’eritema, assumendo costante l’UVI massimo e senza fattore di protezione. Per i fototipi
mediterranei, vuol dire chiedersi dopo quanto tempo viene accumulata la dose di 1 SED (Standard Erythemal
Dose pari a 100 J m-2 ) (Diffey et al., 1997). L’ICNIRP (International Commission on Non Ionizing Radiation
Protection) ha infatti fissato la soglia di esposizione occupazionale a 30 Jm-2 per 8 ore di lavoro quando
si usa lo spettro ACGIH (American Conference of Governmental Industrial Hygienists) (ACGIH, 2008), che
combina gli effetti sulla pelle e sull’occhio. Tale limite equivale a circa 1.0-1.3 SED quando si usa lo spettro
eritemale CIE (CIE, 1998). Tuttavia, poiché la pelle mostra una proprietà difensiva di ispessimento dopo
prolungata esposizione, tale da garantire un fattore di protezione di almeno 5, si tende ad assumere che
un valore di 10 SED sia più rappresentativo come soglia per la popolazione mediterranea quando si ragioni
in termini di esposizione prolungata e cumulata (Schmalwieser et al., 2010).
Il calcolo proposto è stato così effettuato sia per una superficie orizzontale (ER=1) sia per una superficie
163
inclinata di cui sia noto ER (in tal caso, è stato utilizzato il valore mediano per il gruppo considerato e la
posizione del braccio per i viticoltori, così da avere ER riferito in tutti i casi a superfici quasi verticali). I
risultati mostrano che il tempo necessario al manifestarsi dell’eritema tende a crescere, anche di molto,
quando si passa dalla dose ambientale (colonna 5: tery_amb) a quella personale (colonna 6: tery_pers),
ad eccezione del caso in cui ER>1 (Sciatori P).
Inoltre, quando l’indice UVI è alto (ad esempio UVI=8.3 per gli Alunni P1), il tempo necessario all’eritema
può essere comparabile a quello calcolato con indice basso ma per posture/attività diverse (ad esempio
UVI=2.8 per i Viticoltori A). La tab.2 mostra altresì come gli sciatori, in condizioni di UVI alto, raggiungano
valori di dose pari ad 1SED in pochi minuti (Sciatori P e Sciatori E). Nel caso degli Alunni P2, invece, i
tempi lunghi per accumulare la dose eritemigena (oltre due ore) inducono ad approfondire il problema
dell’adeguata produzione di vitamina D, per il quale gli stessi dosimetri PS sembrano essere adeguati
indicatori.
CONCLUSIONI
La dosimetria PS è stata usata inizialmente in Gran Bretagna alla fine degli anni settanta del XX secolo
per la misura di dosi artificiali di radiazione UV in pazienti affetti da psoriasi. Successivamente, soprattutto
grazie all’attività dei ricercatori australiani, è stata molto utilizzata per determinare l’esposizione personale
alla radiazione solare ultravioletta. Il gruppo congiunto Sapienza Università di Roma-ARPA Valle d’Aosta
ha ottenuto interessanti risultati sulla quantificazione dell’esposizione alla RSUV della popolazione italiana,
offrendo il proprio contributo alla discussione sull’utilizzo dell’UVI come indicatore del rischio ultravioletto.
Questo studio ha sottolineato che:
• pur essendo auspicabile la realizzazione di un dosimetro elettronico in grado di registrare i tassi dose
e non solo la dose cumulata, la dosimetria PS costituisce tuttora un riferimento importante per gli studi
di esposizione solare ed ha contributo a realizzare un database di confronto utile anche per i prossimi
sviluppi nel settore;
• gli autori hanno apportato alcuni contributi alla dosimetria PS riguardo la necessità di eseguire le calibrazioni in condizioni simili a quelle espositive e le attenzioni da avere nel trasferire la taratura a dosimetri non orizzontali, quando l’angolo di incidenza è superiore a 70° e l’albedo elevata;
• i dati su gruppi di volontari raccolti a partire dal 2005 in Italia mostrano un’elevata variabilità dei risultati
in termini di ER, determinata dalle differenti modalità espositive e dagli eterogenei scenari radiativi che
si possono sperimentare sul territorio nazionale;
• l’indice UVI non è del tutto rappresentativo del rischio di esposizione mentre la sua combinazione con
il rapporto di esposizione consente di ottenere informazioni più realistiche. Questo approccio necessita
però di una maggiore raccolta di dati, supportata anche da modelli di esposizione personale. A causa
delle più scarse informazioni quantitative a riguardo, a maggior ragione è necessario approfondire l’utilizzo del dosimetro PS anche per la valutazione della dose pesata per la produzione di vitamina D.
BIBLIOGRAFIA
1. ACGIH (American Congress of Governmental and Industrial Hygienists) Threshold Limit Values and
Biological Exposure Indices p. 256. ACGIH, Cincinnati, OH (2008)
2. Casale G.R., Borra M., Colosimo A., Colucci M., Militello A., Siani A.M. and Sisto R. Variability among
polysulphone calibration curves Phys. Med. Biol. 51, 4413–4427. (2006)
3. Casale G.R., Siani A.M. and Colosimo A. Occupational exposure to solar UV radiation Household and
Personal Care Today, 4, 14-17 (2011)
4. Casale G.R., Siani A.M., Diemoz H., Kimlin M.G. and Colosimo A. Applicability of the Polysulphone
Horizontal Calibration to Differently Inclined Dosimeters Photochemistry and Photobiology 88: 207–
214 (2012)
5. CIE (Commission Internationale de l’Eclairage) Erythema Reference Action Spectrum and Standard
Erythema Dose CIE S007E-1998. CIE Central Bureau, Vienna, Austria (1998)
6. Diffey B.L. Ultraviolet Radiation dosimetry with polysulphone film In Radiation Measurement in
Photobiology (Edited by B. L. Diffey), pp. 135–159. Academic Press, London, UK. (1989)
7. Diffey B.L., Jansen C.T., Urbach F., Wulf H.C. The standard erythema dose: a new photobiological
concept Photodermatol. Photoimmunol. Photomed. 13(1, 2), 64–66 (1997)
164
8. Diffey, B. L. Climate change, ozone depletion and the impact on ultraviolet exposure of human skin
Phys. Med. Biol. 49, R1–R11 (2004)
9. Downs N.J. and Parisi A.V. Patterns in the received facial ultraviolet exposure of school children
measured at a sub-tropical latitude Photochem. Photobiol. 84, 90–100 (2008)
10. El Ghisassi F., Baan R., Straif K., Grosse Y., Secretan B., Bouvard V., Benbrahim-Tallaa L., Guha N.,
Freeman C., Galichet L. and Cogliano V. WHO International Agency for Research on Cancer Monograph
Working Group, A review of human carcinogens-Part D: radiation Lancet Oncol. 10, 751–752 (2009)
11. Fitzpatrick T. B., Pathak M., Parrish J.A. Protection of human skin against the effects of the sunburn
ultraviolet (290–320 nm) In Sunlight and Man: Normal and Abnormal Photobiologic Responses (Edited
by M. A. Pathak, L. C. Harber, M. Seiji and A. Kukita), pp. 751. University of Tokyo Press, Tokyo (1974)
12. Gao N., Hu L.W., Gao Q., Ge T.T., Wang F., Chu C., Yang H. and Yang L. Diurnal Variation of Ocular
Exposure to Solar Ultraviolet Radiation Based on Data from a Manikin Head Photochemistry and
Photobiology 88: 736–743 (2012)
13. Gilaberte Y., Aguilera J., Carrascosa J.M., Figueroa F.L., Romaní de Gabriel J., Nagoreg E. Vitamin D:
Evidence and Controversies Actas Dermosifiliogr.102(8), 572-588 (2011)
14. Godar D.E. UV doses worldwide Photochem. Photobiol. 81, 736–749 (2005)
15. Grant W.B. and Holick M.F. Benefits and requirements of vitamin D for optimal health: a review Altern.
Med. Rev. 10(2), 94–104 (2005)
16. IARC A review of human carcinogens. Part D: Radiation. IARC Working Group on the Evaluation
of Carcinogenic Risks to Humans (2009: Lyon, France) IARC monographs on the evaluation of
carcinogenic risks to humans ; v. 100D (2012)
17. Lucas R., McMichael T., Smith W. and Armstrong B. Solar ultraviolet radiation. Global burden of
disease from solar ultraviolet radiation World Health Organization, Environmental Burden of Disease
Series, 13 (2006)
18. Lucas R. Solar ultraviolet radiation: assessing the environmental burden of disease at national and
local levels In Environmental Burden of Disease, Series 17 (Edited by A. Pruss-Ustun and E. Perkins
van Deventer) World Health Organization, Geneva (2010)
19. McKenzie R.L., Liley J.B., Bjorn L.O. UV Radiation: Balancing Risks and Benefits Photochem. Photobiol.,
85, 88–98 (2009)
20. Parisi A.V., Meldrum L.R., Kimlin M.G., Wong J.C.F., Aitken J. and Mainstone J.S. Evaluation of
differences in ultraviolet exposure during weekend and weekday activities Phys. Med. Biol. 45(8),
2253–2263 (2000)
21 .Schmalwieser A. W., Cabaj A., Schauberger G., Rohn H., Maier B., Maier H. Facial solar UV exposure
of Austrian farmers during occupation Photochem. Photobiol. 86, 1404–1413 (2010)
22. Seckmeyer G., Klingebiel M., Riechelmann S., Lohse I., McKenzie R.L., Liley J.B., Allen M.W., Siani
A.M., Casale G.R. A Critical Assessment of Two Types of Personal UV Dosimeters Photochemistry and
Photobiology 88: 215–222 (2012)
23. Siani A. M., Casale G.R., Diemoz H., Agnesod G., Kimlin M.G., Lang C.A. and Colosimo A. Personal
UV exposure in high albedo alpine sites Atmos. Chem. Phys. 8, 3749–3760 (2008)
24. Siani A. M., Casale G.R., Sisto R., Borra M., Kimlin M.G., Lang C.A. and Colosimo A. Short-term UV
exposure of sunbathers at a Mediterranean Sea site Photochem. Photobiol. 85(1), 171–177 (2009)
25. Siani A.M., Casale G.R., Sisto R., Colosimo A., Lang C.A., Kimlin M.G. Occupational exposures to
solar ultraviolet radiation of vineyard workers in Tuscany (Italy) Photochemistry and Photobiology 87,
925-934 (2011)
26. WHO Global Solar UV Index: A Practical Guide. World Health Organization (2002)
27. Willis K.S., Smith D.T., Broughton K.S., Larson-Meyer D.E. Vitamin D status and biomarkers of
inflammation in runners Open Access Journal of Sports Medicine 3, 35–42 (2012)
SITOGRAFIA
www.epicentro.iss.it (portale dell’Istituto Superiore di Sanità)
www.arpa.vda.it (sito dell’Arpa Valle d’Aosta)
www.uv-index.it (sito del gruppo di lavoro italiano sulla radiazione UV)
165
Articoli
Risultati della prima campagna di interconfronto italiana
di strumentazione per la misura della radiazione ultravioletta solare
Diémoz H.1, Siani A. M.2, Casale G. R.2, di Sarra A.3, Serpillo B.4, Petkov B.5, Scaglione S.3, Bonino A.6,
Facta S.6, Fedele F.7, Grifoni D.8, Verdi L.9, Zipoli G.8
1
2
3
4
5
6
7
8
9
Arpa Valle d’Aosta, Loc. Grande Charrière 44, 11020 Saint-Christophe (AO), [email protected]
Sapienza Università di Roma, Dipartimento di Fisica, Piazzale Aldo Moro 5, 00185 Roma,
[email protected], [email protected]
ENEA, Via Anguillarese 301, 00123 S. Maria di Galeria Roma, [email protected],
[email protected]
Arpa Basilicata, Via della fisica 18 C/D, 85100 Potenza, [email protected]
ISAC-CNR, Via Gobetti 101, 40129 Bologna, [email protected]
Arpa Piemonte, Via Jervis 30, 10015 Ivrea (TO), [email protected],
[email protected]
Arpa Puglia, Corso Trieste 27, 70126 Bari, [email protected]
IBIMET-CNR/LaMMa, Via Giovanni Caproni 8, 50145 Firenze, [email protected],
[email protected]
APPA Bolzano, Via Amba Alagi 5, 39100 Bolzano, [email protected]
RIASSUNTO
L’Agenzia Regionale per la Protezione dell’Ambiente (ARPA) della Valle d’Aosta ha coordinato il primo
interconfronto nazionale della strumentazione per la misura a terra della radiazione ultravioletta (UV) solare.
La campagna si è svolta a Saint-Christophe (Valle d’Aosta) dall’8 al 23 giugno 2010 ed ha coinvolto 8
istituti e 14 strumenti, di cui 10 a banda larga, 2 a banda stretta e 2 spettroradiometri. Gli strumenti sono
stati predisposti per eseguire misure sincronizzate di irradianza solare globale. I dati grezzi sono stati
successivamente inviati ai rispettivi operatori, che li hanno elaborati, a partire dai certificati di taratura in loro
possesso e secondo i metodi utilizzati presso le loro istituzioni, per ottenere serie di Indice UV e irradianza
integrata nella banda UV-A. Tali serie sono poi state confrontate con le misure dello strumento di riferimento,
uno spettroradiometro a doppio monocromatore tracciabile agli standard europei. Un modello di trasporto
radiativo è stato, inoltre, incluso nel confronto. La campagna ha messo in evidenza deviazioni rispetto al
riferimento fino a -16% e +20% da parte di alcuni strumenti – alcuni dei quali appena tarati presso le ditte
costruttrici –, così come variazioni diurne fino al 15% anche nei giorni sereni.
INTRODUZIONE
I radiometri solari ultravioletti sono utilizzati da tempo in tutto il mondo per monitorare l’irradianza al suolo
in funzione dei fattori atmosferici che la modulano (WMO, 2011) e al fine di valutare i rischi della radiazione
solare per la salute umana e l’ambiente (UNEP, 2010). Ciononostante, l’impiego ottimale di tali strumenti
per ottenere serie di misure di altissima accuratezza è ancora oggi una sfida impegnativa: i probabili
trend di irradianza UV sono bassi e si confondono facilmente con le oscillazioni naturali (Seckmeyer et al.
2009). Inoltre, nell’ambito delle reti di monitoraggio, non è sempre semplice discriminare tra le differenze
prettamente inter-strumentali e i reali pattern ambientali e geografici. Un grande sforzo è perciò richiesto
agli operatori, in particolare nelle procedure di controllo di qualità, di rielaborazione dei dati, taratura e
caratterizzazione degli strumenti (di Sarra, 2002).
Benché in Italia alcuni istituti abbiano avviato misure di radiazione ultravioletta solare sin dall’inizio degli
anni ‘90 (Casale et al., 2000) e partecipato a campagne internazionali, la strumentazione presente sul
territorio nazionale non è operata nell’ambito di una rete organizzata e secondo un programma di ricerca
comune. I risultati del presente interconfronto sono perciò fondamentali per valutare l’accuratezza globale
della strumentazione italiana ed attuare i necessari provvedimenti per migliorarla.
167
STRUMENTAZIONE E MODELLI PARTECIPANTI
Tutti gli strumenti e gli enti partecipanti alla campagna sono riportati, unitamente ad alcune informazioni,
in tabella 1.
Tabella 1 | Strumenti e agenzie partecipanti alla campagna
Tracciabilità
Data
Taratura
Id
Ente
Strumento
Tipo di misura
00
Arpa
Valle d’Aosta
Bentham DTMc300F
Irradianza spettrale PTB (QASUME)
2010
01
Arpa
Valle d’Aosta
Kipp&Zonen UV-S-AE-T
Irradianza banda
larga (UV-A, UV-E)
PTB (Bentham 5541)
2010
02
Arpa
Valle d’Aosta
Kipp&Zonen UV-S-AE-T
Irradianza banda
larga (UV-A, UV-E)
PTB (Bentham 5541)
2010
03
Arpa
Valle d’Aosta
Yankee Env. Syst. UVB-1
Irradianza banda
larga (UV-E)
PTB (Bentham 5541)
2010
04
Arpa
Piemonte
Kipp&Zonen UV-S-AE-T
Irradianza banda
larga (UV-A, UV-E)
NIST (Kipp&Zonen)
2009
05
Arpa Puglia
Kipp&Zonen UV-S-AE-T
Irradianza banda
larga (UV-A, UV-E)
NIST (Kipp&Zonen)
2009
06
Sapienza
Univ. Roma
Yankee Env. Syst. UVB-1
Irradianza banda
larga (UV-E)
PTB (QASUME)
2006
07
IBIMET-CNR/
LaMMa
Solar Light 501A
Irradianza banda
larga (UV-E)
PTB (QASUME)
2008
08
ENEA e Arpa
Lazio
Solar Light 501A
Irradianza banda
larga (UV-E)
NIST (Brewer #123)
2010
09
Appa Bolzano
Solar Light digitale 501
Irradianza banda
larga (UV-A)
NIST (Solar Light)
2010
10
Appa Bolzano
Solar Light digitale 501
Irradianza banda
larga (UV-E)
NIST (Solar Light)
2010
11
Arpa
Valle d’Aosta
Kipp&Zonen Brewer MKIV
Irradianza spettrale PTB (QASUME)
e ozono totale
2010
12
ISAC-CNR
ISAC UV-RAD filter rad.
Irradianza banda
stretta (7 canali)
PTB (Bentham 5541)
2006
13
ENEA e Arpa
Lazio
ENEA F-RAD 02 filter rad.
Irradianza banda
stretta (13 canali)
NIST (Brewer #123)
2010
14
Arpa
Valle d’Aosta
LibRadtran 1.5 (modello)
Irradianza spettrale PTB (Bentham 5541)
2010
E’ riportato l’istituto al quale le misure sono tracciabili e, tra parentesi, lo strumento o il laboratorio di riferimento.
Lo strumento che ha costituito il riferimento della campagna di interconfronto è uno spettroradiometro
Bentham DTMc300F a doppio monocromatore (numero identificativo 00, nel seguito; fig. 1), appartenente
ad ARPA Valle d’Aosta e tracciabile a standard primari (Diémoz, 2012). L’incertezza totale (di calibrazione
e di misura) è stata oggetto di approfondita caratterizzazione: essa varia dal 6% (K=2, lunghezze d’onda
comprese tra 310 e 400 nm e angoli solari zenitali minori di 50 gradi) al 12% (K=2, lunghezze d’onda
minori di 310 nm e angoli solari zenitali maggiori di 50 gradi). Tale strumento è regolarmente confrontato
con il riferimento europeo, QASUME, del centro mondiale per la misura della radiazione solare di Davos
(PMOD-WRC). L’ultimo interconfronto QASUME, svoltosi nel 2011, ha messo in evidenza una differenza
sistematica dello 0.5% e una variazione diurna inferiore al 2%, entrambe minori dell’incertezza radiometrica
e di misura, rispettivamente. Nel corso della campagna italiana, lo spettroradiometro Bentham ha acquisito
con continuità spettri di irradianza nella banda elettromagnetica compresa tra 290 e 400 nm.
In aggiunta, un ulteriore strumento in grado di misurare lo spettro di radiazione, uno spettrofotometro
Brewer MKIV, anch’esso gestito da ARPA Valle d’Aosta (numero identificativo 11), ha partecipato
all’interconfronto. Lo spettrofotometro è stato altresì impiegato per la misura del contenuto totale di ozono
e per la caratterizzazione delle proprietà ottiche del particolato atmosferico durante la campagna.
La maggior parte dei radiometri partecipanti era a banda larga (numeri identificativi da 01 a 10). Il loro
dato non elaborato è stato raccolto in termini di tensione elettrica ai capi dei loro cavi di uscita ogni 10
secondi. Due degli strumenti (09 e 10) erano digitali, i rimanenti analogici. Quattro radiometri a banda larga
(numeri identificativi 01, 02, 04 e 05) hanno misurato contemporaneamente l’irradianza UV-A integrata nella
168
banda 315-400 nm e l’Indice UV (d’ora in poi UVI; per la definizione di quest’ultimo, si veda Webb, 2011),
i rimanenti acquisivano esclusivamente il canale relativo all’UVI.
La relazione tra tensione in uscita dai radiometri a banda larga e l’irradianza (cioè la grandezza che si
desidera normalmente misurare), è definita attraverso una funzione, piuttosto complessa, dei due
parametri che maggiormente condizionano la forma dello spettro solare a terra: il contenuto totale di ozono
in atmosfera e l’angolo zenitale solare. Non è, infatti, possibile determinare un’unica costante di taratura
per il fatto che le risposte spettrali e angolari dei radiometri non coincidono perfettamente con quelle ideali.
Alcuni operatori hanno dunque fatto uso, durante la campagna, di matrici di taratura, ottenute tramite
modelli di trasporto radiativo. Altri, invece, hanno utilizzato un fattore di correzione costante, benché sia
noto che tale procedimento non garantisce un risultato ottimale.
Due radiometri a filtri (numeri identificativi 12 e 13) hanno acquisito misure a banda stretta, poi elaborate
dai rispettivi operatori al fine di ottenere l’UVI e l’irradianza integrata nella banda UV-A.
Infine, il modello di trasporto radiativo LibRadtran è stato incluso nel confronto alla pari degli altri strumenti
(numero identificativo 14) ed è stato, inoltre, impiegato per il controllo di qualità delle misure spettrali.
Figura 1 | Alcuni strumenti partecipanti. In primo piano, l’ottica dello spettroradiometro di riferimento e, sullo sfondo,
alcuni radiometri a banda larga.
CAMPAGNA DI INTERCONFRONTO
La campagna si è svolta a cavallo del solstizio estivo, al fine di valutare il funzionamento degli strumenti
partecipanti sulla gamma più vasta possibile di angoli solari. Il sole, infatti, sorgeva alle ore 6 solari circa
e tramontava alle ore 19. Il minimo angolo solare zenitale del periodo è stato di 22.3° in occasione del
solstizio.
La stazione di Saint-Christophe (Aosta, quota 570 m s.l.m.) rappresenta un tipico sito di fondovalle alpino,
benché con ampia visuale, ed è stato scelto per la presenza di uno strumento allo stato dell’arte e per il
basso livello di inquinamento.
La prima parte dell’interconfronto è stata caratterizzata da nuvolosità e, talvolta, pioggia (le misure ottenute
durante le precipitazioni sono state escluse dall’analisi). Gli ultimi quattro giorni, invece, sono stati sereni
ed hanno permesso di misurare un UVI di circa 8, un valore tipico a Saint-Christophe durante l’estate.
METODI DI CONFRONTO
Poiché gli strumenti che hanno partecipato alla campagna appartengono a classi differenti (spettrali, banda
stretta e banda larga) ed operano con tempi di campionamento diversi, non è stato possibile confrontare
tutte le serie di misure utilizzando un’unica metodologia.
Il downscaling delle serie a banda larga, ottenute con un tempo di campionamento di 10 secondi, alla
risoluzione dello strumento di riferimento, di circa 3 minuti, è stato effettuato con un nuovo algoritmo,
appositamente creato per la campagna e facente uso di modelli di trasporto radiativo (Diémoz et al., 2011).
Infatti, una semplice interpolazione temporale avrebbe creato, soprattutto nel caso di cielo nuvoloso,
oscillazioni fittizie.
169
Le rimanenti serie, invece, sono state riscalate alla risoluzione temporale dello spettroradiometro Bentham
attraverso una interpolazione lineare di misure quasi-simultanee (la massima differenza ammessa nel
confronto tra riferimento e strumento in esame era di 1 minuto per i radiometri a banda stretta e di 3 minuti
per lo spettrofotometro Brewer).
Figura 2 | Boxplot dell’UVI per cielo sereno. Rapporto tra le misure di ogni strumento e il riferimento. I lati superiore
e inferiore di ogni rettangolo rappresentano i quartili (superiore e inferiore). La linea interna al box, la mediana. I baffi
descrivono i valori massimi e minimi, eccetto gli outliers, che sono invece rappresentati come cerchi.
Figura 3 | Boxplot dell’UVI per cielo nuvoloso
RISULTATI E DISCUSSIONE
I risultati sono nel seguito espressi principalmente in termini di mediana e di distanza interquartile (IQR)
– stimatori robusti rispettivamente della tendenza centrale e della dispersione – del rapporto tra le misure
degli strumenti in prova e del riferimento. Il boxplot in fig. 2 rappresenta i risultati durante i giorni sereni,
quello in fig. 3 i risultati nei giorni nuvolosi.
Deviazioni medie
Innanzi tutto, le misure degli strumenti in prova esibiscono notevoli deviazioni medie rispetto al riferimento:
da -16% (strumenti 12 e 13) a +19% (strumento 04). Anche alcuni strumenti appena tarati dalle rispettive
case costruttrici mostrano elevati errori sistematici (strumenti 04, 05, 09, 10).
Un buon accordo si verifica, al contrario, per strumenti che condividono lo stesso standard di taratura,
presso PMOD-WRC (numeri 01, 02, 03, 06, 07 e 11).
I risultati ottenuti con il radiometro 08 sono compatibili con quanto già riportato in letteratura scientifica
(Gröbner, 2006). Al contrario, l’elevata differenza tra riferimento e radiometro 12 ha permesso di scoprire
un malfunzionamento dello strumento in prova dovuto al deterioramento di alcune componenti interne e di
una deriva nella taratura. Un difetto di coibentazione è stato trovato anche per il radiometro 13 in seguito
alla campagna.
Infine, il modello, benché configurato con parametri semplici, mostra un accordo soddisfacente con il
riferimento (in media, -0.3% per l’UVI e -1.2% per l’irradianza integrata UV-A).
170
Variabilità diurna in condizioni serene
Al fine di esaminare in maggior dettaglio la variazione diurna delle misure degli strumenti in test rispetto al
riferimento, il rapporto è stato graficato in funzione dell’angolo solare zenitale (fig. 4).
Le serie elaborate tramite una matrice (strumenti da 01 a 06) mostrano una variabilità diurna inferiore alle
serie processate con un’unica costante di taratura (strumenti 07, 09, 10) o con algoritmi empirici, come per
il radiometro 08 (Bodhaine et al., 1998).
La differenza tra modello e riferimento non mostra particolari andamenti in funzione dell’angolo zenitale.
L’entità della variazione è confrontabile con l’incertezza totale del riferimento e del modello (quest’ultima
dovuta, in primis, all’incertezza sui parametri di input).
Figura 4 | Dipendenza dall’angolo zenitale solare
Asimmetria tra mattino e pomeriggio
Diversi strumenti presentano una asimmetria tra le misure del mattino e del pomeriggio. Le cause potrebbero
essere un leggero deterioramento della livella a bolla (strumento 01) o una debole dipendenza azimutale
(strumento 06) o ancora l’effetto della temperatura o dell’umidità interne (strumenti 05, 11).
Figura 5 | Grafico riassuntivo dei risultati. Valore assoluto della differenza relativa tra strumenti in test e riferimento
(asse delle ascisse) e distanza interquartile (asse delle ordinate). Nel testo, è riportata la spiegazione dettagliata dei
simboli. I risultati sono relativi all’UVI.
Effetto delle nubi
Prendendo in esame l’intera durata della campagna, caratterizzata anche da periodi nuvolosi, e
confrontandola con le giornate di cielo sereno, è possibile valutare l’effetto delle nubi sulla qualità delle
misure dei radiometri. I coefficienti di taratura dei radiometri, infatti, vengono generalmente determinati
tramite modelli di trasporto radiativo nella sola ipotesi di cielo sereno.
171
Si può constatare che le mediane dei rapporti non cambiano sensibilmente. Al contrario, aumenta notevolmente
la distanza interquartile, che in diversi casi, anche in funzione della risposta angolare di ogni radiometro,
eccede il 10%. Tale errore è amplificato dagli algoritmi di correzione utilizzati per i radiometri 07 e 08.
Prestazioni generali dei radiometri
In figura 5 sono presentate sia le differenze relative dei diversi strumenti dal riferimento nel caso di giorni
sereni sia la distanza interquartile dei rapporti. In parentesi, è anche riportato il metodo di correzione. Come
si può vedere dalla figura, gli strumenti si possono collocare in alcuni gruppi caratterizzati da prestazioni
simili.
Il primo gruppo (colore blu) identifica gli strumenti che condividono la stessa tracciabilità al laboratorio
tedesco PTB, attraverso lo standard europeo QASUME o lo spettroradiometro Bentham. Questo fatto
mette in assoluta evidenza l’importanza di una scala di riferimento comune e attendibile e l’efficacia di
standard viaggianti.
A un secondo gruppo (colore rosso), caratterizzato da deviazioni medio-alte, appartengono gli strumenti
tarati presso le rispettive case costruttrici. La “coerenza” tra radiometri tarati dallo stesso produttore è
decisamente bassa (gli strumenti 04 e 05 si collocano in punti molto diversi del grafico).
Un terzo gruppo (colore viola) individua gli strumenti prodotti presso i centri di ricerca ENEA e ISAC-CNR.
L’interconfronto è stato determinante per identificare problemi strumentali e derive nella taratura.
La stessa figura mette in luce come l’utilizzo di una matrice di taratura sia il metodo più efficace per
correggere eventuali errori nella risposta spettrale e angolare.
In generale, si può affermare che le prestazioni dei radiometri italiani, in particolare lo scatter dei dati,
potrebbero essere notevolmente migliorate utilizzando gli algoritmi correttivi allo stato dell’arte e pianificando
tarature e interconfronti frequenti per monitorare la stabilità strumentale.
CONCLUSIONI
Questo studio è stato indotto dalla necessità di valutare l’accuratezza delle misure di irradianza UV in Italia,
anche al fine di progettare una futura rete nazionale.
Il confronto è durato 17 giorni, durante i quali sono stati registrati più di 3000 spettri e acquisiti 140000
campionamenti. Un algoritmo innovativo è stato sviluppato per confrontare le misure ad alta frequenza dei
radiometri in banda larga con il riferimento. Le deviazioni si sono rivelate molto maggiori di quanto previsto,
con valori medi compresi tra il -16% e il +19% e distanze interquartili maggiori del 10% anche nel caso
più semplice di cielo sereno. 8 dei 13 strumenti mostrano misure entro il 10% rispetto al riferimento e solo
5 entro il 5%. Inoltre, sono stati individuati problemi strumentali prima sconosciuti agli operatori. Punto di
notevole interesse sono le elevate deviazioni registrate anche per radiometri recentemente tarati presso le
rispettive case produttrici.
Il modello di trasporto radiativo, pur configurato con pochi parametri, si è dimostrato soddisfacente
(differenze entro pochi punti percentuali rispetto al riferimento).
Dai risultati complessivi dell’interconfronto, emerge che, prima di costituire una rete nazionale, saranno
fondamentali sforzi per migliorare la taratura degli strumenti e gli algoritmi di elaborazione.
BIBLIOGRAFIA
1. Bodhaine B. A. et al., Calibrating broadband UV instruments: ozone and solar zenith angle dependence,
J. Atmos. Ocean. Tech., 1998
2. Casale G. R. et al., Solar UV-B irradiance and total ozone in Italy: fluctuations and trends, J. Geophys. Res., 2000
3. Diémoz H. et al., First national intercomparison of solar ultraviolet radiometers in Italy, Atmos. Meas. Tech. 2011
4. Diémoz H. Tracciabilità delle misure ultraviolette solari presso le stazioni di ARPA Valle d’Aosta, V
Convegno nazionale degli Agenti Fisici, Novara, 2012
5. di Sarra A., On the importance of spectral responsivity of Robertson-Berger type ultraviolet radiometers
for long-term observations, Photochem. Photobiol., 2002
6. Gröbner J., Quality assurance of spectral solar UV measurements: results from 25 UV monitoring sites
in Europe, 2002 to 2004, Metrologia, 2006
7. Seckmeyer G. et al. Measurements and trends, in: Twenty years of ozone decline, 2009, Springer
8. UNEP, Environmental effects of ozone depletion and its interactions with climate change: 2010
assessment, 2010
9. Webb A. R. et al., Know your standard: clarifying the CIE erythema action spectrum, Photochem.
Photobiol., 2011
10. WMO, Scientific assessment of ozone depletion: 2010, 2011
172
Articoli
Caratterizzazione di radiometri ultravioletti solari a banda larga
presso il Laboratorio di Ottica dell’ARPA Piemonte
e interconfronto con altri laboratori europei
Facta S (1),Saudino Fusette S (1), Bonino A (1), Diemoz H (2),Vaccarono M (3), Anglesio L(1), d’Amore G (1),
Gröbner J (4)
(1) ARPA Piemonte, Via Jervis 30, 10015 Ivrea (TO), [email protected]
(2) ARPA Valle d’Aosta, Loc. grende Charriere 44, 11020 Saint-Christophe (AO), [email protected]
(3) Università degli Studi di Torino – Via P. Giuria 1 – Torino [email protected]
(4) Physikalisch-Meteorologisches Observatorium Davos, World Radiation Center, Dorfstrasse 33, CH7260 Davos Dorf, Switzerland [email protected]
RIASSUNTO
Nel corso degli ultimi anni si è assistito allo sviluppo e alla diffusione di stazioni di monitoraggio per la misura
della radiazione ultravioletta (UV) solare in Italia. Tali stazioni generalmente impiegano radiometri a banda
larga con curva di risposta prossima allo spettro ad azione eritemale e permettono la misura in continuo
dell’indice UV.
Le caratteristiche di risposta di questi radiometri hanno reso necessario lo sviluppo di una procedura
di taratura dedicata, al fine di ottenere dati riproducibili tra strumenti diversi. In particolare la taratura ne
presuppone la caratterizzazione in laboratorio, basata sulla misura della risposta spettrale e di quella angolare.
In questo lavoro verranno illustrate le procedure seguite presso il Laboratorio di Ottica di Arpa Piemonte per
determinare tali risposte, in particolare verranno descritte le problematiche e le criticità associate alle misure
e verranno riportati i risultati di interconfronti effettuati con altri Laboratori europei.
INTRODUZIONE
Nel corso degli ultimi anni, gli sviluppi della strumentazione e delle metodologie impiegate per la misura
della radiazione solare UV hanno portato a importanti miglioramenti in questo campo. Gli strumenti
d’eccellenza per la misura della radiazione solare UV sono gli spettroradiometri, ma gli elevati costi e
la necessità di costante manutenzione ne limitano l’utilizzo principalmente presso alcune stazioni dove
costituiscono il riferimento per la calibrazione di radiometri a banda larga (Hulsen et al, 2007). Sono questi
ultimi gli strumenti generalmente installati presso le stazioni per la misura della radiazione UV solare. La
loro risposta spettrale, ottenuta per mezzo di opportuni filtri, riproduce la sensibilità della pelle umana alla
radiazione UV (CIE, 1998) e permette di ottenere una misura di irradianza efficace eritemale o di Indice UV
(WHO, 2002).
Figura 1 | Spettro ad azione eritemale e risposta spettrale di un radiometro. È riportato il confronto tra lo spettro ad
azione eritemale e una tipica risposta spettrale di un radiometro banda larga per la misura dell’Indice UV.
173
La non perfetta corrispondenza delle risposte spettrale e angolare dei radiometri a quelle ideali, ovvero
rispettivamente allo spettro d’azione eritemale e alla risposta coseno, unitamente alla variazione di diversi
ordini di grandezza dello spettro solare al suolo hanno reso necessario definire una procedura di taratura
specifica per questi strumenti (Grobner et al, 2006). In fig.1 è riportata a titolo esemplificativo la risposta
spettrale di un radiometro confrontata con lo spettro ad azione eritemale.
La procedura di taratura sviluppata a tal fine si basa da un lato sull’esposizione dei radiometri alla radiazione
solare e dall’altro sulla loro caratterizzazione in laboratorio ai fini di determinare la risposta spettrale e quella
angolare. L’esposizione solare, per confronto con uno spettroradiometro di riferimento, note le risposte
spettrale e angolare, consente di valutare un coefficiente di taratura assoluto dei radiometri. Tramite
modello di trasporto radiativo, sulla base delle risposte spettrale e angolare, viene quindi determinata una
matrice di coefficienti correttivi da applicare, in funzione dell’ozono colonnare e dell’elevazione solare, al
fattore di cui sopra. Il prodotto tra tale fattore e la matrice dei coefficienti correttivi costituisce la matrice di
taratura del radiometro.
Sulla base di quanto riportato si evince che la qualità delle misure di radiazione UV solare ottenute per
mezzo di radiometri banda larga dipende significativamente dall’accuratezza della caratterizzazione in
laboratorio. In questo lavoro verranno descritti i metodi impiegati dal Laboratorio di Ottica di Arpa Piemonte
situato ad Ivrea per determinare la risposta spettrale e quella angolare dei radiometri e verranno riportati i
risultati delle misure eseguite, confrontate con quelle ottenute da altri Laboratori europei.
MATERIALI E METODI
SISTEMA SPERIMENTALE: MISURA DELLA RISPOSTA SPETTRALE
ll sistema sperimentale utilizzato dal Laboratorio di Arpa Piemonte consiste in un doppio monocromatore
Bentham DM 150 con reticoli di 2400 scanalature per millimetro e lunghezza d’onda di blazing 250nm. Una
lampada allo Xe da 150 W viene accoppiata tramite un sistema di lenti al doppio monocromatore, in modo
da ottenere la massima potenza di radiazione in corrispondenza della fenditura d’uscita. In corrispondenza
di questa è posto un deviatore di fascio (beam splitter), montato verticalmente a 45°, che trasmette circa
l’80% della radiazione verso il rivelatore in analisi e il 20% verso un fotodiodo utilizzato per verificare la
stabilità del segnale in uscita nel corso delle misura.
La necessità di massimizzare il segnale in uscita al doppio monocromatore è dovuta alla bassa sensibilità
dei radiometri già per lunghezze d’onda superiori a 330-340 nm. Al fine di ottenere segnali maggiori, si
potrebbe sostituire il doppio monocromatore con un singolo, ma la maggiore luce parassita (stray light)
associata a questa soluzione rappresenta un problema nel caratterizzare i radiometri nella regione spettrale
in cui sono meno sensibili. Infatti dove la sensibilità diminuisce di 3-4 ordini di grandezza rispetto a quella
massima a circa 290 nm una stray light di 10-3-10-4 (migliori valori ottenibili con un singolo monocromatore)
può portare ad un aumento della tensione sul radiometro dovuto, non al segnale alla lunghezza d’onda in
esame, ma alla luce parassita alle lunghezze d’onda a cui il radiometro è più sensibile. In fig.2 è riportato il
confronto tra le SRF, normalizzate al valore massimo, ottenute, sullo stesso radiometro, tramite un singolo
(Zolix – Omni λ-150) e un doppio monocromatore (Bentham DM 150). A partire da 320 nm la prima è
significativamente maggiore rispetto alla seconda, ad indicare che il contributo della stray light, dovuto
all’utilizzo del singolo monocromatore, genera segnali sul radiometro paragonabili a quelli dovuti alla
lunghezza d’onda in esame.
Per valutare la SRF del radiometro occorre conoscere la potenza in uscita al doppio monocromatore P(λ)
alle varie lunghezza d’onda. Tale potenza viene misurata con un fotodiodo tarato SI-CAL-EX. Indicando
quindi con V(λ) la tensione sul radiometro alla lunghezza d’onda λ e con Voffset il segnale di fondo del
radiometro, misurato otturando la fenditura d’ingresso del monocromatore, la SRF(λ) del radiometro è
data da:
La tensione sul radiometro viene letta tramite un nanovoltmetro Agilent Technologies 34420A.
La misura della SRF viene effettuata nell’intervallo spettrale compreso tra 280 e 400 nm a intervalli di 2 nm
e normalizzata al valore massimo. L’incertezza relativa sul fattore SRF viene stimata per ogni radiometro
sulla base di misure ripetute del segnale di fondo e della tensione a radiometro irradiato e dell’incertezza
sul fattore di taratura del fotodiodo. Risulta generalmente inferiore al 15% per valori di SRF superiori a 10-4
e inferiore al 30% per valori di SRF al di sotto di 10-4.
174
Figura 2 | Confronto singolo e doppio monocromatore. Sono riportate le SRF ottenute sullo stesso radiometro impiegando un singolo e un doppio monocromatore e il rapporto tra le due.
SISTEMA SPERIMENTALE: MISURA DELLA RISPOSTA ANGOLARE
La misura della risposta angolare (ARF) viene ottenuta irradiando il radiometro con una sorgente allo Xeno
da 1000 W posta su banco ottico ad una distanza di 2 m. Il diffusore del radiometro viene completamente
illuminato con un campo di radiazione avente una disuniformità sulla superficie del medesimo non superiore
al 2%. La risposta angolare viene misurata facendo ruotare il radiometro intorno ad un asse passante per
il centro del diffusore e ad esso tangente con una risoluzione di rotazione di 4267 step per grado. Tra la
sorgente e il radiometro vengono posti un diaframma e un filtro passa alto WG305. Il diaframma viene
impiegato al fine di ridurre la luce parassita diffusa all’interno della camera oscura in cui viene effettuata la
misura. Il filtro viene utilizzato per ridurre la radiazione emessa dalla lampada a lunghezza d’onda inferiore
a circa 300 nm, essendo tale radiazione di intensità praticamente trascurabile nello spettro della radiazione
solare che raggiunge la superficie terrestre.
La misura della ARF viene effettuata nell’intervallo angolare compreso tra -90 e 90 gradi a intervalli di 5
gradi e normalizzata al valore massimo. L’incertezza relativa sulla ARF viene stimata per ogni radiometro
sulla base di misure ripetute della ARF stessa, tenendo conto anche della disuniformità del campo. Tale
incertezza risulta pari al 3%.
PROBLEMATICHE RELATIVE ALLA CARATTERIZZAZIONE SPETTRALE
Considerato l’andamento tipico della SRF dei radiometri, due parametri ne influenzano in modo significativo
la misura, soprattutto nella regione spettrale compresa tra 300 e 330 nm, dove la SRF diminuisce
rapidamente all’aumentare della lunghezza d’onda: l’allineamento e la slit function del monocromatore.
Allineamento
L’allineamento del doppio monocromatore viene effettuato monitorando alle diverse lunghezze d’onda
impostate, tra 280 e 400 nm a passo di 2 nm, il segnale in uscita con uno spettroradiometro pre-allineato
utilizzando i picchi di una sorgente al mercurio. Questa metodologia consente di effettuare l’allineamento
del sistema nella stessa configurazione in cui viene utilizzato per la misura della SRF e di ridurre a 0.1
nm l’incertezza sull’allineamento, rispetto al caso in cui venga effettuato accoppiando direttamente al
monocromatore la lampada al mercurio (incertezze di 0.2-0.3 nm).
Il corretto allineamento riveste particolare importanza soprattutto nella regione di rapida variabilità di
sensibilità dei radiometri. In fig.3 è riportato l’errore che si commette, valutato teoricamente partendo dalla
SRF di un radiometro Kipp&Zonen, in funzione del disallineamento: disallineamenti di soli 0.4 nm portano
ad errori prossimi all’8% a 315 nm.
175
Figura 3 | Allineamento del doppio monocromatore Sono riportati in funzione della lunghezza d’onda gli errori nella
valutazione della SRF dovuti al disallineamento per un tipico radiometro Kipp&Zonen
Slit function
La slit function del doppio monocromatore, funzione della dimensione delle fenditure in ingresso e in uscita
e della dispersione del monocromatore, è stata valutata durante la procedura di allineamento tramite lo
spettroradiometro. La larghezza (FWHM) del segnale in uscita ma anche la sua forma sono parametri che
influenzano la SRF soprattutto nella regione di rapida variabilità di sensibilità dei radiometri. In fig.4 viene
riportata la SRF ottenuta sullo stesso radiometro utilizzando fenditure tali da avere una FWHM di 2.5 nm e
di 5 nm: si registrano differenze anche superiori al 10%.
Tanto minore è la dimensione delle fenditure e quindi la FWHM del segnale in uscita, tanto più precisa
sarà la determinazione della SRF tra 300 e 330 nm. Dall’altra parte la diminuzione della dimensione delle
fenditure comporta una diminuzione del segnale in uscita al monocromatore. Presso il Laboratorio di Arpa
Piemonte le fenditure sono state regolate in modo da avere una FWHM di 2.5nm.
Figura 4 | Slit function del doppio monocromatore. Sono riportate le SRF ottenute su un radiometro Kipp&Zonen per
fenditure del monocromatore tali da avere una FWHM di 2.5 nm e 5 nm, e il rapporto tra le due.
INTERCONFRONTO CON ALTRI LABORATORI
La misura della SRF è stata effettuata per i 4 radiometri riportati in tabella 1. I primi tre appartengono
alla rete di monitoraggio di Arpa Valle d’Aosta mentre il quarto (Kipp&Zonen UV-S-AE-T s.n. 80003) è in
dotazione di Arpa Piemonte.
I risultati delle misure ottenute sui 4 radiometri sono stati interconfrontati con il PMOD/WRC di Davos. La
taratura del radiometro di Arpa Piemonte è stata inoltre confrontata con la taratura effettuata dal produttore
Kipp&Zonen.
Per il radiometro di Arpa Piemonte è stata misurata anche la ARF e interconfrontata con il laboratorio di
Davos.
176
Tabella 1 | Radiometri analizzati e Laboratori di interconfronto
Radiometro
Laboratorio
Kipp&Zonen UV-S-AE-T s.n. 526
PMOD/WRC
Kipp&Zonen UV-S-AE-T s.n. 40618
PMOD/WRC
Yankee Env. Syst UVB-1
PMOD/WRC
Kipp&Zonen UV-S-AE-T s.n. 80003
PMOD/WRC - Kipp&Zonen
I sistemi sperimentali utilizzati sia da PMOD/WRC sia da Kipp&Zonen sono descritti in Schreder et al, 2004.
In merito al primo interconfronto, in fig.5 (a,b,c) sono riportate le SRF dei tre radiometri misurate da PMOD/
WRC e dal Laboratorio di Arpa Piemonte e i rapporti tra le stesse. Per gli strumenti Kipp&Zonen, nell’intervallo
spettrale compreso tra 280 e 370 nm, nonostante la variazione della SRF di 3 ordini di grandezza, le
differenze risultano contenute entro il 15%. Per il radiometro Yankee si sono invece ottenute differenze
maggiori, soprattutto a causa dell’elevato rumore strumentale. Inoltre l’intervallo spettrale caratterizzato
(280-342 nm) è risultato inferiore rispetto a quello tipicamente analizzato per i Kipp&Zonen (280-385 nm),
essendo questo un rivelatore di radiazione UVB, che viene adattato a misure di Indice UV.
Nonostante le differenze tra i due laboratori rientrino nell’incertezza sperimentale, le curve di taratura
misurate dal laboratorio di Arpa Piemonte presentano uno spostamento in lunghezza d’onda rispetto a
quelle ottenute da PMOD/WRC, ad indicare un possibile disallineamento di uno dei due monocromatori.
Da una verifica dell’allineamento del monocromatore di Arpa Piemonte, è risultato un disallineamento di
0.6 nm, in tutto l’intervallo spettrale considerato.
A seguito della correzione dell’allineamento del monocromatore, è stata quindi effettuata una nuova
taratura del radiometro Kipp&Zonen s.n. 526, i cui risultati in confronto con quelli del Laboratorio di Davos
sono riportati in fig.6. Le differenze nella regione spettrale comprese tra 300 e 330 nm risultano in questo
caso entro il 5% e entro il 15% nella regione spettrale tra 280 e 370nm.
(a)
(b)
(c)
Figura 5 | Confronto tra le SRF ottenute dal Centro PMOD/WRC e dal Laboratorio di Arpa Piemonte. Sono riportate le
SRF dei 3 radiometri ottenute dal Centro PMOD/WRC e dal laboratorio di Arpa Piemonte e il rapporto tra le stesse.
177
Figura 6 | Confronto tra la SRF ottenute dal PMOD/WRC e il Laboratorio di Arpa Piemonte dopo il riallineamento: Sono
riportate le SRF del radiometro misurato dal laboratorio di Arpa Piemonte, dopo aver corretto il disallineamento, e dal
Centro di riferimento PMOD/WRC e il rapporto tra le stesse.
In merito all’interconfronto sulla misura della SRF ottenuta dai 3 Laboratori sul radiometro di Arpa Piemonte,
in fig.7 sono riportati i risultati in termini dei due rapporti tra la SRF ottenuta dal Laboratorio di Arpa Piemonte
rispetto a quella ottenuta dal Laboratorio di Davos e a quella ottenuta dal Laboratorio di Kipp&Zonen. Ad
eccezione di un intervallo spettrale di qualche nm intorno alla lunghezza d’onda di 324 nm dove si sono
rilevate differenze fino al 22%, le differenze tra le curve ottenute sono risultate sempre inferiori al 15%
nell’intervallo spettrale 280-370 nm.
Figura 7 | Confronto tra la SRF ottenute dal Laboratorio di Arpa Piemonte e dal Laboratorio di Kipp&Zonen. Sono
riportate le SRF del radiometro Kipp&Zonen 80003 misurata dal Laboratorio di Arpa Piemonte e dal Laboratorio di
Kipp&Zonen e il rapporto tra le stesse.
Si è quindi interconfrontata la misura della ARF del radiometro di proprietà di Arpa Piemonte ottenuta dal
Laboratorio di Ivrea con quella ottenuta dal Laboratorio di Davos. In figura 8, sono riportate la ARF misurate
e il rapporto tra le stesse. Le differenze rilevate tra le due curve sono sempre inferiori al 5% tra 0° e 85°,
evidenziando un ottimo accordo tra i due laboratori.
Figura 8 | Confronto tra le ARF ottenute dal Laboratorio di Arpa Piemonte e dal Laboratorio PMOD-WRC. Sono riportate le ARF del radiometro Kipp&Zonen 80003 misurata dal Laboratorio di Arpa Piemonte e dal Laboratorio PMOD-WRC
e il rapporto tra le stesse.
Al fine di valutare quanto le differenze ottenute nelle misure delle SRF e della ARF influiscano sulla
matrice di taratura e quindi sui valori di Indice UV misurati dai radiometri, si sono valutati i rapporti tra i
coefficienti delle medesime ottenibili partendo dalle tarature del Laboratorio di Arpa Piemonte e dal quelle
178
del Laboratorio PMOD/WRC e di Kipp&Zonen. Per la valutazione del rapporto tra i coefficienti di taratura
assoluta si sono utilizzati gli spettri misurati da Arpa Valle d’Aosta ad Aosta dal 16/06/2011 al 27/06/2011,
durante le operazioni di taratura dei radiometri. In tab.2 si riportano i valori minimi massimi e medi dei
rapporti tra i coefficienti di taratura assoluto, tra i coefficienti della matrice correttiva e tra i coefficienti della
matrice di taratura, ottenuti utilizzando le SRF misurate dal Laboratorio di Arpa Piemonte e dal Laboratorio
di confronto, sulla base degli spettri solari misurati da Arpa Valle d’Aosta. Dove i dati di ARF erano noti,
questi sono stati inseriti nel calcolo dei coefficienti correttivi della matrice, in caso contrario si è trascurata
tale correzione per la risposta angolare.
Tabella 2 | Confronto tra le matrici di taratura. Sono riportati i valori minimi, medi e massimi dei rapporti tra i valori
del fattore di taratura assoluto (k), i coefficienti correttivi (Cij) e i coefficienti della matrice di taratura (Mij)
Radiometro
Kipp&Zonen s.n 526
Lab confr.: PMOD_WRC
Kipp&Zonen s.n.80003
Lab confr.: PMOD_WRC
Kipp&Zonen s.n.80003
Lab confr.: Kipp&Zonen
Cij(Lab.Arpa)/Cij(Lab.confronto)
Mij(Lab.Arpa)/Mij(Lab.confronto
min
kLab.Arpa/kLab.confronto
max
media
min
max
media
min
Max
media
1.02
1.04
1.025
0.96
0.98
0.97
0.98
1.015
0.99
min
max
media
min
max
media
min
Max
media
0.95
0.97
0.97
0.99
1.06
1.01
0.94
1.03
0.98
min
max
media
min
Max
media
min
Max
media
0.94
0.96
0.97
1.05
1.09
1.06
0.99
1.05
1.03
Per entrambi i radiometri si ottengono delle differenze medie sui coefficienti della matrice di taratura non
superiori al 3% con scarti non superiori al 5%, ad indicare il buon accordo tra le SRF ottenute ai fini
delle operazioni di taratura. Per il radiometro per il quale, nel calcolo della matrice, è stata inclusa la
correzione per la risposta angolare, questa pesa solo marginalmente rispetto alla correzione per la risposta
spettrale. Nel confronto tra le matrici ottenute per questo radiometro, pertanto, le differenze rilevate sono
essenzialmente da ricondursi alle differenze tra le risposte spettrali.
Dai dati riportati in tabella si evince che le differenze tra le matrici sono significativamente minori rispetto
a quelle ottenute tra le SRF. La riduzione è dovuta al fatto che lievi variazioni nella misura delle SRF non
influiscono significativamente sui valori assunti dai coefficienti delle matrici, essendo tali variazioni molto
minori rispetto alla differenza tra le SRF dei radiometri e lo spettro ad azione eritemale CIE.
CONCLUSIONI
L’impiego di radiometri a banda larga per la misura dell’Indice UV solare non può prescindere dalla
conoscenza della loro SRF a fini di definirne la matrice di taratura. La rapida variazione della SRF in
funzione della lunghezza d’onda rende la misura particolarmente complessa. L’elevato gradiente e la
bassa sensibilità già per lunghezze d’onda superiori a 330 nm richiedono l’utilizzo di una strumentazione
rigorosamente ‘messa a punto’. L’accoppiamento lampada-monocromatore, l’allineamento e la slit
function del monocromatore, la caratterizzazione del rumore di fondo del radiometro sono tutti parametri
che influenzano l’esito della misura.
Le misure delle SRF di 4 radiometri (3 Kipp&Zonen UV-S-AE-T e uno Yankee UVB-1) sono state effettuate
presso il Laboratorio di Arpa Piemonte e i risultati sono stati confrontati con quelli ottenuti per gli stessi
radiometri dal Laboratorio PMOD/WRC di Davos e dal Laboratorio di Kipp&Zonen. Si sono ottenute
differenze entro il 15% nell’intervallo spettrale compreso tra 280-370 nm per i radiometri Kipp&Zonen e
nell’intervallo spettrale compreso tra 280-338 nm per il radiometro Yankee, nonostante le variazioni di 3
ordini di grandezza della SRF. Le differenze rientrano nell’incertezza sperimentale e sono riconducibili
all’incertezza sull’allineamento e sulla tensione di fondo del radiometro e alla differente slit function. Per
lunghezze d’onda maggiori le differenze risultano superiori a causa della bassa sensibilità del radiometro.
Ai fini di determinare la matrice di taratura dei radiometri è inoltre opportuno misurarne la ARF e valutarne
la deviazione dalla risposta coseno. Per un radiometro Kipp&Zonen è stata effettuata questa misurazione
e interconfrontata con l’analoga ottenuta dal Laboratorio di Davos, ottenendo un ottimo accordo con delle
differenze non superiori al 5% tra 0 e 85°.
Le differenze ottenute nelle misure delle SRF e della ARF comunque non influiscono significativamente sui
valori assunti dalla matrice di taratura, come è stato evidenziato nel calcolo della matrice stessa, dove si
sono registrati scarti non superiori al 5%.
179
BIBLIOGRAFIA
1. Gröbner J, Schreder J, Kazadzis S, Bais AF, Blumthaler M, Gorts P, Tax R, Koskela T, Seckmeyer G,
Webb AR, Rembges. Traveling reference spectroradiometer for routine quality assurance of spectral
solar ultraviolet irradiance measurements. Applied Optics 2005
2. Gröbner G, Hülsen G, Vuilleumier L, Blumthaler M, Vilaplana JM, Walker D, Gil JE. Report of the
PMOD/WRC-COST Calibration and intercomparison of erythemal radiometers. 2006
3. Hülsen G., Gröbner J, Characterization and calibration of ultraviolet broadband radiometers measuring
erythamally weighted irradiance. Applied Optics, 2007
4. International Commission on Illumination (CIE). Erythema reference action spectrum and standard
erythema dose. CIE S 007/E;1998.
5. Schreder J, Gröbner J, Lox A, Blumthaler M. Intercomparison of monochromatic source facilities for
the determination of the relative spectral response of erythemal broadband filter radiometers. Optics
Letters 2004
6. World Health Organization. Global solar UV-Index. A pratical guide. Disponibile su http://www.unep.
org/PDF/Solar_Index_Guide.pdf; 2002
180
Articoli
Dosimetria numerica a bassa frequenza:
risultati preliminari di un interconfronto tra diversi software
Falsaperla R.(1), Andreuccetti D.(2), Ardoino L.(3), Barbieri E.(3), Contessa G.M.(1), Pinto R.(4), Polichetti A.(5),
Zoppetti N.(2)
1 Istituto Nazionale per l’Assicurazione contro gli Infortuni sul Lavoro, Settore Ricerca – Dipartimento Igiene
del Lavoro, Via Fontana Candida 1, 00040 Monte Porzio Catone (Roma); [email protected]
2 Consiglio Nazionale delle Ricerche, Istituto di Fisica Applicata “Nello Carrara”, Via Madonna del
Piano 10, 50019 Sesto Fiorentino (Firenze)
3 ISPRA, Servizio di Metrologia Ambientale, Via Vitaliano Brancati 48, 00144 Roma
4 ENEA, Unità Tecnica Biologia delle Radiazioni e Salute dell’Uomo, Centro Ricerche Casaccia, Via
Anguillarese 301, 00123 Roma.
5 Istituto Superiore di Sanità, Dipartimento di Tecnologie e Salute, Viale Regina Elena, 299 – 00161 Roma
INTRODUZIONE
L’approccio alla valutazione dei rischi per la salute connessi alle esposizioni ai campi elettromagnetici
sul quale vi è maggior consenso a livello internazionale si basa sul sistema delle restrizioni di base e dei
livelli di riferimento. Esso è stato recepito in Italia sia in ambito occupazionale (D.Lgs. 81/2008), sia per la
popolazione generale, seppure in questo caso limitatamente ai campi generati da sorgenti non riconducibili
né agli elettrodotti, né ai sistemi fissi delle telecomunicazioni e radiotelevisivi (DPCM 8/07/2003). Secondo
questo approccio, in prima istanza è necessario confrontare le grandezze di tipo “radiometrico”, legate
all’intensità del campo elettromagnetico imperturbato, con i rispettivi livelli di riferimento prescritti dalla
normativa. Se uno di questi livelli è superato, può essere opportuna una verifica del rispetto delle restrizioni
di base: queste coinvolgono le grandezze “dosimetriche”, cioè le grandezze fisiche indotte nel corpo del
soggetto esposto e più direttamente connesse agli effetti sanitari che si intende prevenire. La dosimetria
elettromagnetica si occupa della determinazione delle grandezze dosimetriche avvalendosi di tecniche
sperimentali, analitiche o numeriche. Queste ultime hanno mostrato le maggiori potenzialità ed hanno
portato recentemente allo sviluppo di pacchetti software commerciali che si affiancano ai programmi
messi a punto in ambiti di ricerca. La proposta di applicativi per le basse frequenze (fino a qualche
centinaio di chilohertz) è tuttora limitata e la loro diffusione scarsa: anche per questo non ne è disponibile
una validazione estesa ed esaustiva e non ne sono completamente note le condizioni di applicabilità
a situazioni particolari. Realizzare un confronto quantitativo tra i risultati ottenuti da programmi diversi
applicati a problemi standardizzati può fornire una validazione alternativa a quella sperimentale, alquanto
onerosa e non sempre possibile.
In questo contesto si inserisce il presente lavoro finalizzato ad effettuare un confronto quantitativo sui
risultati di elaborazioni dosimetriche derivate da diversi pacchetti software applicati a casi di studio
opportunamente definiti. Obiettivi primari di questo interconfronto consistono nella possibilità di dare
risposta ad una serie di esigenze tra cui:
• validare i risultati dosimetrici di ogni singolo applicativo, in modo più approfondito di quanto sia fattibile
attraverso verifiche sperimentali o confronti con soluzioni analitiche di problemi elementari;
• stabilire se – e fino a che punto – programmi distinti, applicati alla soluzione del medesimo problema,
forniscano risultati compatibili, pur facendo uso di metodi diversi per la modellizzazione delle sorgenti e/o
per la formulazione e la soluzione numerica delle equazioni di accoppiamento con l’oggetto esposto;
• ricavare indicazioni sul livello tipico di accuratezza che può caratterizzare i risultati della dosimetria
numerica.
In generale, l’interconfronto può evidenziare i punti di forza ed i limiti dei pacchetti software analizzati, in
modo da individuare gli ambiti applicativi più adatti ad ognuno di essi.
I risultati dello studio potranno, auspicabilmente, essere utili per indagare quantitativamente il rapporto tra
181
restrizioni di base e livelli di riferimento stabiliti dagli organismi protezionistici in funzione della frequenza e
delle conducibilità e quindi il margine di cautela associato ai modelli dosimetrici utilizzati dalle linee guida
internazionali (ICNIRP, 2010).
MATERIALI E METODI
Al momento l’interconfronto coinvolge tre applicativi per le basse frequenze: due commerciali (SEMCAD
X di SPEAG e EMS di CST) e uno sviluppato presso il CNR-IFAC di Firenze. Il protocollo messo a punto
per effettuare lo studio, illustrato nel dettaglio nel paragrafo seguente, si basa su un insieme di simulazioni
standardizzate applicate a geometrie semplici (sfera, cilindro, ellissoide, parallelepipedo) in modo
di assicurare la ripetibilità dei test effettuati. Si tratta di un protocollo aperto che potrà pertanto essere
esteso ad altri software eventualmente disponibili in futuro e ad altre frequenze o situazioni di esposizione
standardizzate.
GLI APPLICATIVI
I tre applicativi presi in considerazione per la dosimetria numerica alle basse frequenze, SEMCAD X (SPEAG,
2011), SPFD di IFAC (Zoppetti, 2009), EMS (CST, 2011), fanno uso della cosiddetta approssimazione
quasi-statica, applicata in maniera diversa, permettendo in questo modo una grande semplificazione delle
equazioni che descrivono l’accoppiamento tra campo elettromagnetico e soggetto esposto.
Per poter applicare l’approssimazione quasi statica si devono considerare verificate tre distinte
condizioni.
La prima condizione permette di trascurare gli effetti di propagazione e di considerare il campo elettrico ed
il campo magnetico come agenti fisici indipendenti, che danno origine a due problemi distinti: il problema
elettrico ed il problema magnetico. Tale condizione è verificata quando le dimensioni del problema, intese
come massima dimensione del teatro espositivo, sono piccole rispetto alla lunghezza d’onda.
La seconda condizione introduce un’ulteriore semplificazione del problema magnetico ed è applicabile
quando le dimensioni dell’oggetto esposto sono piccole rispetto alla profondità di penetrazione; da questa
condizione deriva che gli effetti dei campi magnetici prodotti dalle correnti indotte nei tessuti siano ridotti, e
quindi il campo magnetico applicato non sia sostanzialmente perturbato dall’oggetto esposto.
L’ultima condizione permette di semplificare il problema elettrico ed è verificata quando i tessuti
dell’organismo esposto possono essere considerati come buoni conduttori (σ>>ωε). Di conseguenza nel
soggetto esposto le correnti di spostamento sono trascurabili rispetto alle correnti di conduzione.
Per la soluzione del sistema di equazioni in regime quasi-statico, il software non commerciale SPFD
sviluppato da IFAC e il pacchetto software SEMCAD X (SPEAG) utilizzano il metodo Scalar Potential Finite
Difference (SPFD), particolarmente adatto alla soluzione dei problemi in 3D perché porta all’equazione
scalare:
dove σ è la conducibilità elettrica, φ il potenziale scalare di tipo “elettrostatico”, ω la pulsazione del campo
e AS il potenziale vettore dovuto alle sole sorgenti.
Questa equazione viene risolta per ottenere il potenziale scalare, da cui vengono calcolate le grandezze
interne (campo elettrico interno e densità di corrente).
Il pacchetto Software EMS (CST), partendo sempre dall’approssimazione quasi-statica per le basse
frequenze, utilizza invece una formulazione basata sul potenziale vettore magnetico (solutore Magneto
Quasi-Statico MQS), che porta alla soluzione dell’equazione:
dove JS è la densità di corrente delle sorgenti.
Nel caso di solidi disomogenei, come spiegato più avanti, EMS richiede l’utilizzo di un solver basato sulla
soluzione delle equazioni di Maxwell nella forma completa (solutore “Full Wave”), che include anche il
termine delle correnti di spostamento:
182
Infatti, nel caso dei solidi disomogenei, il solutore MQS non ha fornito risultati in linea con gli altri applicativi
per cui gli sviluppatori, interpellati, hanno suggerito di utilizzare il solutore “Full Wave”. Tale solutore ha
fornito risultati migliori a scapito però di una risoluzione più bassa di quella imposta nel caso dei solidi
omogenei, poiché, come prevedibile, richiede maggiori risorse di calcolo rispetto al solutore MQS, in
quanto basato sulla soluzione di un sistema con un numero maggiore di equazioni. Presumibilmente a
causa di questa ridotta risoluzione e per altri aspetti che andranno ulteriormente indagati, il solutore “Full
Wave” ha presentato delle anomalie nella distribuzione dei valori di campo elettrico interno. Per estrarre
dati congrui pertanto è stato necessario rielaborare i risultati eliminando i valori eccessivamente elevati
presenti nelle code della distribuzione, verosimilmente corrispondenti alle zone di interfaccia solido/aria.
CST si sta interessando per risolvere questo problema.
IL PROTOCOLLO
Come già evidenziato, l’obiettivo primario del protocollo consiste nell’effettuare un confronto quantitativo tra
i risultati dosimetrici, in particolare valori del campo elettrico interno, forniti dai differenti pacchetti software
disponibili. Allo scopo di testare in modo approfondito le caratteristiche tecniche dei vari pacchetti, il
protocollo si sviluppa in differenti fasi successive, nelle quali vengono via via complicati i parametri delle
simulazioni secondo il seguente schema:
Frequenze di indagine
• 1 Hz
• scaletta con progressione geometrica nelle ELF-IF, per esempio: - 50 Hz – 500 Hz – 5 kHz – 50 kHz –
500 kHz
Induzione magnetica
• sinusoidale
• ampiezza pari al livello di riferimento ICNIRP per ciascuna frequenza
• omogenea con polarizzazione lineare (salvo casi particolari)
Parametri di interconfronto
• parametri statistici (media, StDev, mediana, 99%-ile, 1%-ile, 25%-ile, 75%-ile, tutto sul campo elettrico
interno [V/m]; scarto relativo percentuale). L’1%-ile e il 99%-ile sono stati introdotti in quanto più rappresentativi dei valori estremi nella distribuzione reale dei dati, piuttosto che i valori massimo e minimo
dedotti direttamente dalle simulazioni. Tali valori sono infatti generalmente non utilizzabili in quanto
fortemente affetti da errori legati al mesh e alla gestione delle criticità da parte dei codici di calcolo. Per
lo stesso motivo il 99%-ile del valore di campo elettrico interno viene indicato dall’ICNIRP quale valore
rilevante ai fini della valutazione di conformità con le restrizioni di base per la bassa frequenza (ICNIRP,
2010)
• parametri della simulazione (discretizzazione, numero di celle, durata, etc.)
Modelli di riferimento
• prima fase: interconfronto su problemi di base aventi anche soluzione analitica, cioè con geometrie
solide semplici e strutture omogenee (tessuto muscolare)
•
•
•
•
sfera (possibilmente con diverse risoluzioni)
ellissoide di rotazione, campo parallelo all’asse di rotazione
ellissoide di rotazione, campo ortogonale all’asse di rotazione
parallelepipedo
• seconda fase: studio delle discontinuità di conducibilità (muscolo-grasso) su geometrie semplici
•
•
•
•
due sfere concentriche
due semisfere con piano di separazione ortogonale al campo
due semisfere con piano di separazione parallelo al campo
cilindro cavo con piano di separazione parallelo all’asse
• terza fase: interconfronto con modelli antropomorfi ad alta risoluzione ed elevata disomogeneità e
problemi realistici
183
•
•
•
•
VHP 2 mm campo verticale
VHP 2 mm campo orizzontale fronte-retro
VHP 2 mm campo orizzontale destra-sinistra
VHP 2 mm campo non omogeneo generato da una sorgente reale monofase standardizzata (per
esempio un crogiolo ad induzione)
dove con VHP viene indicato il modello di organismo sviluppato in seno al Visible Human Project (USNLM,
1994).
Nella stesura del protocollo era stato previsto di inserire anche il modello descritto nella norma CEI EN
62311 (CEI, 2008) ivi appositamente definito per la validazione dei codici numerici. Si è poi deciso di non
includerlo in quanto non conforme all’estrazione dei parametri statistici previsti dal nostro protocollo. Per
la validazione dei software la norma prescrive infatti uno scenario espositivo basato su un parallelepipedo
omogeneo di dimensioni dx = dy = 0,4 m, dz = 1,8 m, assunto come modello corporeo, e su un circuito
quadrato (lato 50 mm), posto ad una distanza di 10 mm di fronte al parallelepipedo, alimentato con una
corrente I = 1,0 A per simulare la sorgente di campo (Fig. 1; CEI 2008).
a. Scenario per la prova di validazione
b. Circuito di corrente posto di fronte al parallelepipedo
Figura 1 | Configurazione di prova per la validazione software
Le dimensioni relative sorgente/modello corporeo rendono del tutto inefficace tale scenario espositivo
all’estrazione dei parametri statistici previsti dall’interconfronto in quanto i dati di campo elettrico interno
risultano diversi da zero solo su una porzione molto limitata del volume del cuboide, con la conseguenza
di una notevole mole di dati di fatto non significativi, che influenzerebbero la validità dell’analisi statistica.
Al momento sono state implementate solo simulazioni afferenti alle prime due fasi. Nella prima sono state
prese in considerazione semplici strutture omogenee (sfera, ellissoide, parallelepipedo), mentre nella
seconda lo studio è stato esteso a solidi disomogenei ovvero costituiti da parti a conducibilità differente,
allo scopo di approfondire il ruolo della conducibilità e dei contrasti di conducibilità tra tessuti confinanti
sulle valutazioni di campo elettrico indotto.
Tutte le simulazioni sono state effettuate considerando un campo magnetico esterno omogeneo di 1 mT
(rms) con polarizzazione lineare e alla frequenza di 1 Hz. A questo scopo la sorgente è stata realizzata nel
caso dei software EMS e SEMCAD X simulando due bobine di Helmholtz circolari.
Per garantire un campo magnetico uniforme nel volume di interesse sono stati inizialmente posti i seguenti
parametri per il sistema di bobine:
• raggio:
1m
• corrente di alimentazione:
1110 A (rms)
Tali impostazioni, che garantiscono un’uniformità del campo magnetico dell’ordine di 10-5 nel volume di
interesse, si sono rivelate idonee per le tutte le simulazioni effettuate con SEMCAD X il cui solutore in bassa
frequenza permette di collocare la sorgente al di fuori del dominio di calcolo. Nel caso di EMS invece,
che include la sorgente nel dominio di calcolo e impone, quindi, l’espansione dello stesso per rendere
efficaci le condizioni al contorno, o si dispone di adeguate risorse di calcolo, o è necessario ridurre le
dimensioni delle bobine con la possibile conseguenza di un peggioramento del grado di uniformità del
campo magnetico nel volume di interesse. Avendo a disposizione due licenze del software EMS (ENEA e
184
INAIL) e una piattaforma con ingenti risorse di calcolo solo presso la sede ENEA, le simulazioni con EMS
sono state effettuate con le bobine di raggio 1 m sulla piattaforma ENEA e con le bobine di raggio 30 cm
(r = 30 cm; I rms = 334 A) sulla piattaforma INAIL, configurazione che garantisce comunque un’uniformità
del campo magnetico dell’ordine di 10-3.
A fronte di questo aspetto, EMS mostra una certa versatilità nella scelta del “mesh” che può essere a
tetraedri (Fig.2) o esaedri (cubi), consentendo la possibilità di una migliore rappresentazione dello scenario
in funzione delle forme geometriche in gioco.
a. Mesh tetraedri sul dominio di calcolo
b. Particolare mesh tetraedri in prossimità dell’oggetto
Figura 2 | EMS. Visualizzazione della mesh tetraedri
Nel caso del software SPFD_IFAC, non essendo necessario simulare la sorgente, è stata data direttamente
in input al modello una distribuzione di campo magnetico uniforme definita ad hoc.
Ad oggi sono stati presi in considerazione i seguenti modelli di riferimento:
FASE I – Solidi omogenei
Parametri comuni alle simulazioni: f = 1 Hz; B = 1 mT; σ = 1 S/m
• Caso 1. Sfera (raggio 46 mm); campo magnetico parallelo all’asse z (Fig.3a)
• Caso 2. Ellissoide Bz (asse maggiore 46 mm; asse minore 20 mm); campo magnetico parallelo all’asse
z (Fig.3b)
• Caso 3. Ellissoide Bx (asse maggiore 46 mm; asse minore 20 mm); campo magnetico parallelo all’asse
x (Fig.3c)
• Caso 4. Parallelepipedo a base quadrata (lato di base 80 mm; altezza 40 mm); campo magnetico parallelo all’asse z (Fig.3d)
a. Caso 1. Sfera omogenea
b. Caso 2. Ellissoide omogeneo Bz
(campo orienatato lungo asse z)
185
c. Caso 3. Ellissoide omogeneo Bx
(campo orientato lungo asse x)
d. Caso 4. Parallelepipedo omogeneo
Figura 3 | Differenti modelli Fase I
FASE II – Solidi non omogenei
Due tessuti di differente conducibilità separati dal piano X = 0;
Parametri comuni alle simulazioni: f = 1 Hz; B = 1 mT; campo magnetico parallelo all’asse z
• conducibilità σ1 = 0.1 S/m (coordinate x negative)
• conducibilità σ2 = 1 S/m (coordinate x positive)
• Caso 5. Sfera (raggio 46 mm) (Fig. 4a)
• Caso 6. Cilindro disomogeneo (raggio interno 20 mm; raggio esterno 46 mm; altezza 60mm) (Fig. 4b)
a. Caso 5. Sfera disomogenea
b. Caso 6. Cilindro disomogeneo
Figura 3 | Differenti modelli Fase II
Le simulazioni EMS e SEMCAD X sono state fatte girare su piattaforme hardware che dispongono almeno
di 2 GB di RAM, ampiamente superiori a quella base richiesta dai codici (515 MB).
RISULTATI
A seguito dell’effettuazione delle simulazioni, sono state condotte sui dati di campo elettrico interno le
elaborazioni statistiche previste dal protocollo. Come valutazione dell’affidabilità dei risultati è stato scelto
un criterio di scarto relativo percentuale Sk, valutato sulla base della seguente formula per tutti i parametri
di interconfronto Ek [V/m]:
dove la variabile k si riferisce ai vari applicativi (EMS_INAIL, EMS_ENEA, SEMCAD X, SPFD_IFAC) ed
Ē[V/m] è la media sui valori di Ek.
Relativamente alla Fase I (solidi omogenei) si presentano i risultati ottenuti con SEMCAD X, IFAC e EMS
(MQS) utilizzato con le due possibili opzioni relative alle dimensioni delle bobine, in particolare EMS_INAIL
si riferisce alle simulazioni effettuate con bobine di raggio r = 30 cm, mentre EMS_ENEA a quelle effettuate
186
con bobine di raggio r = 1m (tab. 1-4).
Per quanto riguarda la Fase II (solidi disomogenei) si presentano i risultati del Caso 5 (sfera disomogenea)
derivati da SEMCAD X, SPFD_IFAC e EMS_INAIL quale esempio applicativo del solutore “Full Wave” (tab. 5).
Relativamente al Caso 6 (cilindro disomogeneo), si presentano solo i risultati di SEMCAD X e di SPFD_
IFAC in quanto quelli di EMS non si sono rivelati congrui (tab.6).
Si riportano di seguito le tabelle riepilogative dei risultati di tutti gli applicativi . I valori si riferiscono tutti al
campo E espresso in V/m.
Nel caso della sfera omogenea, che rappresenta il più semplice tra quelli esaminati, le elaborazioni
statistiche sono state calcolate anche sui dati della soluzione analitica. Nella tabella seguente si riportano
pertanto i parametri descrittivi calcolati sia sui dati dedotti dalle simulazioni che, nella colonna di destra, sui
dati della soluzione analitica (tab. 1)
Tabella 1 | Fase I - Caso 1: Risultati Sfera omogenea (in V/m)
C1 – sfera
EMS_INAIL
EMS_ENEA
SEMCAD X
SPFD_IFAC
StDev
Sol analitica
Media
distribuzione(*1)
8,56E-05
8,39E-05
8,43E-05
8,50E-05
7,40E-07
8,50E-05
Minimo(*2)
2,01E-07
1,26E-06
2,22E-06
0,00E+00
-
0
Massimo
2,36E-04
1,44E-04
1,80E-04
2,07E-04
-
1,44E-04
1%-ile (min)
1,27E-05
1,14E-05
1,10E-05
1,13E-05
7,69E-07
1,18E-05
25%-ile
(*2)
6,04E-05
5,98E-05
5,97E-05
6,04E-05
3,77E-07
6,04E-05
50%-ile (Mediana) 8,70E-05
8,66E-05
8,68E-05
8,78E-05
5,35E-07
8,79E-05
75%-ile
1,13E-04
1,12E-04
1,11E-04
1,12E-04
8,16E-07
1,12E-04
99%-ile (-> max) 1,65E-04
1,39E-04
1,40E-04
1,43E-04
1,23E-05
1,41E-04
Tabella 2 | Fase I - Caso 2: Risultati Ellissoide (in V/m)
C2 – ellissoide Bz EMS_INAIL
Media
(*1)
3,82E-05
EMS_ENEA
SEMCAD X
SPFD_IFAC
StDev
3,75E-05
3,66E-05
3,69E-05
6,87E-07
Minimo
8,02E-07
9,62E-07
6,62E-07
0,00E+00
-
Massimo
1,00E-04
1,07E-04
7,42E-05
9,04E-05
-
1%-ile (min)
7,42E-06
7,42E-06
5,08E-06
4,52E-06
1,53E-06
25%-ile
2,69E-05
2,61E-05
2,58E-05
2,59E-05
4,99E-07
50%-ile (Mediana)
3,84E-05
3,80E-05
3,80E-05
3,80E-05
1,71E-07
75%-ile
4,85E-05
4,80E-05
4,80E-05
4,85E-05
2,89E-07
99%-ile (max)
7,07E-05
6,80E-05
6,32E-05
6,42E-05
3,47E-06
Tabella 3 | Fase I - Caso 3: Risultati Ellissoide (in V/m)
C3 – ellissoide Bx EMS_INAIL
EMS_ENEA
SEMCAD X
SPFD_IFAC
StDev
Media(*1)
4,83E-05
4,75E-05
4,59E-05
4,63E-05
1,11E-06
Minimo
9,06E-07
3,41E-07
2,62E-06
0,00E+00
-
Massimo
1,78E-04
1,84E-04
1,22E-04
1,44E-04
-
1%-ile (min)
6,22E-06
7,36E-06
5,26E-06
5,64E-06
9,18E-07
25%-ile
3,26E-05
3,60E-05
2,90E-05
2,93E-05
3,28E-06
50%-ile (Mediana)
4,67E-05
4,62E-05
4,37E-05
4,36E-05
1,65E-06
75%-ile
6,47E-05
6,40E-05
6,12E-05
6,22E-05
1,61E-06
99%-ile (max)
1,06E-04
1,01E-04
9,68E-05
9,84E-05
4,07E-06
Note alle tabelle
questa Media rappresenta la media dei valori della distribuzione volumetrica del campo all’interno dell’oggetto ed
è estratta come parametro di confronto: non ha, quindi, alcun valore statistico.
(*2)
il Minimo e il Massimo sono estratti a puro titolo dimostrativo della scarsa affidabilità dovuta a diversi fattori tra cui
il fatto che spesso sono localizzati in prossimità di criticità morfologiche (superfici di discontinuità, spigoli, etc) e
quindi sono affetti da errori legati alla gestione della griglia di calcolo. Non sono pertanto utilizzati come parametro
di confronto.
(*1)
187
Tabella 4 | Fase I - Caso 4: Risultati parallelepipedo (in V/m)
C4 – parallelep
EMS_INAIL
EMS_ENEA
SEMCAD X
SPFD_IFAC
StDev
Media (*1)
8,04E-05
8,84E-05
8,75E-05
8,77E-05
3,76E-06
1%-ile (min)
1,21E-05
1,39E-05
1,40E-05
1,40E-05
9,45E-07
25%-ile
6,09E-05
-
6,64E-05
6,52E-05
2,89E-06
50%-ile (Mediana)
8,13E-05
8,91E-05
8,35E-05
8,41E-05
3,29E-06
75%-ile
1,03E-04
-
1,11E-04
1,11E-04
4,62E-06
99%-ile (max)
1,49E-04
1,63E-04
1,61E-04
1,63E-04
6,69E-06
Tabella 5 | Fase II - Caso 5: Risultati sfera disomogenea (in V/m)
C5 – sfera
EMS_INAIL
SEMCAD X
SPFD_IFAC
StDev
E (σ=1)
Media
5,40E-05
5,39E-05
5,44E-05
3,00E-07
Minimo
1,23E-06
8,31E-07
0,00E+00
-
Massimo
3,55E-04
1,46E-04
1,45E-04
-
1%-ile (min)
8,31E-06
7,52E-06
7,73E-06
4,10E-07
25%-ile
3,66E-05
3,75E-05
3,83E-05
8,33E-07
50%-ile (Mediana)
5,18E-05
5,12E-05
5,22E-05
5,28E-07
75%-ile
7,20E-05
6,98E-05
7,00E-05
1,25E-06
99%-ile (max)
1,07E-04
1,23E-04
1,08E-04
8,84E-06
E (σ=0,1)
Media
1,36E-04
1,36E-04
1,38E-04
1,14E-06
Minimo
6,17E-05
5,41E-05
4,98E-05
-
Massimo
2,41E-04
2,81E-04
3,03E-04
-
1%-ile (min)
7,96E-05
8,08E-05
8,18E-05
1,08E-06
25%-ile
1,10E-04
1,13E-04
1,15E-04
2,40E-06
50%-ile (Mediana)
1,35E-04
1,35E-04
1,37E-04
1,14E-06
75%-ile
1,57E-04
1,56E-04
1,58E-04
9,55E-07
99%-ile (max)
2,16E-04
2,15E-04
2,19E-04
2,05E-06
Tabella 6 | Fase II – Caso 6: Risultati Cilindro cavo disomogeneo (in V/m)
C6 – cilindro cavo
E(σ=1)
E(σ=0,1)
SEMCAD X
SPFD_IFAC
SEMCAD X
SPFD_IFAC
Media
4,13E-05
4,13E-05
1,90E-04
1,91E-04
1%-ile (min)
2,65E-06
2,85E-06
1,43E-04
1,39E-04
25%-ile
2,36E-05
2,41E-05
1,82E-04
1,84E-04
50%-ile (Mediana)
3,97E-05
4,04E-05
1,88E-04
1,89E-04
75%-ile
5,78E-05
5,78E-05
1,96E-04
1,98E-04
99%-ile (max)
8,65E-05
8,60E-05
2,37E-04
2,49E-04
I valori dello scarto relativo percentuale sono risultati inferiori al 10% in tutti i casi esaminati con valori
più elevati solo in corrispondenza dell’1%-ile e del 99%-ile. Inoltre, nei casi dei solidi omogenei, non si è
riscontrata in genere una differenza rilevante nei risultati ottenuti dalle simulazioni EMS effettuate con le due
differenti dimensioni delle bobine (r = 30 cm/r =1 m).
A titolo esemplificativo si riportano, nel caso della sfera omogenea, i valori dello scarto relativo percentuale
per tutti i parametri statistici, calcolati rispetto ai parametri derivati dalla soluzione analitica (tab.1) anziché,
solo in questo caso specifico, rispetto al valor medio.
188
Tabella 7 | Sfera omogenea. Scarto relativo percentuale
Media
EMS_INAIL
EMS_ENEA
SEMCAD X
SPFD_IFAC
0,7
1,3
0,8
0,0
1%-ile
7,8
3,5
6,9
4,5
25%-ile
0,0
0,9
1,1
0,0
50%-ile
1,1
1,5
1,3
0,1
75%-ile
0,7
0,2
1,1
0,2
99%-ile
16,9
1,5
0,8
1,0
DISCUSSIONE E CONCLUSIONI
Si è intrapreso un interconfronto tra applicativi per la dosimetria numerica dei campi elettromagnetici in
bassa frequenza (fino a qualche centinaio di chilohertz), strumenti necessari per la verifica delle restrizioni
di base previste dalle normative. L’attenzione è stata focalizzata sulla bassa frequenza in quanto ad oggi
meno indagata nell’ambito della modellistica numerica.
Nel lavoro presente si sono affrontati solo alcuni aspetti del protocollo previsto che, come descritto, è
molto complesso e dettagliato e sarà pertanto oggetto di studi e approfondimenti futuri.
In particolare in questa prima fase dello studio un notevole impegno è stato indirizzato ad acquisire una
maggiore conoscenza dei due software commerciali, EMS e SEMCAD X, sia da un punto di visto dell’utilizzo
che degli aspetti teorici di base. Superata questa fase iniziale si intende approfondire i risultati presentati in
questa sede utilizzando per gli stessi modelli altri parametri di valutazione, basati ad esempio sul confronto
tra i valori di campo interno estratti lungo direzioni opportunamente identificate quali i raggi della sfera, allo
scopo di analizzare con maggiore dettaglio le distribuzioni dei valori di campo all’interno degli oggetti.
E’ importante precisare che, in base alle modalità con il quale è stato definito, il protocollo presentato
risulta aperto e versatile in quanto si presta all’applicazione ad altri pacchetti software eventualmente
disponibili in futuro e a nuovi casi di studio di interesse.
Basandoci su quanto sviluppato al momento e sul calcolo dello scarto relativo percentuale, i risultati ottenuti
dai vari applicativi nel caso dei solidi omogenei si rivelano coerenti tra loro (vedi tab.7). Il caso della sfera
omogenea inoltre ha evidenziato un ottimo accordo anche con la soluzione analitica.
Per quanto riguarda i casi dei solidi disomogenei, i risultati forniti dai due software SEMCAD X e SPFD_
IFAC risultano congrui in entrambi i casi di studio affrontati. L’interconfronto si è rivelato quindi un buon
indicatore della coerenza tra i due applicativi basati sullo stesso metodo (SPFD), risultando uno strumento
di validazione reciproca.
Relativamente al software EMS è stato necessario utilizzare due solutori diversi. Per i solidi omogenei i
risultati si rivelano congrui con il solutore in bassa frequenza MQS (magneto quasi-statico).
Nei casi disomogenei, l’applicazione del solutore “Full Wave”, suggerito dagli sviluppatori quale alternativa
al solver MQS, migliora la qualità dei risultati ma comporta una richiesta di risorse di calcolo più elevata a
scapito della risoluzione imponibile e rivela delle complessità che necessitano un approfondimento di cui
CST si sta occupando.
Nell’insieme i risultati di questo studio, una volta completato il protocollo, contribuiranno quindi a valutare
le potenzialità e le eventuali limitazioni dei programmi analizzati e lo stato dell’arte ad oggi della dosimetria
numerica in bassa frequenza.
BIBLIOGRAFIA
1. CEI Comitato Elettrotecnico Italiano CEI EN 62311: Valutazione degli apparecchi elettronici ed elettrici
in relazione ai limiti di base per l’esposizione umana ai campi elettromagnetici (0 – 300 GHz) (2008)
2. CST - Computer Simulation Technology CST EM STUDIO® Static and low frequency design and
analysis (2011) Darmstadt Germany
3. ICNIRP - International Commission on Non-Ionizing Radiation Protection: GUIDELINES FOR LIMITING
EXPOSURE TO TIME-VARYING ELECTRIC AND MAGNETIC FIELDS (1 Hz TO 100 kHz) (2010), Health
Physics, Vol. 99, 6:818-836
4. SPEAG SEMCAD X v14.6 User Manual (2011) Zürich Switzerland
5. USNLM. The Visible Human Project ®. Internet resource at
http://www.nlm.nih.gov/research/visible/visible_human.html, (1994) U.S. National Library of Medicine
189
6. Zoppetti N. and Andreuccetti D. Review of open problems in assessing compliance with 2004/40/EC
Directive exposure limit values for low frequency current density by means of numerical techniques
(2009) Radiation Protection Dosimetry Vol.137, 3-4: 247-251
190
Domanda di iscrizione all’AIRP
Al Presidente dell’AIRP
Il sottoscritto
Titolo di studio
nato il
residente in
CAP
via
tel. ab.
tel. uff.
tel. cellulare
e-mail
fax
altro eventuale recapito per posta AIRP:
città
CAP
via
• ha preso visione degli artt. 2, 7, 8, 9 dello Statuto e degli artt. I, II, III, IV del Regolamento AIRP
• dichiara di svolgere la seguente attività nel campo della radioprotezione:
in qualità di
presso la seguente struttura
• allega curriculum vitae
• chiede di far parte dell’Associazione Italiana di Radioprotezione (AIRP) in qualità di
SOCIO ORDINARIO
SOCIO AGGREGATO
A tal fine è presentato dai seguenti soci ordinari AIRP regolarmente iscritti (nome e cognome in stampatello):
1)
Firma
2)
Firma
In caso di accettazione della presente domanda, il sottoscritto s’impegna a osservare lo Statuto e il
Regolamento dell’AIRP, di cui ha preso doverosa conoscenza.
Nota - Il testo della presente domanda di iscrizione, dello Statuto e del Regolamento sono disponibili sul
sito www.airp-asso.it
Data
Firma
INFORMATIVA PER LA TUTELA DELLA PRIVACY
I dati personali contenuti nella domanda verranno trattati nel rispetto di quanto stabilito dalla Legge 196/2003 “Codice
in materia dei dati personali”.
In caso di ammissione alla Associazione l’indirizzo verrà usato per inviare le comunicazioni riguardanti la attività dell’Associazione e il Bollettino. Inoltre verrà inserito nell’elenco da fornire, dopo aver valutato la legittimità della richiesta,
ad altre Associazioni, Enti o Ditte per la diffusione di notizie scientifiche o materiale informativo di interesse specifico. I
dati potranno essere cancellati o rettificati in ogni momento su richiesta
Firma per consenso
Scarica