2012 Anno XXXIX | volume 171 | numero 3,4 | agosto 2012 |ISSN 1591-3481 | e-ISSN 2281-180X bollettino IRPA Associazione Italiana di Radioprotezione IRPA Anno XXXIX Volume 171 n. 3, 4 - agosto 2012 Associazione Italiana di Radioprotezione ISSN 1591-3481 | e-ISSN 2281-180X Associazione Italiana di Radioprotezione AIRP Editoriale affiliata alla International Radiation Protection Association (IRPA) Sovrapposizione delle tracce nei dosimetri a tracce nucleari: caratterizzazione della risposta ad elevate concentrazioni di Radon D. Franci, F. Cardellini, T. Aureli....................................................................................... 7 Consiglio Direttivo 2010 | 2012 Sandro Sandri, Presidente Marie Claire Cantone, Vicepresidente Mauro Magnoni, Segretario Claudia Fontana, Tesoriere Daniele Giuffrida Sabrina Romani Rosabianca Trevisi 2012 Direttore responsabile Marie Claire Cantone bollettino Comitato di redazione Daniela de Bartolo Francesco Mancini G. d’Amore e M. Magnoni ............................................................................................... 3 Radiazioni Ionizzanti | Articoli Aspetti tecnici e metodologici nella bonifica dal radon nelle strutture scolastiche della provincia di Lecce A. P. Caricato, M. Fernández, F. Leonardi, S. Tonnarini, R. Trevisi, T. Tunno, M. Veschetti, G. Zannoni ............................................................... 13 L’influenza di un disegno campionario preferenziale sulle statistiche aggregate per aree territoriali: il caso delle campagne di misura della concentrazione di radon indoor in Lombardia R. Borgoni, D. de Bartolo............................................................................................... 21 Sistemi informativi territoriali: studio dei parametri correlati alla distribuzione di radon indoor in Friuli Venezia Giulia C. Giovani, M. Garavaglia, S. Pividore, F. Cucchi, L. Zini .............................................. 29 Aspetti di radioprotezione nell’ambito delle gammagrafie industriali C. Giovani C., M. Garavaglia, P. Di Marco, L. Piccini .................................................... 37 Misure di 90Sr per effetto Cerenkov impiegando un rivelatore a scintillazione liquida: possibile utilizzo in caso di emergenza nucleare M.C. Losana, G. Garbarino, M. Magnoni ....................................................................... 43 Misura dell’attività alfa-beta totale nelle acque mediante LSC: influenza dello spillover e ottimizzazione dei parametri sperimentali M. Forte, R. Rusconi, P. Badalamenti., S. Costantino, D. Lunesu ................................. 51 Tipografia Pixart Printing Accumulo di radionuclidi naturali ed artificiali in formazioni crioconitiche di alcuni ghiacciai delle Alpi Occidentali M. Faure Ragani, C. Operti, G. Agnesod, S. Bertino, G. Garbarino, M. Magnoni, M. Ghione .......................................................................... 59 Progetto grafico MV Comunicazione, Milano Modello per la stima delle concentrazioni alfa totale e beta totale nel particolato atmosferico in situazioni di emergenza L. Albertone, L. Porzio .................................................................................................... 65 Per informazioni e corrispondenza T 02 50317212 F 02 50317630 Radiazioni Non Ionizzanti | Articoli Registrazione del Tribunale di Milano n. 228 del 10 aprile 2008 Distribuzione gratuita ai soci AIRP Tutti i soci dell’AIRP sono vivamente invitati a contribuire al Bollettino inviando articoli, commenti, recensioni, notizie e informazioni su argomenti di specifico interesse per la radioprotezione. I contributi dovranno essere firmati dall’autore o dagli autori. Gli articoli pubblicati riflettono esclusivamente le opinioni degli autori. Strumenti e metodi a baso costo per monitoraggio selettivo dell’esposizione umana a segnali Wi-Fi A. Rodríguez de la Concepción, D Renga, R. Stefanelli, D. Trinchero .......................... 75 Misure di campo elettrico da stazioni radio base UMTS e analisi della relazione con la potenza in antenna M. Mathiou, V. Bottura, M. Cappio Borlino, D. Vaccarono, S. D’Elia, S. Adda ............... 81 Stima del rischio di superamento del valore di attenzione sulla base di misure spot di campo magnetico generato da linee ad alta tensione S. Adda, E. Caputo, L. Anglesio, G. d’Amore, ............................................................... 91 In copertina | Copertine storiche del Bollettino A.I.F.S.P.R. del 1974. Monitoraggio nel dominio dei codici di celle UMTS/HSPA e misura del parametro ρCA A. Barellini, G. Licitra, A. Pinzauti, A. M. Silvi .................................................................. 97 Modelli semplificati per la dosimetria elettromagnetica in regime quasi-stazionario Bottauscio O., Chiampi M., Zilberti L. .......................................................................... 103 Il fattore di rischio ambientale da radiazione solare UV-A B. H. Petkov, C. Lanconelli, V. Vitale, C. Tomasi, E. Gadaleta, M. Mazzola, A. Lupi, M. Busetto .............................................................. 111 Esposizione occupazionale a campi magnetici con forma d’onda complessa: tre casi studio in ambito industriale e sanitario N. Zoppetti, D. Andreuccetti, A. Bogi, I. Pinto ............................................................. 119 Intervento di mitigazione su una linea a 132 kV nella città di Pisa e riduzione dell’esposizione della popolazione N. Colonna, G. Licitra .................................................................................................. 127 Metodi e procedure per l’analisi di emissioni elettromagnetiche generate da impianti HVDC M. Borsero, O. Bottauscio, M. Chiampi, G. Crotti, L. Zilberti ....................................... 135 Metodi di indagine per studi epidemiologici di coorte di popolazioni esposte a livelli elevati di campo magnetico a 50 Hz L. Fazzo, A. Polichetti, P. Comba................................................................................. 143 Circuito d’Interconfronto ISPRA IC015 Misure selettive di campi elettromagnetici ad alta frequenza: Analisi dei fattori d’influenza attraverso l’elaborazione statistica dei risultati L. Ardoino, E. Barbieri, S. Barbizzi, L. Anglesio, G. d’Amore, A.M. Silvi ....................... 149 Misure mediante dosimetria a polisolfone per la quantificazione dell’esposizione individuale alla radiazione solare ultravioletta G. R. Casale, A. M. Siani, S. Modesti, H. Diémoz, G. Agnesod, A. Colosimo ............. 157 Risultati della prima campagna di interconfronto italiana di strumentazione per la misura della radiazione ultravioletta solare H. Diémoz, A. M. Siani, G. R. Casale, A. di Sarra, B. Serpillo, B. Petkov, S. Scaglione, A. Bonino, S. Facta, F. Fedele, D. Grifoni, L. Verdi, G. Zipoli ........................................................ 165 Caratterizzazione di radiometri ultravioletti solari a banda larga presso il Laboratorio di Ottica dell’ARPA Piemonte e interconfronto con altri laboratori europei S. Facta, S. Saudino Fusette, A. Bonino, H. Diemoz, M. Vaccarono, L. Anglesio, G. d’Amore, J. Gröbner.................................................... 171 Dosimetria numerica a bassa frequenza: risultati preliminari di un interconfronto tra diversi software R. Falsaperla, D. Andreuccetti, L. Ardoino, E. Barbieri, G.M. Contessa, R. Pinto, A. Polichetti, N. Zoppetti...................................................... 179 Editoriale Questo numero del Bollettino AIRP è completamente dedicato al V° Convegno Nazionale sul Controllo Ambientale degli Agenti Fisici, organizzato da Arpa Piemonte, assieme ad AIRP, che si è tenuto a Novara nei giorni 6, 7 e 8 giugno 2012. Si tratta di un evento, giunto ormai alla sua V edizione, che periodicamente coinvolge la comunità scientifica nazionale che si occupa del monitoraggio e dello studio degli agenti fisici in campo ambientale. In occasione di questi Convegni, esperti che lavorano nelle ARPA (Agenzie Regionali per la Protezione dell’Ambiente), nelle Università e negli Enti di controllo e ricerca nazionali (ISPRA, ENEA, ISS, INAIL, CNR, ecc.) trovano l’occasione per un incontro informale dove dibattere liberamente, al di fuori dei rispettivi ruoli, assieme agli aspetti più strettamente scientifici, anche le non meno importanti questioni pratiche di applicazione e interpretazione delle norme di legge. Per Arpa Piemonte che ha “lanciato”, nell’ormai lontano 2001, la prima edizione di questa serie di Convegni, è motivo di profonda soddisfazione aver trovato un partner come AIRP che ha creduto nella validità della proposta scientifica e si è quindi resa disponibile a condividere l’impegno organizzativo e anche, diciamolo pure, il rischio economico, sempre presente, soprattutto di questi tempi, quando si organizzano eventi di questo tipo. Per fortuna, tutto è andato per il verso giusto. Il successo dell’iniziativa sul piano numerico è stato notevole, con il raggiungimento di più di 200 iscrizioni, e anche l’aspetto scientifico non ha deluso le aspettative. Siamo quindi molto soddisfatti che AIRP abbia voluto ulteriormente valorizzare questa esperienza accettando di ospitare nel proprio Bollettino una selezione dei lavori presentati a Novara. I lavori scelti sono stati selezionati non solo sulla base dell’interesse e della rilevanza scientifica e innovativa dei contenuti, ma ovviamente anche per la loro aderenza agli scopi di una rivista, quale il Bollettino AIRP, che tratta tematiche inerenti la protezione dalle radiazioni. La valutazione è stata pertanto ristretta al solo sottoinsieme dei lavori presentati al Convegno che riguarda le radiazioni ionizzanti e non ionizzanti. Per questi temi si sono inoltre privilegiati i contributi più orientati al mondo del sistema delle Agenzie per l’Ambiente al quale, in via principale, si rivolge il Convegno. Quest’ultimo criterio di scelta si palesa in modo evidente osservando il maggior peso che, in questa pubblicazione, hanno le radiazioni non ionizzanti rispetto alle radiazioni ionizzanti che, per ovvi motivi, tradizionalmente sono di solito al primo posto in gran parte delle iniziative AIRP. Come sempre in questi casi, la scelta degli articoli non è stata agevole e lo spazio limitato ha purtroppo imposto l’esclusione di molti lavori di sicuro interesse. Crediamo tuttavia che in questa pubblicazione siano rappresentate in modo efficace una buona parte delle più importanti attività di sviluppo e ricerca realizzate in campo nazionale sui metodi di misura e sui modelli di simulazione finalizzati alla protezione ambientale da radiazioni. I temi trattati spaziano su un’area di interesse molto vasta. Si va dalle problematiche della misura e della mappatura del radon sul territorio, ai metodi di misura della radioattività ambientale in situazione di emergenza, alle tecniche di analisi dei segnali digitali utilizzati nelle telecomunicazioni, alla valutazione degli effetti indotti da elettrodotti e dalla componente ultravioletta della radiazione solare. Crediano che tutti questi temi, oggetto degli studi presentati a Novara, possano essere di sicuro stimolo e interesse per tutti i soci AIRP e per tutti i tecnici e gli esperti che lavorano nel vasto campo della radioprotezione. Giovanni d’Amore e Mauro Magnoni 3 Radiazioni Ionizzanti Articoli Sovrapposizione delle tracce nei dosimetri a tracce nucleari: caratterizzazione della risposta ad elevate concentrazioni di Radon Daniele Franci (1), Francesco Cardellini (2), Tommaso Aureli (1) ARPA Lazio Sezione Provinciale di Roma, Via G. Saredo 52, 00173 Roma, [email protected] ENEA C.R. Casaccia, Via Anguillarese 301, 00123 S. Maria di Galeria (RM), francesco.cardellini@ casaccia.enea.it (1) (2) INTRODUZIONE La tecnica di misura passiva dei livelli di Radon mediante rivelatori a tracce nucleari (Khan, 1983) è la più utilizzata per il monitoraggio di locali indoor. I costi contenuti, la semplicità di installazione e il minimo ingombro dei rivelatori sono le caratteristiche che hanno contribuito ad elevare tale tecnica al livello di standard internazionale per misure integrate nel tempo. A fronte di tanti vantaggi, tuttavia, i rivelatori a tracce nucleari presentano anche diverse limitazioni che possono inficiare l’accuratezza dei risultati ottenuti. Lo svantaggio principale è rappresentato dalla non linearità della risposta dei rivelatori ad elevati valori di esposizione al Radon (Guedes, 1998). All’aumentare dell’esposizione, infatti, si osserva una progressiva sovrapposizione delle tracce prodotte dalle particelle alfa. Al fine di evitare sottostime accidentali del livello di Radon misurato è quindi necessaria una accurata caratterizzazione della risposta dei rivelatori nelle diverse condizioni operative di utilizzo. Lo studio effettuato mira alla determinazione della risposta dei rivelatori a tracce nucleari di tipo CR-39 a diversi valori di esposizione. La comprensione e correzione dell’effetto della sovrapposizione delle tracce è fondamentale in quanto il fenomeno si manifesta in molte situazioni di tipo pratico. A titolo di esempio si consideri che una misura di 6 mesi in un ambiente con concentrazione media di Radon pari al livello di azione imposto dal D.L. 241/2000 (500 Bq/m3) produce un’esposizione di oltre 2000 kBqh/m3, valore per cui gli effetti di sovrapposizione possono portare a una sottostima del risultato di oltre il 10%. A partire da considerazioni di tipo teorico si dimostrerà l’inefficacia di una semplice risposta di tipo lineare nel caso di elevate esposizioni. A supporto delle considerazioni teoriche verrà presentato uno studio effettuato attraverso simulazioni Monte Carlo. Infine verranno presentati i risultati della caratterizzazione di un lotto di rivelatori CR-39, effettuata mediante 6 diverse esposizioni certificate in camera Radon presso l’INMRI-ENEA del C.R. Casaccia. SOVRAPPOSIZIONE DELLE TRACCE Per bassi valori di esposizione al Radon, la relazione che lega la densità di tracce rivelate al valore di esposizione in kBqh/m3 è del tutto assimilabile ad una retta. All’aumentare del valore di esposizione ci si aspetta una deviazione dalla linearità sempre più crescente a causa di una progressiva riduzione della porzione di rivelatore disponibile per l’identificazione di nuove tracce. Infatti la probabilità che una nuova traccia possa sovrapporsi ad altre precedentemente rivelate cresce all’aumentare della densità totale delle tracce. Seguendo la trattazione esposta in (Lopez-Coto, 2011) e limitandoci a considerare esclusivamente sovrapposizione tra coppie di tracce, la relazione tra la densità di tracce rivelate e l’esposizione vera può essere parametrizzata attraverso un polinomio di secondo ordine. Il modello teorico prevede inoltre che due tracce sovrapposte vengano registrate dal sistema di acquisizione sempre come una traccia unica. Il punto di partenza è la probabilità che una nuova traccia si sovrapponga ad una precedentemente rivelata, definita in (eq. 1) (1) dove σ rappresenta l’area media delle tracce, S0 la porzione di superficie del rivelatore non disponibile per l’identificazione delle tracce, dVERA è la densità di tracce, γ è la sensibilità del rivelatore espressa in densità di tracce per unità di esposizione e α un fattore di proporzionalità. Come mostrato in (eq. 1), la probabilità di sovrapposizione cresce all’aumentare del numero di tracce rivelate e dipende dalla dimensione media 7 delle tracce stesse (parametro, quest’ultimo, fortemente influenzato dalle condizioni di etching). A partire da (eq. 1) si può definire una efficienza di rivelazione dovuta all’effetto di sovrapposizione (eq. 2) (2) La densità di tracce misurata sarà legato al valore vero dalla relazione definita in (eq. 3) (3) comprende l’effetto delle interazioni di ordine superiore al secondo. Per valori di esposizione dove non eccessivamente elevati, (eq. 3) indica che la relazione tra densità di tracce misurata ed esposizione vera è bene approssimata da una parabola. Nei prossimi paragrafi applicheremo la relazione teorica appena ottenuta a dati provenienti da una simulazione Monte Carlo e a dati sperimentali ottenuti tramite esposizioni a sorgenti certificate in camera Radon. SIMULAZIONE MONTE CARLO Per validare le considerazioni teoriche esposte nel precedente paragrafo, è stata effettuata una simulazione Monte Carlo che riproduce l’aspetto di rivelatori CR-39 esposti a diversi livelli di Radon, dopo il processo di etching. Per semplificare la simulazione, si è assunto che tutte le particelle simulate incidessero ortogonalmente la superficie del rivelatore, producendo tracce perfettamente circolari. Il raggio delle tracce prodotte è estratto in maniera casuale secondo una distribuzione gaussiana centrata a 22 μm (che equivale al raggio medio delle tracce osservate nei CR-39 sviluppati nel laboratorio radiometrico della Sezione di Roma) e larga 5%. Sono stati simulati cinque CR-39 per diversi valori di esposizione: 410, 911, 2042, 4020, 5987, 8673, 10000, 13000, 17000, 20000 kBqh/m3. E’ stata considerata un’incertezza dal 5% sul valore nominale di esposizione. Un esempio dell’output della simulazione - un rivelatore CR-39 per ogni valore di esposizione - è riportato in (fig. 1). Figura 1 | Simulazione Monte Carlo di CR-39 esposti a 410, 911, 2042, 4020, 5987, 8673, 10000, 13000, 17000, 20000 kBqh/m3. I rivelatori simulati sono stati analizzati con ImageJ (Abramoff, 2004), un software gratuito per l’elaborazione delle immagini, il quale implementa un algoritmo per il conteggio delle tracce che permette di simulare in maniera realistica il processo di analisi a cui vengono sottosti i veri rivelatori CR-39. I risultati della simulazione Monte Carlo sono presentati in (tab. 1). 8 Tabella 1 | Risultati della simulazione Monte Carlo Esposizione nominale [kBqh/m3] Densità di tracce [#/mm2] Incertezza [#/mm2] 410 11.60 1.44 911 22.75 1.31 2042 44.98 3.24 4020 65.46 2.44 5987 67.94 2.44 8673 59.33 3.07 10000 51.03 2.34 13000 32.77 2.12 17000 12.90 2.42 20000 5.95 0.63 I risultati della simulazione Monte Carlo sono stati interpretati per determinare la relazione che lega il valore di esposizione reale alla densità di tracce misurata. L’andamento dei dati ottenuti dalla simulazione (fig. 2) mostra una relazione pressoché lineare per valori di esposizione molto bassi. All’aumentare dell’esposizione la risposta si discosta sensibilmente dalla linearità per effetto del fenomeno della sovrapposizione, e la densità misurata cresce fino a raggiungere un massimo assoluto in corrispondenza del cosiddetto valore di esposizione critica. Per esposizioni ancora superiori, la densità misurata decresce poiché l’effetto geometrico della sovrapposizione predomina sull’aumento del numero di tracce individuali prodotto da esposizioni più elevate. Figura 2 | Andamento dell’esposizione misurata in funzione dell’esposizione reale estrapolato dai dati ottenuti dalla simulazione Monte Carlo. La relazione di calibrazione è stata determinata attraverso un fit ai dati mostrati in (fig. 2), utilizzando l’espressione riportata in (eq. 3). Come precedentemente discusso, un polinomio di secondo ordine descrive accuratamente l’andamento fino a quando gli effetti della sovrapposizione a tre tracce possono essere considerati trascurabili. In considerazione degli elevati valori di esposizione investigati, una semplice parabola non è sufficiente per descrivere l’andamento nell’intero intervallo studiato. Per questo motivo sono stati considerati tre diversi intervalli di fit e per ciascuno è stato utilizzato un polinomio di ordine differente: 9 • polinomio di 4° ordine per [0 kBqh/m3 , 20000 kBqh/m3]; • polinomio di 3° ordine per [0 kBqh/m3 , 13000 kBqh/m3]; • polinomio di 2° ordine per [0 kBqh/m3 , 5987 kBqh/m3]. I risultati dei fit e i diversi intervalli di esposizione considerati sono presentati in (fig. 3), mostrando un eccellente accordo tra i dati e l’andamento teorico. Come previsto, l’ordine del polinomio da utilizzare cresce all’aumentare dell’intervallo di valori di esposizione che vengono considerati. Limitandoci alle sole sovrapposizioni tra due tracce, si può notare che una semplice curva di calibrazione del secondo ordine fornisce risultati accurati in un intervallo di valori di esposizione che si estende fino a circa 5000 kBqh/m3. A titolo di esempio, si consideri che tale valore corrisponde a un’esposizione di un anno in un ambiente con una concentrazione di Radon costante di circa 570 Bq/m3, valore superiore ai 500 Bq/m3 corrispondenti al livello di azione nei luoghi di lavoro imposto dal D.L. 241/2000. Figura 3 | Curve di calibrazione. Curve di calibrazione ottenute da fit ai dati con polinomi di 2°, 3° e 4° grado. CARATTERIZZAZIONE DEI RIVELATORI CR-39 La caratterizzazione della risposta di un lotto di rivelatori CR-39 è stata effettuata esponendo gruppi di rivelatori a diverse concentrazioni note di Radon. Le esposizioni certificate sono state effettuate all’interno della camera Radon presso l’Istituto Nazionale di Metrologia delle Radiazioni Ionizzanti (INMRI), presso il C.R. ENEA-Casaccia. I rivelatori utilizzati hanno dimensioni di 1 cm x 1 cm e sono assemblati all’interno di una camera di diffusione di tipo RSKS, costruiti e commercializzati dalla Radosys Ltd (fig. 4). Figura 4 | Rivelatori Radosys di tipo RSKS Dettaglio della camera di diffusione di tipo RSKS della Radosys Ltd. 10 Sono state eseguite sei misurazioni a diversi valori di esposizione (410, 911, 2042, 4020, 5987, 8673 kBqh/m3) e per ciascuna di esse sono stati utilizzati quattordici rivelatori: dieci esposti all’interno della camera Radon e quattro utilizzati come transiti. Subito dopo l’esposizione i rivelatori sono stati sviluppati attraverso un protocollo di etching che prevede l’utilizzo di una soluzione di NaOH al 25% a 90 °C per 4 ore. Successivamente i rivelatori CR-39 sono stati analizzati attraverso un microscopio a luce trasmessa dotato di un sistema di lettura automatica delle tracce. I risultati delle sei esposizioni sono riportati in (tab. 2). Tabella 2 | Risultati della caratterizzazione dei rivelatori CR-39 Esposizione certificata [kBqh/m3] Densità di tracce [#/mm2] Incertezza [kBqh/m3] Esposizione corretta [kBqh/m3] 410 11.31 0.45 395.35 911 25.55 0.28 926.07 2042 52.14 0.44 2051.84 4020 88.11 0.56 4109.89 5987 105.96 0.69 5878.89 8673 109.72 1.02 8628.4 I risultati della caratterizzazione dei rivelatori CR-39 sono riportati in (fig. 5). Da notare che le misure sperimentali non possono essere confrontate direttamente con le simulazioni Monte Carlo, in quanto sono stati utilizzati algoritmi differenti per l’identificazione delle tracce. Il polinomio utilizzato per il fit è del secondo ordine e l’eccellente accordo con i dati sperimentali conferma che la sovrapposizione a due tracce continua a essere l’effetto predominante per valori di esposizione oltre gli 8000 kBqh/m3. L’accordo tra relazione teorica e dati sperimentali dimostra inoltre che l’utilizzo di una funzione di calibrazione del secondo ordine garantisce risultati molto più accurati rispetto a una semplice relazione di tipo lineare (retta verde). A titolo di esempio, considerando una densità di tracce rivelate di 40, 60 e 80 tracce/mm2, la sottostima del risultato ottenuto assumendo una risposta lineare è rispettivamente del 4.7%, 10% e 16%. A causa della natura quadratica della funzione di calibrazione, essa fornisce risultati attendibili fino al valore di esposizione critica, che per il lotto di rivelatori preso in esame è 7607 kBqh/m3. Il risultato può considerarsi molto soddisfacente se si considera che un simile valore di esposizione corrisponde a un anno di monitoraggio a una concentrazione costante di Radon pari a circa 850 kBqh/m3. Figura 5 | Caratterizzazione dei rivelatori CR-39. Curva di calibrazione dei rivelatori CR-39 confrontata con l’ipotetica risposta lineare. 11 Al fine di validare la consistenza del metodo di calibrazione, è stato confrontato il valore del raggio medio delle tracce rivelate estratto dal fit – parametro σ in (eq. 3) - con quello ottenuto per via diretta, analizzando le immagini del microscopio con il software ImageJ. L’eccellente accordo riscontrato – 19 μm attraverso il fit contro 22 μm dalla procedura diretta – fornisce un’ulteriore evidenza della bontà del metodo esposto. CONCLUSIONI E STUDI FUTURI A causa dell’effetto geometrico dovuto alla progressiva sovrapposizione delle tracce, la risposta dei rivelatori a tracce nucleari si discosta dalla linearità in maniera più marcata all’aumentare del valore di esposizione di Radon. Questo lavoro presenta uno studio teorico e sperimentale del meccanismo di sovrapposizione delle tracce nei rivelatori CR-39. Partendo da considerazioni di tipo teorico, si è dimostrato che la risposta dei rivelatori può essere parametrizzata attraverso funzioni polinomiali. A dimostrazione di ciò, sono state preparate una serie di simulazioni Monte Carlo di rivelatori esposti a diversi livelli di Radon. I risultati delle simulazioni hanno mostrato un eccellente accordo con il modello teorico previsto. L’ipotesi iniziale di risposta di tipo polinomiale è stata utilizzata anche per la caratterizzazione dei rivelatori CR-39 e la determinazione della curva di calibrazione. I dati sperimentali, ottenuti attraverso esposizioni certificate in camera Radon, si accordano perfettamente con un polinomio del secondo ordine, i cui parametri sono stati determinati attraverso un fit ai minimi quadrati. La curva di calibrazione così ottenuta consente di fornire risultati affidabili per valori di esposizione oltre i 7500 kBqh/m3, evitando sottostime accidentali dei risultati dovute all’effetto della sovrapposizione. Ulteriori studi sono in corso per estendere l’intervallo di utilizzo dei rivelatori CR-39 e, al tempo stesso, ridurre l’incertezza associata alla misura dovuta al fenomeno della sovrapposizione. Il metodo è basato su una curva di calibrazione in due dimensioni, utilizzando la densità di tracce rivelata e una nuova grandezza che ha il vantaggio di essere funzione monotona crescente del valore di esposizione reale: la percentuale di superficie del rivelatore coperta da tracce. Gli studi preliminari effettuati (fig. 6) hanno confermato le potenzialità del metodo. Una calibrazione in due dimensioni permetterebbe infatti di aggirare la limitazione imposta dal valore di esposizione critica come massimo valore rivelabile attraverso una misura di Radon con rivelatori CR-39. Figura 6 | Calibrazione in due dimensioni dei rivelatori CR-39. Studi preliminari sull’utilizzo della percentuale di superficie coperta: andamento in funzione del valore reale di esposizione (sinistra), calibrazione in due dimensioni (destra). BIBLIOGRAFIA 1. (Khan, 1983) Khan H.A., Brandt R., Khan N.A., Jamil K., Track-registration-and-development characteristics of CR-39 plastic track detector, Nuclear Tracks and Radiation Measurements 7 129, 1983. 2. (Guedes, 1998) Guedes S., Hadler J.C., Iunes P.J., Paulo S.R. Tello C.A., On the reproducibility of SSNTD track counting efficiency, Nuclear Instruments and Methods in Physics Research A 418 429,1998. 3. (Lopez-Coto, 2011) Lopez-Coto I., Bolivar J.P., A theoretical model for the ovelapping effect in solid state nuclear tracks detectors, Nuc. Instr. and Meth. in Phys. Res. A 652, 2011. 4. (Abramoff, 2004) Abramoff M.D., Magalhaes P.J., Ram S.J., Image Processing with ImageJ, Biophotonics International 11, 2004. 12 Articoli Aspetti tecnici e metodologici nella bonifica dal radon nelle strutture scolastiche della provincia di Lecce A. P. Caricato*, M. Fernández*, F. Leonardi+, S. Tonnarini+, R. Trevisi+, T. Tunno*, M. Veschetti+, G. Zannoni§ *Dipartimento di Fisica, Università del Salento, Via Arnesano 73100 Lecce +Dipartimento di Igiene del lavoro, INAIL Settore Ricerca, Via Fontana Candida 1, 00040 Monteporzio Catone (Rm) §Dipartimento di Architettura, Università di Ferrara, via Quartieri 8, 44121 Ferrara INTRODUZIONE Un’indagine condotta negli anni passati su un campione di 438 edifici scolastici situati nella provincia di Lecce, ha evidenziato una concentrazione media di radon pari a 209±9 Bq/m3, di gran lunga superiore rispetto a quella stimata per la Puglia (52±2 Bq/m3) (Bochicchio et al., 2005). Una sintesi dei risultati della campagna è riportata nella Tabella 1. L’analisi dei dati ha mostrato che interventi tecnici di abbattimento si rendevano necessari nel 7% delle scuole del territorio, un terzo delle quali sono scuole dell’infanzia (Trevisi et al., 2009). E’ stato quindi predisposto un dettagliato protocollo di intervento, a tutt’oggi applicato in nove istituti scolastici, che vede la collaborazione tra il Dipartimento di Fisica dell’Università del Salento, il Dipartimento di Igiene del Lavoro di INAIL - Settore Ricerca e il Dipartimento di Architettura dell’Università di Ferrara. Tabella 1 | Analisi della distribuzione delle concentrazioni medie annue di radon misurate nelle scuole della provincia di Lecce in funzione dei livelli di riferimento. N. Scuole 438 N. Paesi 122 Range (Bq/m ) 21-1608 3 Media±ES (Bq/m ) 209±9 3 Mediana (Bq/m ) 146 3 Media Geom. (Bq/m ) 3 157 Dev. Std. (Bq/m ) 190 200 Bq/m3 66% 3 200-400 Bq/m3 22% 401-500 Bq/m 5% >500 Bq/m 3 3 7% Il progetto di bonifica ha inizio a seguito della richiesta inviata dall’amministrazione proprietaria dello stabile all’Università del Salento. Successivamente, a valle di un attento sopralluogo, svolto in presenza del personale dell’ufficio tecnico del comune interessato, viene presentato il progetto di intervento. Tali progetti includono tipicamente oltre all’identificazione della tecnica di intervento vero e proprio, una serie di altre azioni quali la progettazione di un protocollo per il controllo radiometrico pre e post bonifica, la predisposizione di documentazione informativa per il personale dell’ufficio tecnico (indicazioni operative da seguire nelle fase di realizzazione dell’intervento), ecc. Nel presente lavoro vengono forniti i principali elementi relativi alla bonifica dal radon realizzata su 9 edifici scolastici, le cui informazioni generali sono sinteticamente presentate nella Tabella 2. Il progetto di bonifica ha previsto una intensa attività di misurazione del radon, preliminarmente per caratterizzare meglio l’edificio ed individuare i punti sui quali intervenire, successivamente a supporto dell’intervento stesso e della sua ottimizzazione. Il protocollo sperimentale ha tenuto conto dell’esperienza maturata dai colleghi sia a livello nazionale che internazionale (Bertolo e Bigliotto, 2007; Vaupotic e Kobal, 2005, LLerena et al., 2010). 13 Tabella 2 | Descrizione del campione di scuole bonificate: a ciascun edificio è stato associato un numero identificativo (ID). Tipo di scuola – Comune ID scuola Attacco a terra Anno di costruzione Scuola dell’infanzia – Ugento 1 A platea 1981 Scuola dell’infanzia – Matino 2 A platea 1980 Scuola dell’infanzia – Surbo 3 Vespaio 1985 Scuola dell’infanzia – Giorgilorio 4 Vespaio 2004 Scuola dell’infanzia – Poggiardo 5 Vespaio 1980 Scuola dell’infanzia – Galugnano 6 Vespaio 1980 Scuola dell’infanzia – Castro 7 Vespaio 1970 Scuola Primaria – Lecce 8 Vespaio 1920 Scuola dell’infanzia – San Donato 9 Vespaio 1980 MATERIALI E METODI Metodologia di misura Il protocollo relativo alle misure di concentrazione di radon è stato suddiviso in diverse fasi, di seguito descritte: 1. monitoraggio integrato di durata semestrale con dosimetri passivi NRPS/SSI e rivelatore plastico di CR39 in tutti i locali della scuola; 2. monitoraggio con dosimetri ad elettrete nei 15 gg precedenti l’intervento di bonifica; 3. monitoraggio con dosimetri ad elettrete nei 15 gg successivi l’intervento; 4. monitoraggio in continuo con camera a ionizzazione (Alphaguard, Genitron - Germania) in un ambiente “di riferimento”; 5. monitoraggio integrato di durata annua con dosimetri passivi NRPS/SSI dopo la realizzazione della bonifica. Per quanto attiene agli aspetti tecnici inerenti la misura con dosimetri passivi a tracce nucleari, (fasi 1 e 5) i dettagli sono stati già descritti altrove (Mishra et al., 2005; D’Alessandro et al., 2010; Trevisi et al., 2011). Diversamente dalla precedente campagna di misure, il posizionamento della strumentazione è stato effettuato da personale tecnico dell’Università. Nei primi edifici in cui si è stata avviata la bonifica, le misure di radon mediante dosimetri ad elettrete (Kotrappa et al. ,1988; Kotrappa et al., 1990) sono state eseguite con coppie di dosimetri in due diverse configurazioni, SLT e LST, per apprezzare la riproducibilità della tecnica e selezionare la configurazione più appropriata per l’obiettivo da conseguire. Nel trattamento del dato sperimentale, è stato applicato il valore di fondo gamma stimato nella precedente campagna di misure mediante dosimetri a TLD (Trevisi et al., 2008). L’incertezza di misura è stata calcolata secondo quanto riportato in letteratura (Caresana et al., 2005) in accordo alla norma UNI EN ISO/IEC 17025:2008. Principali elementi di progettazione dell’intervento di bonifica A causa della tipologia di attacco a terra degli edifici scolastici, ed in alcuni casi, di vincoli architettonici, la maggior parte degli interventi finora realizzati ha utilizzato la tecnica della depressurizzazione del suolo. Solo in pochi casi si è proceduto con la depressurizzazione del vespaio. La dimensione media delle scuole in questo territorio, e in particolare nel caso di scuole dell’infanzia, è piuttosto modesta; questo ha fatto sì che mediamente siano stati realizzati 2 – 3 punti di aspirazione per 14 edificio, tenendo conto che ogni punto di aspirazione ha un raggio di azione di 6 - 8 metri. Trattandosi di edifici esistenti e data la destinazione d’uso dei locali, in genere si è scelto di intervenire solo nell’immediato perimetro esterno e mai all’interno dell’edificio, pur sapendo che questo avrebbe ridotto l’area di influenza e quindi l’efficacia finale della bonifica e avrebbe probabilmente incrementato il numero di punti di aspirazione. Per la realizzazione di questi ultimi si è proceduto come illustrato in Fig.1. Il progetto ha previsto uno scavo di 2 - 3 m di profondità, tale da oltrepassare il piano di fondazione di almeno 80 cm e l’uso di tubi in PVC (di diametro pari a 100 mm) dotati di fori di circa 30 mm su tutta la superficie aperto all’estremità inferiore, al fine di favorire al massimo l’effetto aspirante nei confronti del suolo, e collegato al ventilatore all’estremità superiore. Si è richiesto, inoltre, che le tubazioni forate fossero rivestite con materiale tipo “tessuto non tessuto” per evitare l’intasamento dei fori stessi. Lo spazio tra scavo e tubo è stato riempito di materiale incoerente (ghiaia) (Fig. 2). Figura 1 | Scavo di un pozzetto nel perimetro esterno di un edificio scolastico. In particolare è possibile osservare il rivestimento del tubo forato in “tessuto non tessuto”. Ai tubi sono stati applicati ventilatori da 85 Watt, elico-centrifughi con temporizzatori (Fig. 3): la tecnica appena descritta è collaudata e di facile adozione ma, soprattutto, particolarmente idonea alle stratificazione geologiche tipiche dell’area in oggetto, costituita in buona parte da roccia calcarea con una permeabilità superiore alla media (Trevisi et al., 2008) e nella quale l’effetto aspirante dell’impianto riesce ad agire su di un’area sufficientemente ampia. Nella fase di messa a punto sono state studiate diverse modalità di temporizzazione del funzionamento del ventilatore al fine di trovare un compromesso tra efficacia del sistema di aspirazione, costi di funzionamento e usura dell’impianto. Figura 2 | Particolare del pozzetto riempito con materiale incoerente (ghiaia) dopo il posizionamento del tubo forato. 15 Figura 3 | Particolare del ventilatore temporizzato”. RISULTATI Controllo di qualità delle misure di radon Durante la fase 1 del progetto è stato effettuato un monitoraggio semestrale esteso a tutti i locali posti al piano terra. I dati di tale monitoraggio sono stati confrontati con quelli ottenuti durante la prima indagine, nella quale erano stati misurati 3 locali scelti casualmente dal personale scolastico (Trevisi et al. 2012). Una sintesi è presentata in Tabella 3, nella quale si riportano la concentrazione media annua relativa alla prima indagine, la concentrazione media valutata nel semestre come media aritmetica dei valori dei singoli locali e il relativo range di variazione. In tutte le scuole si è riconfermata la necessità di adottare interventi di bonifica: in alcuni casi gli edifici hanno presentato una situazione abbastanza omogenea, mentre in altri si ha una forte disomogeneità dei dati. Complessivamente i valori medi annui e quelli derivanti dalla ripetizione semestrale risultano in ottimo accordo, spesso sovrapponibili se tenuto conto delle relativa incertezza. Laddove si osserva una scarsa sovrapposizione, la maggiore estensione del monitoraggio ha portato spesso a riscontrare valori medi della scuola ancora superiori (vedi scuole 2, 6, 8). Tabella 3 | Confronto dei dati relativi alle due indagini. ID Scuola Concentrazione media annua Prima campagna di misure (Bq/m3) Concentrazione semestrale prebonifica (Bq/m3) Range (Bq/m3) 1 653 ± 70 651 ± 67 473 - 881 2 648 ±19 938 ±96 875 - 1040 3 576 ± 31 541 ± 56 458 - 708 4 625 ± 60 622 ± 64 459 - 976 5 595 ±103 906 ± 93 880 - 956 6 979 ± 100 1067 ± 109 774 - 1426 7 635 ± 114 1639 ± 166 1361 - 2031 8 522 ± 71 538 ± 56 220 - 962 9 719 ± 10 578 ± 60 523 - 625 Il monitoraggio dei livelli di radon nei giorni immediatamente pre e post bonifica (fasi 2 e 3), è stato effettuato impiegando i dosimetri passivi ad elettrete: la durata della misura (15 giorni) consentiva di poter optare tra due diverse configurazioni, la SLT e la LST. Allo scopo di valutare la bontà dei dati conseguiti nelle due modalità, nelle prime scuole, in ciascun locale, sono stati posizionati due set di dosimetri ad elettrete (uno per ogni configurazione), e in uno dei locali, anche una camera a ionizzazione quale monitore di riferimento. Relativamente alla risposta delle due diverse configurazioni dei dosimetri ad elettrete possiamo considerare il grafico in Figura 4: il valore del coefficiente angolare della retta prossimo a 1 e il valore del coefficiente R2 16 (pari a 0,9996) evidenziano un ottimo grado di accordo tra i dati. Per il nostro protocollo di monitoraggio, si possono quindi ritenere le due configurazioni “equivalenti”. Inoltre, il confronto fra i valori ottenuti con gli elettreti e quelli ottenuti con il monitore di riferimento ha permesso di valutare il loro grado di accordo come evidenziato in Fig.5. Si fa presente che i dati riportati in ordinata sono la media aritmetica dei valori acquisiti con i due elettreti. I dosimetri al elettrete si confermano un ottimo “alleato” nel caso si intendano misurare contemporaneamente molti locali per tempi non troppo lunghi. Figura 4 | Correlazione dei dati di radon acquisiti con elettreti SLT, LST – Scuola 2. Figura 5 | Correlazione tra i dati di radon acquisti con dosimetri ad elettrete e il monitore di riferimento - Scuola 2. Analisi e ottimizzazione dell’intervento di bonifica Una sintesi dei valori di concentrazione di radon pre e post bonifica nelle nove scuole è riportata in Tabella 4 e il dettaglio dei dati relativi a ciascun locale è rappresentato in Figura 6. Le percentuali di abbattimento sono state calcolate nel modo seguente: Analizzando i dati medi per edificio si osserva che l’abbattimento è compreso tra il 48% e l’85%, anche se per una valutazione più accurata si attende il completamento del nuovo monitoraggio annuale. Questi risultati sono in ottimo accordo con quelli ottenuti dai colleghi in altre regioni italiane, come ad esempio nelle scuole di Bergamo (Arrigoni et al., 2011). Un’ eccezione è rappresentata dalla scuola 8 ove rimane ancora un locale con concentrazione di radon prossima a 500 Bq/m3 (497 ± 50 Bq/m3) e quattro con valori maggiori di 400 Bq/m3. 17 Tabella 4 | Confronti risultati della concentrazione di radon prima e dopo l’intervento di bonifica. Misura pre-bonifica Misura post-bonifica Concentrazione media ± DS (Bq/m3) Concentrazione media ± DS (Bq/m3) Abbattimento % 1 646 ± 160 97 ± 24 85% 2 836 ± 526 366 ± 41 56% 3 337 ± 75 140 ± 105 61% 4 995 ± 141 157 ± 55 84% 5 1163 ± 55 348 ± 16 70% 6 628 ± 194 203 ± 62 68% 7 819 ± 134 294 ± 71 64% 8 703 ± 371 362 ± 122 48% 9 984 ± 144 246 ± 116 75% Nella maggior parte dei casi le percentuali di abbattimento sono dell’ordine del 60 – 80%: le efficienze minori si sono verificate laddove gli interventi di depressurizzazione del suolo sono stati realizzati mediante l’inserimento di tubazioni verticali in posizione non baricentrica rispetto all’edificio. Questo limite è spesso legato al “fattore salvaguardia” per cui gli interventi su edifici di pregio storico architettonico sono ostacolati da problematiche relative all’invasività del percorso di uscita dell’impianto, che in certi casi può interessare prospetti soggetti a vincolo architettonico nei quali non è possibile far transitare canalizzazioni impiantistiche: questo è quanto avvenuto, ad esempio, nella bonifica della scuola 8. Ulteriori fattori che hanno influenzato una riuscita non ottimale della bonifica sono molto probabilmente da imputare alla permeabilità del terreno nella zona interessata ed al fatto che, per l’inserimento dei tubi, si è eseguito, per motivi tecnici, una “trivellazione” di diametro poco più grande di quello dei tubi stessi anziché uno scavo come di consueto. Nell’ottimizzazione della bonifica particolare attenzione è stata posta alle modalità di gestione del sistema aspirante avendo ben presente la necessità di ridurre quanto possibile i livelli di radon indoor e le esigenze di carattere economico (costi di gestione). Sono state sperimentate diverse modalità di temporizzazione degli aspiratori: in continuo, ad intervalli di circa 12 ore (notte ON, giorno OFF) e a cicli brevi (2 ore ON, 30 min OFF) come già fatto in alcune scuole lombarde (Arrigoni, 2011). Il funzionamento continuo certamente è il più efficace ma non garantisce una lunga durata dell’aspiratore: la programmazione di cicli di circa 12 ore ON/OFF si è evidenziata come la meno soddisfacente in quanto lo spegnimento per un tempo prolungato consentiva la risalita dei livelli di radon. Allo stato attuale la modalità migliore è risultata quella che prevede cicli di funzionamento ON/OFF molto ravvicinati tra loro: 30 – 60 min OFF e 2 ore di ON sono sufficienti a garantire il raffreddamento dell’aspiratore ma non la risalita del gas radioattivo. La Figura 7 mostra l’andamento orario del radon tenuto conto del funzionamento del sistema aspirante nel locale di riferimento della scuola 1: da un abbattimento del 90% ottenuto con un aspirazione continua si passa al 89% con cicli ON/OFF di 120/30 min. Nel progetto di bonifica dal radon particolare attenzione è stata posta agli aspetti economici. Relativamente ai costi di misura, la predisposizione di un accordo tra gli enti partecipanti al progetto ha fatto sì che si potesse offrire questo servizio ad un costo particolarmente favorevole. Nell’insieme le voci quotate possono essere così riassunte: a) costi di realizzazione degli interventi; b) costi di gestione. Per quanto concerne i costi di realizzazione degli interventi, in questa area essi variano tra 1600 e 1800 euro per pozzetto in funzione della difficoltà relativa alla posizione e alla natura dell’intervento stesso. Infine, per quanto attiene ai costi di gestione, quali, il consumo di energia elettrica: questi si aggirano intorno ai 100 euro/annui per ogni aspiratore ipotizzando un funzionamento in temporizzazione. 18 Figura 6 | Valori della concentrazione di radon prima e dopo la bonifica nei locali scolastici. Figura 7 | Rappresentazione degli effetti degli aspiratori sui livelli di radon nella scuola 1. CONCLUSIONI Il ciclo di misure semestrali ha confermato i dati della precedente campagna di misure di radon e la necessità di intervenire nelle scuole considerate. Un controllo di qualità delle misure ha evidenziato la riproducibilità dei dati acquisti con dosimetri ad elettrete in due diverse configurazioni e il buon accordo di entrambe con i risultati acquisti con il monitore di riferimento. L’esperienza maturata ha ulteriormente dato conferma al fatto che la bonifica dal radon richiede la predisposizione sia di un protocollo relativo alle misurazioni che di un protocollo operativo di intervento da condividere con gli uffici tecnici degli enti locali. La stretta collaborazione e supervisione ha garantito risultati più che soddisfacenti. Il progetto è stato affiancato da un’intensa attività formativa, organizzata dall’Università del Salento, rivolta verso il personale degli uffici tecnici. Nelle nove scuole, la tecnica di intervento adottata è consistita nella depressurizzazione a livello del suolo mediante la realizzazione di più punti di aspirazione: sono stati studiati gli effetti dei diversi fattori in gioco, quali la posizione verticale o orizzontale delle tubazioni, la percentuale di foratura della loro superficie, le 19 modalità di temporizzazione del funzionamento del ventilatore. Le percentuali di abbattimento ottenute variano dal 48 al 85% come media nella scuola, mentre al livello del singolo locale variano tra il 24% e il 96%. BIBLIOGRAFIA 1. Arrigoni S., Antonioli L., Capetta C., Cugini A., D’Aloja G., Di Toro M., De Bartolo D., Imbrogno P., Pezzera G., Ratti A., Romanelli M., Zannoni G. Risanamenti da radon in edifici scolastici in provincia di Bergamo. 12 - 14 Ottobre 2011, atti di AIRP - Convegno Nazionale Di Radioprotezione. CODICE AGENAS 1031-15033. 2. Bertolo A.e Bigliotto C.. Sperimentazione delle azioni di rimedio sugli edifici con alta concentrazione di gas radon nel Veneto. Febbraio 2007, rapporto conclusivo Padova, http://www.arpa.veneto.it/temiambientali/agenti-fisici/radiazioni-ionizzanti/file-e-allegati/Rapportobonifiche2007.pdf 3. Bochicchio F., Campos-Venuti G., Piermattei S., Nuccetelli C., Risica S., Tommasino L., Torri G., Magnoni M., Agnesod G., Sgorbati G., Bonomi M., Minach L., Trotti F., Malisan M.R., Gaidolfi L., Giannardi C., Rongoni A., Lombardi M., Cherubini G., D’Ostilio S., Cristofaro C., Pugliese M., Martucci V., Crispino A., Cuzzocrea P., Sansone Santamaria A., Cappai M.. Annual average and seasonal variations of residential radon concentration for all the Italian Regions. 2005, Rad. Meas. 40, pag. 686 – 694. 4. Caresana, M., Campi, F., Ferrarini, M., Garlati, L., Porta, A., Uncertainties Evaluation for Electrets Based Devices Used in Radon Detection. 2005, Radiation Protection Dosimetry 113 1 pag 64-69. 5. D’Alessandro M., Leonardi F., Tonnarini S., Trevisi R. and Veschetti M. Development of a framework of quality assurance practices for radon passive dosemeter service. 2010, J. Radiol. Prot. 30 pag.149159. 6. Kotrappa P., Depmsey J.C., Hickey J.R., Stieff L.R. An electret passive environmental 222Rn monitor based on ionization measurement. 1988, Health Physics 54 pag. 47-56. 7. Kotrappa P., Depmsey J.C., Ramsay R.W., Stieff L.R. A practical E-PERM (Electret Passive Environmental Radon Monitor) system for indoor 222Rn measurement. 1990, Health Physics 58 pag. 461-467. 8. Llerena JJ., Cortina D., Durán I., Sorribas R. An approach to the subslab depressurization remedial action in a high (222)Rn concentration dwelling. 2010, J Environ Radioact., 101(3):219-25. 9. Mishra R., Orlando C., Tommasino L., Tonnarini S., Trevisi R. A better understanding of the background of CR-39 detectors. 2005, Rad. Meas. 40, 325-328. 10. Trevisi R., Caricato A., Fernández M., Leonardi F., Luches A., Tonnarini S., Veschetti M. A survey on natural radioactivity in Schools of South-East Italy. 19-24 October 2008, Proceedings of the 12th International Congress of the International Radiation Protection Association - IRPA 12 Buenos Aires (Argentina) www.irpa12.org.ar. (CD-ROM). 11. Trevisi R., D’Alessandro M., Leonardi F., Simeoni C., Tonnarini S., Veschetti M. Campagna di misura sulla radioattività naturale nelle strutture scolastiche della provincia di Lecce: risultati delle misure di radon indoor. 28 - 30 ottobre 2009, AIRP - Atti del XXXIV Congresso Nazionale di Radioprotezione, Frascati ISBN 978-88-88648-10-1 (CD-ROM). 12. Trevisi R., Leonardi F., Tonnarini S., Veschetti M. Il programma di assicurazione di qualità del laboratorio radioattività naturale: un primo passo verso l’accreditamento ISO/IEC 17025, Atti di AIRP - Convegno Nazionale Di Radioprotezione, Reggio Calabria 12 - 14 Ottobre 2011. CODICE AGENAS 1031-15033, vol.1, p.348 – 360. ISBN 978-88-88-648-29-3. 13. Trevisi R., Leonardi F., Simeoni C., Tonnarini S., Veschetti M. A survey on natural radioactivity in schools of south Italy: results of indoor radon measurements in the province of Lecce. 2012, J Environ. Radioact. 112. 160-164. 14. UNI CEI EN ISO/IEC 17025:2008-10. Requisiti generali per la competenza dei laboratori di prova e di taratura. 15. Vaupotič J., Kobal I., Radon exposure in Slovenian kindergartens and schools. 2005, Proceedings of the 6th International Conference on High Levels of Natural Radiation and Radon Areas: Radiation Dose and Health Effects. International Congress Series, 1276, 375–376. 20 Articoli L’influenza di un disegno campionario preferenziale sulle statistiche aggregate per aree territoriali: il caso delle campagne di misura della concentrazione di radon indoor in Lombardia Borgoni R.1, de Bartolo D.2 Dipartimento di Economia, Metodi Quantitativi e Strategia d’Impresa, Università degli Studi di Milano – Bicocca, Piazza dell’Ateneo Nuovo, 1, [email protected] ARPA della Lombardia, Settore Aria e Agenti Fisici, Milano RIASSUNTO Negli ultimi anni sono state condotte dalle agenzie ambientali numerose campagne di misura volte a rilevare le concentrazioni di radon all’interno delle abitazioni e dei luoghi di lavoro con lo scopo di stimare l’esposizione ed identificare le aree a maggior probabilità di elevate concentrazioni di radon. A tale fine vengono spesso calcolate delle statistiche aggregate della concentrazione di radon indoor per le aree di interesse, ad esempio i comuni o le province. Le rilevazioni indoor sono naturalmente clusterizzate nello spazio dato che gli edifici presentano delle aggregazioni sul territorio. Inoltre le campagne di monitoraggio sono spesso disegnate in modo intenzionalmente preferenziale con una forte tendenza ad infittire le misurazioni nelle aree più esposte. La natura clusterizzata e/o preferenziale del campionamento, può impattare negativamente sulle usuali procedure di stima con effetti che vanno da inefficienze, più o meno marcate, a distorsioni sistematiche anche rilevanti. In questo lavoro, tramite un ampio studio di simulazione, è stato valutato un metodo per correggere le distorsioni indotte dalla preferenzialità del campionamento e la sua performance è stata confrontata con quella di altri metodi di stima che, sebbene usualmente utilizzati, non tengono conto di questo aspetto. I risultati ottenuti mostrano come le procedure usuali possano produrre stime anche ampiamente errate in presenza di disegni campionari preferenziali, mentre il metodo qui discusso è molto meno influenzato da questo aspetto e, in tali circostanze, risulta essere quindi preferibile. Le procedure considerate sono state applicate ai dati delle campagne di misura del radon indoor condotte da ARPA Lombardia nel 2003-04 (IReR, 2010, Borgoni et al. 2010) e 2009-2010 (Alberici et al. 2011) per stimare le concentrazioni medie di alcune province lombarde particolarmente significative. INTRODUZIONE Negli ultimi anni sono state condotte dalle agenzie ambientali numerose campagne di misura volte a rilevare le concentrazioni di radon all’interno delle abitazioni e dei luoghi di lavoro con lo scopo di stimare l’esposizione ed identificare le aree a maggior probabilità di elevate concentrazioni di radon. A tale fine vengono spesso calcolate delle statistiche aggregate della concentrazione di radon indoor per aree di interesse, quali ad esempio comuni o province. Le concentrazioni di radon indoor dipendono dalle caratteristiche costruttive, dai materiali utilizzati, dalle modalità di aerazione e ventilazione e dalle abitudini di utilizzo del singolo edificio/unità abitativa. L’impatto di molti di questi fattori è stato analizzato, sullo stesso dataset considerato nel seguito di questo lavoro da Borgoni et al. 2011. La concentrazione del radon indoor è inoltre strettamente dipendente dalla zona geografica e dalle caratteristiche geomorfologiche del sottosuolo. Questa dipendenza geografica non presenta andamenti regolari. Soprattutto in regioni estese e geofisicamente eterogenee sono infatti presenti disomogeneità locali o di larga scala legate, ad esempio, alla struttura litologica del sottosuolo, alla sua porosità, alla presenza di fratture nello stesso che possono agevolare i movimenti del gas, ma anche a fattori antropici come le tipologie architettoniche o i materiali da costruzione utilizzati. In queste condizioni, la possibilità di disporre di punti di misura uniformemente distribuiti sullo spazio permetterebbe di ottenere delle stime aggregate rappresentative della naturale predisposizione delle diverse aree a presentare elevate concentrazioni indoor dell’inquinante. In realtà, questa ideale uniformità della dislocazione spaziale dei punti di misura è raramente presente nelle campagne di monitoraggio. In primo luogo le rilevazioni indoor sono naturalmente clusterizzate nello spazio dato che gli edifici presentano 21 delle aggregazioni sul territorio. Le campagne di monitoraggio, inoltre, sono spesso disegnate in modo intenzionalmente preferenziale con una forte tendenza ad infittire le misurazioni nelle aree più esposte. Questo è dovuto a due motivi principali. Il primo, di tipo tecnico, è legato alla regola (largamente empirica) in base a cui le aree con più elevate concentrazioni sono anche quelle che manifestano maggiore variabilità nelle misure (il così detto effetto proporzionale) per cui si trova ragionevole campionare maggiormente quelle regioni in cui ci si aspetta di essere in presenza di concentrazioni più elevate per compensare, grazie alla maggior numerosità campionaria, l’eccesso di variabilità. Il secondo motivo è di tipo più pragmatico. Infatti si pensa spesso che sia meno rilevante e anche meno giustificabile rispetto all’opinione pubblica, monitorare aree in cui vi siano basse concentrazioni di radon indoor. La conseguenza del clustering naturale dovuto all’addensarsi degli edifici in alcune parti del territorio è che le stime aggregate a livello di area (per esempio le concentrazioni medie) presentano delle inefficienze (variabilità più alta di quanto si potrebbe ottenere con un disegno campionario uniformemente distribuito sullo spazio). La natura preferenziale del campionamento, invece, può indurre notevoli distorsioni sistematiche (per esempio sovra-stime, nel caso delle concentrazioni medie). La figura 1 esemplifica, tramite dei dati fittizi generati per mezzo di un elaboratore elettronico, le due situazioni. Nel grafico a sinistra (fig. 1-a) è riportato un campionamento preferenziale in cui i punti di misura si addensano sulle regioni di maggior valore della concentrazione. Nel grafico di destra (fig.1-b), invece, è riportata una clusterizzazione dei punti indipendente dai valori del campo di concentrazione. Un approccio ricorrente nello studiare l’andamento territoriale della concentrazione di radon indoor, consiste nel considerare tale concentrazione come una “variabile regionalizzata”, ovvero come una funzione aleatoria spazio-dipendente all’interno della regione di interesse: (Y(x), x∈D), dove D⊂R2. L’esempio in fig. 1 è stato simulato supponendo che il campo aleatorio fosse di tipo gaussiano con media costante, e pari a 10, su D (quadrato di lato unitario). La stima di tale valore medio ottenuta in base alla media del campione clusterizzato risulta pari a 9.82, un valore quindi molto prossimo a quello vero usato per la generazione dei dati, mentre la media aritmetica del campione preferenziale è pari 12.33, quindi il 23.3% più alta del valore che si intendeva stimare. Si tenga inoltre conto che il campione clusterizzato in questione è molto meno ampio, circa due terzi, di quello preferenziale. Nel presente lavoro sarà considerato un metodo per correggere le distorsioni indotte dalla preferenzialità del campionamento e ne sarà confrontata le performance con quella di metodi di stima usuali. Le procedure considerate saranno infine applicate ai dati delle campagne di misura del radon indoor condotte da ARPA Lombardia nel 2003-04 (IReR, 2010, Borgoni et al. 2010) e 2009-2010 (Alberici et al. 2011) per stimare le concentrazioni medie per alcune province lombarde. a b Figura 1 | Piano di campionamento preferenziale (a), piano di campionamento clusterizzato (b). I siti campionari sono rappresentati tramite punti; la superficie rappresenta il campo delle concentrazioni con le sfumature di rosso associate a valori bassi. 22 STIMA AGGREGATA DI AREA NEL CASO DI CAMPIONAMENTO PREFERENZIALE Supponendo che la variabile d’interesse, per esempio la concentrazione del radon indoor, possa essere modellizzata tramite un opportuno campo aleatorio Y=(Y(x), x∈D), l’oggetto del presente lavoro è considerare delle stime di caratteristiche aggregate sul dominio D delle traiettorie del processo spaziale Y del tipo φ=φ(D)= ∫Dg(Y(x))dx. Indicando con |D| l’area di D, tipici esempi sono: • il totale di Y sulla regione D, caso in cui g(Y(x))=Y(x) (1) g(Y(x))=Y(x)/|D| (2) • la media spaziale di Y, caso in cui • la funzione di contro-ripartizione spaziale di Y, ovvero la probabilità di ottenere valori superiori ad una soglia τ prefissata. In questo caso si ha (3) g(Y(x))=I(Y(x)>τ)/|D| dove I(A) è la funzione indicatrice dell’insieme A. Si indichi con S=(x1,…, xn), xi∈D per i=1,...n, un campione di siti e siano Y(x1),…,Y(xn) le corrispondenti misure ottenute dal campionamento. Uno stimatore della quantità Y(D)=∫DY(x)dx può essere ottenuto come con dove π(x) è chiamata la funzione di densità d’inclusione ed esprime il disegno campionario (Cordy 1993). Lo stimatore T può essere visto come la generalizzazione al caso di superfici continue dello stimatore di Horvitz e Thompson (1952), ampiamente trattato dalla letteratura del campionamento statistico. Una stima della media spaziale può allora essere ottenuta come (4) Più propriamente, dovendosi stimare una quantità aleatoria, i metodi in questione rappresentano delle previsioni spaziali sulla regione D. Figura 2 | Mosaico di Voronoi generato dal campione di punti riportato in figura 1-(a). Un problema ricorrente in molte indagini ambientali è che la funzione π(x) non è definita a priori e non è specificata analiticamente. In molti casi la densità del campionamento è guidata da criteri qualitativi o pragmatici per cui, la scelta dei punti di campionamento, è demandata a chi fisicamente si occupa della campagna più che alla definizione di un disegno analitico e scarsa attenzione è, troppo soventemente, 23 attribuita alla definizione probabilistica del piano campionario. In altri casi, si pensi per esempio all’integrazione di indagini preesistenti, la scelta dei nuovi siti può avvenire con lo scopo di aggiungere in modo mirato nuove misurazioni ad un insieme di dati pregressi. In questo caso si trova utile campionare con maggiore intensità aree dove si erano osservati errori più marcati nella stima delle quantità d’interesse o dove la copertura campionaria era stata, magari per limiti di budget, troppo scarsa. Una tale strategia per quanto ragionevole, preclude spesso la possibilità di specificare π(x) in modo analitico. Queste, e altre cause, possono rendere necessario, per poter implementare lo stimatore in (4), dover stimare il sistema dei pesi. Lo stimatore considerato nel presente lavoro utilizza un sistema dei pesi stimato mediante il mosaico di Voronoi (Goovaerts P, 1997). Indicata con V=(V1,…,Vn) la tassellazione della regione d’interesse ottenuta mediante i poligoni di Voronoi generati dai punti campionari, si pone W(xi)=|Vi| dove Vi è il poligono generato dalla i-esima locazione campionaria. La figura 2 esemplifica la costruzione del mosaico di Voronoi per l’insieme di punti simulato nella sezione precedente e raffigurato in figura 1-(a). Applicando la (4) al dataset simulato della sezione precedente si ottiene una stima pari 11 per la media aggregata di area. Una stima, quindi, caratterizzata da una distorsione molto inferiore a quella della media aritmetica priva di correzione. STUDIO DI SIMULAZIONE PER LO STIMATORE CONSIDERATO In questa sezione si presenta uno studio di simulazione mirato a valutare la performance dello stimatore suggerito nella sezione precedente. Lo stimatore in questione viene confrontato con altri stimatori usualmente adoperati nelle applicazioni. In particolare si fa riferimento alla media aritmetica delle misure, una statistica di sintesi che viene presentata di routine, e alla stima ottenuta tramite una metodologia geostatistica che va sotto il nome di block-kriging (Chiles e Delfiner, 1999 pag. 195). Ai fini della simulazione si è ipotizzato che il processo di misura possa essere considerato come la realizzazione di un processo stocastico Y(x) con x∈D e D quadrato di lato unitario. Oggetto della stima è cioè la media spaziale della traiettoria del processo. , dove α1,…,αn sono dei Il block kriging (BK) è un previsore lineare di Y(D) definito come: coefficienti di ponderazione (detti pesi del kriging) tali che . Il vincolo garantisce la proprietà di correttezza alla previsione ovvero che . Il previsore in questione è il migliore previsore lineare nel senso che minimizza la quantità nella classe dei previsori lineari Y*D di Y(D). Il valore minimo ottenuto è denominato varianza del kriging. I pesi α1,…,αn sono ottenuti risolvendo le così dette equazioni del kriging che dipendono dalla struttura di correlazione del campo aleatorio. Questo significa che per poter calcolare i pesi occorre conoscere la funzione del covarianza o, equivalentemente, il variogramma del processo. Per i dettagli analitici si rimanda alla letteratura in materia (per es. il già citato Chiles e Delfiner, 1999). Evidentemente la funzione del variogramma non è nota e, in situazioni reali, deve essere stimata sulla base delle misure campionarie. Nella presente analisi di simulazione si è provveduto a generare in modo preferenziale delle misurazioni campionarie di Y(x) sul quadrato di lato unitario mediante un modello probabilistico. Su ciascun campione simulato si sono poi calcolati: lo stimatore considerato nella sezione precedente, il BK e la media aritmetica dei valori simulati. La generazione dei valori Y(x) è avvenuta ipotizzando che Y(x) fosse un campo aleatorio gaussiano con media costante pari a 10 e con variogramma isotropico wave con soglia pari a 5. La struttura preferenziale del campionamento è stata ottenuta simulando i punti campionari mediante un processo di punto di Cox con intensità log-gaussiana. Il processo di Cox è una particolare processo di punto spaziale che modellizza il verificarsi di eventi aleatori in una regione di R2. La densità dei punti casuali (eventi) che si verificano nelle diverse regioni del piano è determinata da una funzione aleatoria, Λ(x), detta intensità, che, nel caso in questione, è stata legata al campo aleatorio Y(x) mediante la relazione log(Λ(x))=b0+b1Y(x). Questo fa sì che la densità dei punti nello spazio dipenda dal valore del processo di misura stesso e sia tanto più elevata quanto più elevato il valore delle misurazioni simulate, generando la struttura preferenziale desiderata. Ho e Stoyan (2008) e Diggle et al. (2010) hanno discusso questa tematica in dettaglio. La procedura è stata replicata 1000 volte. Su ciascun campione simulato sono stati calcolati i suddetti stimatori, valutandone: • la distorsione Monte Carlo percentuale: • la varianza Monte Carlo: • l’errore quadratico medio: dove ; ; , dove Tb rappresenta lo stimatore di area di volta in volta considerato calcolato nella b-esima iterazione 24 della simulazione. Per poter calcolare i pesi del kriging e produrre la stima areale tramite BK, si sarebbe potuto utilizzare il variogramma effettivamente impiegato per simulare i dati rimuovendo, quindi, questa fonte di errore dalla stime. Tale procedura, tuttavia, è chiaramente inapplicabile nei contesti reali dove il variogramma non è noto ex ante ma deve essere stimato sui dati rilevati. Si è quindi derivato il valore di ristimando tramite minimi quadrati ponderati i parametri del variogramma sulla base dei dati simulati, situazione quest’ultima più vicina alle applicazioni concrete, in modo da valutare quanto, questa componente di errore, potesse influenzarne la performance. La specificazione analitica del varigramma stimato in ogni replica Monte Carlo è stata, comunque, quella wave usata in fase di simulazione, risolvendo quindi l’ulteriore problema, presente invece in un’analisi dei dati reali, di dover identificare la forma funzionale più appropriata per la struttura spaziale. Le elaborazioni nella presente sezione e nella sezione successiva sono state effettuate utilizzando il software statistico R (R Development Core Team, 2011). I risultati dello studio di simulazione sono riportati in tabella 1. Le simulazioni sono state effettuate considerando quattro livelli diversi di preferenzialità fissando il parametro b1 pari a 0.01 (preferenzialità praticamente assente), 0.25, 0.5 e 0.75 (il parametro b0 è stato mantenuto sempre pari a 0). Tabella 1 | risultati dello studio di simulazione media aritmetica correzione poligonale BK b1=0.01 media aritmetica correzione poligonale BK b1=0.25 V 0.4 0.3 0.4 V 0.6 0.3 0.6 MSE 0.4 0.3 0.4 MSE 1.9 0.4 1.2 RBias (%) 0.1 -0.3 0 RBias (%) 11.5 2.3 7.8 b1=0.5 b1=0.75 V 1.1 0.6 0.9 V 1.4 1 1.2 MSE 5.5 1.2 3.2 MSE 9.2 3.2 6 RBias (%) 20.9 7.6 15.2 RBias (%) 27.9 14.6 21.9 Questi risultati evidenziano come lo stimatore corretto mediante la ponderazione di Voronoi si comporti sempre meglio della media aritmetica semplice sia in termini di distorsione che di variabilità delle stime prodotte. Lo stimatore risulta anche superiore allo stimatore kriging allorché si sia in presenza di una preferenzialità anche moderata. I risultati fanno riferimento al caso in cui il kriging sia derivato ristimando il variogramma in ciascuna iterazione Monte Carlo. È comunque interessante osservare come anche derivando il kriging mantenendo la specificazione del variogramma usata per generare i dati, la distorsione della media corretta con i poligoni di Voronoi è sempre inferiore, in presenza di preferenzialità (casi b1=0.25, 0.5 e 0.75), a quella del BK sebbene il vantaggio conseguito, in questo caso, sia inferiore. In effetti la preferenzialità campionaria impatta sensibilmente sulla stima del variogramma. La figura 3 mostra i 1000 variogrammi stimati nel caso b1=0.5 unitamente al variogramma effettivamente utilizzato per simulare i dati. Risulta evidente come in presenza di una campionamento preferenziale la curva stimata sia altamente variabile e profondamente distorta: a fronte di un nugget pari a 0, una soglia pari a 5 e un range pari a 0.1 usati in fase di simulazione, le medie Monte Carlo dei tre parametri ottenute dalle 1000 repliche sono rispettivamente 0.302, 106.12 e 0.82. Il problema della distorsione del variogramma indotta dal campionamento preferenziale è discusso, tra gli altri, da Diggle et al. (2010) e Olea (2007). I risultati sopra riportati sono stati confermati anche replicando la sperimentazione per diverse specificazioni della struttura di dipendenza spaziale sia utilizzando altri modelli di variogramma che valori diversi dei parametri caratterizzanti di questa funzione. Infine si è considerato il caso di un campionamento clusterizzato ma non preferenziale. Questo si è ottenuto simulando il campionamento tramite un processo di Cox la cui intensità è indipendente dalla simulazione della traiettoria delle misure. Questo scenario di simulazione rappresenta la situazione in cui le misurazioni risultano essere concentrate in alcune aree del territorio (per effetto, ad esempio, del naturale raggruppamento degli edifici in cui è possibile effettuare misurazioni indoor), ma la scelta dei punti di misura non è legata al livello di concentrazione che ci si aspetta di trovare nell’edificio stesso. Si è infine considerato il caso in cui le locazioni di campionamento siano distribuite in modo uniforme (non necessariamente, quindi, su una griglia regolare) sulla regione d’interesse. 25 semivariogramma distanza Figura 3 | stime del variogramma ottenute via WLS in 1000 repliche Monte Carlo. Sul grafico è evidenziato il variogramma wave usato in fase di generazione dei dati. Si evidenzia come, aumentando l’incidenza del clustering, si abbia un incremento della varianza, ma l’effetto sulla distorsione sia modesto. In altri termini questo aspetto del disegno campionario impatta solo sull’efficienza della stima. Tabella 2 | risultati dello studio di simulazione: campioni clusterizzati e distribuiti uniformemente sull’area di studio BK media aritmetica correzione poligonale BK media aritmetica correzione poligonale BK b1=0.75 correzione poligonale b1=0.25 media aritmetica Distribuzione Uniforme V 0.39 0.34 0.41 0.47 0.32 0.43 1.22 0.58 0.77 MSE 0.39 0.34 0.41 0.47 0.32 0.43 1.22 0.58 0.77 Rbias (%) -0.06 -0.07 -0.08 0.16 0.13 -0.18 -0.07 0.01 -0.07 APPLICAZIONE ALLE CAMPAGNE DI MISURA LOMBARDE 2003-4 E 2009-10 La metodologia considerata nella sezione precedente è stata applicata ai dati raccolti durante le campagne di misura condotte da ARPA Lombardia nel 2003-04 e 2009-2010 già citate in precedenza. In particolare si è fatto riferimento a 2030 rilevazioni effettuate in edifici destinati ad uso abitativo. La dislocazione territoriale dei punti di misura è riportata in fig. 4, sovrapposta ad una stima del campo delle concentrazioni ottenuta tramite metodologia kriging come descritto in Borgoni et al. 2011. Appare evidente che i punti di misura sono più densi nella parte di regione caratterizzata da alte concentrazioni (sfumatura di colore chiaro) mentre sono più disperse laddove le concentrazioni sono più basse. Questo aspetto si enfatizza in alcune province, quali ad esempio la provincia di Bergamo evidenziata sulla mappa. Questo era ampiamente atteso dato il modo in cui sia la prima survey che, soprattutto la secondo, erano state disegnate. La tabella 3 riporta le stime ottenute utilizzando la ponderazione di Voronoi e le medie aritmetiche semplici delle concentrazioni di area in quattro province lombarde particolarmente interessanti in quanto caratterizzate da elevate concentrazioni dell’inquinante e da una popolazione esposta particolarmente numerosa. La nostra analisi mette in luce come ignorare il problema della preferenzialità del campionamento può indurre 26 sensibili sovrastime degli indicatori medi, anche nell’ordine di alcune decine di Bq/m3. Questo impatto si ha anche a livello dell’intera regione: la media aritmetica delle misure risulta infatti pari a 142 Bq/m3 mentre, una volta corretta la stima per tener conto della natura preferenziale della rilevazione, questa si riduce a 117 Bq/m3. Figura 4 | Dislocazione dei 2030 locali considerati nell’analisi sovrapposti al campo di concentrazione stimato mediante kriging con deriva esterna. Si osservi infine che l’effetto distorcente del disegno campionario impatta anche su altri parametri della distribuzione dell’inquinante quali la funzione di ripartizione delle concentrazioni spaziali e, quindi, anche sulla stima della probabilità di superamento di un determinato valore di riferimento τ. Poiché tale proporzione rappresenta essa stessa una media, essendo pari a , dove I(A) è la funzione indicatrice dell’evento A pari a 1 se A si verifica e 0 altrimenti, si può ricavare una correzione per la stima di queste probabilità secondo l’approccio descritto in precedenza. Le stime delle probabilità di superamento dei valori di riferimento di 100, 200 e 400 Bq/m3 sono riportate in tab. 3 in notazione percentuale. Si evidenzia come l’impatto della correzione risulti rilevante anche in questo caso, soprattutto per le soglie di 200 e i 400 Bq/m3 dove si arriva a riduzioni superiori anche al 50% delle probabilità stimate senza correzione. Tabella 3 | Stime dei valori medi e delle probabilità di superamento (espresse in percentuale) di valori di riferimento per quattro province lombarde ottenute utilizzando la correzione per la preferenzialità derivata dal mosaico di Voronoi e in assenza di correzione (semplice). semplice correzione poligonale semplice correzione poligonale semplice Milano correzione poligonale Sondrio semplice Brescia correzione poligonale Bergamo 174.4 209.4 128.8 169.1 168.0 183.5 80.8 113.1 % > 400 Bq/m 3 10.8 14.9 4.0 8.4 6.0 7.2 1.4 4.2 % > 200 Bq/m 3 27.2 29.8 15.4 21.9 19.0 25.9 5.3 12.5 % > 100 Bq/m 3 49.8 52.9 42.5 47.2 52.8 61.1 27.0 32.1 Media 27 BIBLIOGRAFIA 1. Alberici A, Arrigoni S, Borgoni R, Cugini A, Di Toro M, de Bartolo D, Romanelli M, Tritto V. Campagna di misura 2009-10 della concentrazione del radon indoor in Lombardia, Atti AIRP- Convegno Nazionale di Radioprotezione12-14 ottobre 2011 2. Borgoni R, Tritto V, Bigliotto C, De Bartolo D. A Geostatistical Approach to Assess the Spatial Association between Indoor Radon Concentration, Geological Features and Building Characteristics: the Lombardy Case, Northern Italy, 2011. International Journal of Environmental Research and Public Health ISSN 1660-4601www.mdpi.com/journal/ijerph 3. Chiles JP, Delfiner P. Geostatistics: Modeling Spatial Uncertainty. 1999. John Wiley & Sons, New York 4. Cordy C. An extension of the Horvitz-Thompson theorem to point sampling from a continuous universe. 1993. Statistics and Probability Letters 18, 353-362. 5. Diggle P, Menezes R, Su T. Geostatistical inference under preferential sampling. 2010. Applied Statistics, 59, 191–232 6. Goovaerts P. Geostatistics for Natural Resources Evaluation, 1997. Oxford University Press, New York 7. IReR - Istituto Regionale di ricerca della Lombardia – Politiche di sicurezza per lo sviluppo sostenibile del territorio: rischio reale e percepito. Allargamento ai rischi emergenti in Regione Lombardia - Dossier Radon, 2010. Milano 8. Ho L, e Stoyan D. Modelling marked point patterns by intensity marked Cox processes. 2008. Statistics and Probability Letters, 78, 1194–1199. 9. Horvitz, DG e Thompson, DJ. A generalization of sampling without replacement from a finite universe, 1952. Journal of the American Statistical Association, 4, 663-685 10. Olea RA. Declustering of clustered preferential sampling for histogram and semivariogram inference. 2007. Mathematical Geology 39(5):453–467 11. R Development Core Team. R: A language and environment for statistical computing, R Foundation for Statistical Computing. 2011, Vienna, Austria. ISBN 3-900051-07-0, URL http://www.R-project.org. 28 Articoli Sistemi informativi territoriali: studio dei parametri correlati alla distribuzione di radon indoor in Friuli Venezia Giulia Giovani C.°, Garavaglia M.°, Pividore S.°, Cucchi F.*, Zini L.* ° SOS Fisica Ambientale-LUR-ARPA Friuli Venezia Giulia, Via Colugna 42, 33100 Udine, [email protected] * Dipartimento di Geoscienze, Università degli Studi di Trieste INTRODUZIONE Il territorio del Friuli Venezia Giulia presenta caratteristiche, sia dal punto di vista della concentrazione di radon indoor che dal punto di vista geologico, che risultano estremamente variabili nell’ambito del territorio regionale e peculiari in ambito nazionale ed europeo. Le caratteristiche del parco edilizio della regione risultano essere tali da influenzare notevolmente la concentrazione di radon indoor. Ai fini della definizione di una mappa di rischio è necessario analizzare le eventuali correlazioni della concentrazione di radon, con particolare riferimento a quello indoor, con i principali parametri geologici, geomorfologici ed idrogeologici senza trascurare l’influenza dei parametri edilizi. Nel 2005 ARPA FVG ha avviato un vasto studio per la definizione delle radon prone areas. Nell’ambito dello studio sono state effettuate più di 10000 misure in circa 2500 abitazioni private omogeneamente distribuite sul territorio della regione (Giovani et al., 2005, Garavaglia et al., 2007). Sulla base della mappa di distribuzione della concentrazione di radon indoor ottenuta, sono state analizzate le eventuali correlazioni con i principali parametri geologici, geostrutturali, geomorfologici e idrogeologici usando le più recenti informazioni di carattere geologico e sismico disponibili per il territorio del Friuli Venezia Giulia. A causa dell’influenza che i parametri edilizi hanno sulla concentrazione di radon indoor, è possibile che alcune correlazioni con i parametri geologici non vengano evidenziate qualora si studino insiemi di edifici con caratteristiche costruttive molto diverse. Allo scopo di mettere in luce l’influenza dei parametri geologici indipendentemente dall’effetto dei parametri edilizi, risulta quindi importante poter costruire sottoinsiemi di abitazioni con caratteristiche costruttive omogenee, sulla base dei quali ripetere le analisi di correlazione già effettuate sull’insieme dei dati provenienti dall’intero data base. Per effettuare in maniera efficace queste operazioni è indispensabile che tutti i dati, edilizi, geologici e di concentrazione di radon, siano inseriti in un’opportuna banca dati e siano georeferenziati. Scopo di questo lavoro è quello di dimostrare l’importanza dell’uso dei sistemi informativi territoriali in questo tipo di studi, fornendo esempi concreti dei risultati in diverse fasi dello studio: dalle analisi preliminari condotte per il controllo dei dati, prima delle analisi relative all’influenza dei parametri edilizi e geologici, all’utilizzo per le analisi di distribuzione, agli studi di dettaglio. In particolare sono stati costruiti ed analizzati due set di abitazioni e sono state redatte e confrontate le relative mappe di distribuzione della concentrazione di radon indoor. MATERIALI E METODI La banca dati utilizzata, costruita in Access 2000, contiene le informazioni sulle caratteristiche edilizie delle abitazioni oggetto della già citata indagine radon prone areas condotta da ARPA FVG a partire dal 2005. Per quanto riguarda i valori di radon indoor, il data base complessivo è costituito da circa 2500 valori di concentrazione media annua misurati in altrettante abitazioni e derivanti dai risultati di 4 misure per abitazione: 2 dosimetri per abitazione per ogni semestre di misura. Tutti le misure sono state effettuate con rivelatori a tracce CR39 e tutti i dati sono stati georeferenziati in coordinate Gauss Boaga. Sono stati inoltre utilizzati: la cartografia geologica regionale in formato digitale, consultabile on line presso il sito della Regione Autonoma del Friuli Venezia Giulia ed alcuni pacchetti di software commerciali quali l’Arcview 3.2 ed il Golden Software Surfer 8 (2000) oltre ai pacchetti di Microsoft Office 2003. 29 RISULTATI Influenza dei parametri edilizi e geologici sulla distribuzione della concentrazione del radon E’ stata effettuata un’analisi qualitativa preliminare alle analisi per la ricerca di eventuali correlazioni tra la concentrazione di radon indoor ed i principali parametri edilizi e geologici. Tale analisi preliminare aveva lo scopo di garantire la significatività delle analisi di correlazione che sarebbero seguite. In particolare, poiché si volevano indagare separatamente due gruppi di parametri, entrambi capaci di influenzare la concentrazione del radon indoor, ciò che si voleva garantire era che i dati sui quali si andavano ad effettuare le analisi statistiche, risultassero distribuiti geograficamente in maniera omogenea sul territorio. In questa fase di lavoro, il GIS si è rivelato uno strumento utilissimo. Sono state effettuate analisi di due tipi: la prima preliminare alle analisi di correlazione tra la concentrazione di radon indoor ed i parametri edilizi relativi alle abitazioni in cui la concentrazione era stata misurata e la seconda preliminare alla ricerca di correlazione tra la concentrazione di radon indoor ed i parametri geologici. Di seguito vengono riportati alcuni esempi. Poiché per le analisi di statistica descrittiva i dati vengono disaggregati in funzione dei diversi parametri edilizi dell’abitazione alla quale fanno riferimento, è importante verificare che la distribuzione sul territorio sia sufficientemente omogenea da garantire la rappresentatività geografica dei set di dati che verranno in seguito confrontati. Si veda, a scopo esemplificativo, la figura 1, in cui è riportata una vista del GIS in cui è stata effettuata l’operazione di selezione, dalla tabella degli attributi in cui sono contenuti i dati relativi alla concentrazione media di radon nei singoli siti, dei soli siti in cui gli edifici hanno la caratteristica di presentare la tipologia di contatto con il suolo definita “soletta controterra”. Questa selezione permette di verificare immediatamente che il numero di dati su cui verranno in seguito effettuate le analisi statistiche è sufficientemente elevato (1260 su 2457 totali) e che i dati sono uniformemente distribuiti sul territorio regionale. Figura 1 | Esempio di vista di Arcview 3.2 per lo studio preliminare all’analisi statistica relativa a parametri edilizi Il confronto tra la concentrazione media di radon misurata negli edifici che presentano una “soletta controterra” e quella misurata negli edifici che non hanno questa caratteristica risulterà quindi del tutto consistente. Analogamente sono state effettuate le altre analisi preliminari relative a tutti i parametri edilizi oggetto di indagine. Alcuni esempi sono riportati in tabella 1 e figura 2: in tabella 1 viene riportato il confronto tra i valori medi delle concentrazioni di radon rilevate in locali differenziati tra loro in base al tipo di separazione tra il suolo ed il locale stesso mentre in figura 2 è riportata la distribuzione dei siti con diversa separazione suolo/ edificio. Quest’ultima può essere considerata sufficientemente omogenea da garantire che le differenze 30 riportate in tabella 1 siano effettivamente dovute alla differenza del tipo di separazione tra suolo ed edificio piuttosto che a differenze nei parametri geologici locali. Tabella 1 | Confronto tra i valori medi delle concentrazioni di radon rilevate in locali differenziati tra loro in base al tipo di separazione tra il suolo e il locale stesso Tipo di separazione tra suolo e locale Media annua sito (Bq/m3) Deviazione Standard sito (Bq/m3) Numero siti Soletta controterra 188 209 1095 Intercapedine 144 179 270 Locale 116 116 244 Figura 2 | Distribuzione siti con diversa separazione tra suolo e locale: soletta contro terra (verde); intercapedine (rosso) e locale interrato seminterrato (giallo). I parametri edilizi che influenzano maggiormente la concentrazione di radon indoor in Friuli Venezia Giulia sono risultati essere i seguenti: la presenza o meno di locali interrati o seminterrati, il tipo di contatto tra il suolo e l’edificio; la presenza di pietra nei muri portanti e l’anno di costruzione. In conclusione, questo strumento si è dimostrato molto efficace anche allo scopo di scegliere i parametri edilizi da analizzare, permettendo di individuare subito il numero dei campioni di ogni sottoinsieme di dati e la distribuzione dei dati stessi sul territorio regionale. In figura 3 è riportato un esempio relativo allo studio preliminare alla ricerca di correlazione tra la distribuzione della concentrazione di radon indoor ed i parametri geologici di interesse. In questo caso ciò che viene evidenziato, dopo opportuna selezione, è il numero di siti e la posizione degli stessi all’interno di un determinato tema. Nell’esempio riportato in figura vengono contati i siti all’interno di due temi relativi alla permeabilità del substrato: il carsismo e la presenza di substrato sciolto. Numero e posizione di questi siti sono facilmente confrontabili con gli altri siti del data set che giacciono su substrato roccioso. Nella stessa schermata, come per l’esempio di figura 1, è possibile eseguire una prima analisi statistica sul set di dati selezionato. 31 Figura 3 | Esempio di vista di Arcview 3.2 per lo studio preliminare all’analisi statistica relativa a parametri geologici Sono risultate significative le correlazioni tra la concentrazione di radon indoor e la tessitura e permeabilità del suolo oltreché con il particolare fenomeno del carsismo. D’altra parte non sono state invece trovate significative correlazioni con altri parametri geologici o geofisici quali l’età delle rocce, la distanza o la densità di lineamenti tettonici e la sismicità (Giovani et al., 2007). Costruzione di un data set standard per l’analisi dettagliata dei dati Allo scopo di creare i diversi set di dati, sono state considerate le caratteristiche edilizie che sicuramente influenzano la concentrazione di radon indoor in Friuli Venezia Giulia. Tali caratteristiche, risultano essere, come già visto nel paragrafo precedente: la presenza o meno di locali interrati o seminterrati, il tipo di contatto tra il suolo e l’edificio; la presenza di pietra nei muri portanti e l’anno di costruzione, con particolare riferimento al terremoto distruttivo che si verificò in regione nel 1976. Sulla base di questi risultati sono stati definiti due set di dati che hanno caratteristiche edilizie, relativamente alle categorie già citate, tali da rendere, rispettivamente, massime (set A) e minime (set B) le concentrazioni di radon indoor. Il set A è costituito da 456 abitazioni in cui è stata misurata la concentrazione di radon indoor in due locali per due semestri consecutivi. Nel data base sono state inserite le concentrazione medie annue di ogni sito (media sui due locali e sui due semestri di misura). Le caratteristiche edilizie degli edifici appartenenti al primo set di dati sono: • assenza di interrati o seminterrati; • contatto diretto tra il suolo e l’edificio (“soletta controterra”); • presenza di pietra nei muri portanti; • data di costruzione precedente al 1976. Il set B è costituito da 392 siti, in cui le abitazioni hanno caratteristiche costruttive che rendono minime le concentrazioni di radon indoor. Le caratteristiche individuate sono le seguenti: • presenza di interrato o seminterrato; • assenza di pietra nelle pareti portanti; • anno di costruzione posteriore al 1976. 32 Entrambi i set sono costituiti da un numero sufficientemente grande di campioni da permettere analisi di distribuzione della concentrazione di radon indoor. Si è ritenuto opportuno eseguire un test preliminare qualitativo, con l’utilizzo del GIS, per verificare l’omogeneità della distribuzione dei siti di misura, per i due set di dati, sul territorio regionale. In linea di principio, infatti, era possibile, anche considerando le diverse caratteristiche geomorfologiche e climatiche della regione Friuli Venezia Giulia, che, a diverse zone della regione, corrispondessero diverse caratteristiche edilizie (ex. assenza di interrati o seminterrati nella bassa Friulana o presenza massiccia di pietra nei muri delle abitazioni di montagna). Ciò avrebbe evidentemente falsato le analisi relative alla distribuzione della concentrazione di radon indoor per i due set di dati ed all’eventuale correlazione con i parametri geologici. Tuttavia, fortunatamente, in entrambi i set di dati, i siti di misura sono risultati omogeneamente distribuiti sul territorio regionale (vedi figura 4). Dopo il citato controllo sono state fatte le analisi di distribuzione della concentrazione di radon indoor per i due set di dati mediante interpolazione con il metodo dei vicini naturali (SURFER 8 Golden Software, inc.). Figura 4 | Posizione dei siti appartenenti rispettivamente al set A (rosso, concentrazione massima, 456 siti) ed al set B (verde, concentrazione minima, 392 siti) Si riporta in figura 5, per chiarezza di esposizione e per un opportuno confronto, la mappa della distribuzione della concentrazione media annua di radon indoor costruita sulla base dell’insieme di tutte le abitazioni oggetto della campagna radon prone areas. La concentrazione media per le abitazioni appartenenti al set A (213±238 Bq/m3) è, come atteso, significativamente superiore a quella relativa alle abitazioni appartenenti al set B (89±94 Bq/m3). In figura 6 (a e b, relative rispettivamente ai set A e B), sono riportate le mappe di distribuzione della concentrazione media annua di radon indoor per i due set di dati. Risulta interessante il fatto che le due distribuzioni, aldilà delle differenze nei valori medi delle concentrazioni, siano significativamente diverse. Figura 5 | Mappa della distribuzione della concentrazione media annua di radon per la regione Friuli Venezia Giulia 33 Figura 6 | Distribuzione della concentrazione di radon indoor rispettivamente per il set A (figura a) e per il set B (figura b) Per mettere maggiormente in evidenza le differenze di distribuzione della concentrazione nelle due mappe, sono state costruite altre due particolari mappe di distribuzione. La prima di queste, riportata in figura 7a, è stata costruita dopo una normalizzazione effettuata sui set A e B sulla base del valor medio di ciascun set di dati ed in essa è riportata la distribuzione delle differenze, in valore assoluto, tra le concentrazioni normalizzate dei due set di dati. Nella figura 7b, sono riportate, in colore diverso, le differenze positive e quelle negative della mappa di figura 7a. Sono state poi confrontate, sempre con riferimento ai due set di dati, le mappe di distribuzione della concentrazione di radon indoor con riferimento ad alcuni parametri geologici ed è stato possibile osservare ancora differenze sia nei valori medi delle concentrazioni per i diversi set, come previsto sulla base della costruzione dei set stessi, sia nella distribuzione della concentrazione, con valori massimi e minimi in diverse posizioni per i due set di dati. Come esempio vengono riportati alcuni dei risultati: in figura 8, sono riportate le distribuzioni della concentrazione di radon indoor nelle abitazioni costruite, rispettivamente, su substrato roccioso, su substrato sciolto e sulla sola copertura quaternaria per i set A (figure a, in alto) e B (figure b, in basso). Figura 7 | Distribuzione delle differenze della concentrazione di radon normalizzata alla media per i set a e b (a) e distribuzione delle differenze positive e negative (b) 34 Figura 8 | Distribuzione della concentrazione di radon indoor nelle abitazioni appartenenti ai set A (figure a, in alto) e B (figure b, in basso) rispettivamente costruite su substrato roccioso, substrato sciolto e copertura quaternaria Roccia Substrato sciolto Quaternario Anche in questo caso si può notare come non solo le concentrazioni medie, come atteso, siano diverse per i set A e B, ma anche le distribuzioni mostrino significative differenze. L’analisi di correlazione tra concentrazione di radon indoor e parametri geologici effettuata su questi set di dati, quindi, potrebbe dare risultati diversi da quella effettuata sui dati relativi a tutti gli edifici oggetto della campagna radon prone areas. 35 CONCLUSIONI Sulla base degli esempi riportati, l’utilizzo di data set standard costruiti creando sottoinsiemi di abitazioni con caratteristiche edilizie omogenee, dal punto di vista dell’influenza che queste hanno sulla concentrazione di radon indoor, risulta di fondamentale importanza qualora si vogliano ricercare le eventuali correlazioni di alcuni parametri geologici sulla distribuzione della concentrazione del radon indoor. Inoltre la creazione di data set con concentrazioni di radon normalizzate sulla base dei parametri edilizi, potrebbe risolvere i problemi che possono sorgere da eventuali numerosità troppo scarse del campione una volta che siano stati individuati sottoinsiemi di abitazioni costituiti da edifici con particolari caratteristiche edilizie su un determinato territorio regionale. Analisi di questo tipo, effettuate su un insieme normalizzato di circa 2500 dati, come quello relativo ai dati provenienti dalla campagna radon prone areas del Friuli Venezia Giulia, potrebbero evidenziare l’influenza di particolari parametri geologici sulla distribuzione spaziale del radon sul territorio regionale, che potrebbero non essere risultati significativi durante l’analisi effettuata sul set complessivo di dati non normalizzati. Per quanto riguarda il dettaglio dei risultati emersi dall’analisi dei dati provenienti dalla campagna radon prone areas condotta in Friuli Venezia Giulia, essi sono riportati in diversi lavori (Giovani et al., 2007, Garavaglia et al., 2007). Gli autori vogliono piuttosto fissare l’attenzione sull’importanza dello strumento utilizzato nell’ambito dello studio condotto. Il sistema informativo territoriale è stato utilizzato in tutte le fasi dello studio: • nella strategia di campionamento, nella definizione delle maglie e nell’estrazione del campione; • nel posizionamento dei dosimetri e nella georeferenziazione dei siti; • nella restituzione e nella pubblicazione dei dati; • nei controlli preliminari sui set di dati da analizzare; • nella creazione di nuovi set standard di dati; • nella ricerca di correlazione della concentrazione di radon con parametri edilizi e geologici; • nell’analisi della distribuzione della concentrazione del radon e nelle elaborazioni geostatistiche. Il dettaglio applicativo nelle diverse fasi (Giovani C., 2011) è stato per brevità omesso a favore dei risultati considerati più significativi che sono stati riportati. Va tuttavia sottolineato che sarebbe stato molto più oneroso, ed in molti casi impossibile, eseguire lo stesso studio senza l’ausilio del SIT. Le potenzialità del SIT creato sono molteplici, ad esempio: utilizzo a fini amministrativi (definizione sul Bollettino Ufficiale Regionale delle radon prone areas, creazione di mappe di rischio, ecc.) ed epidemiologici; creazione di mappe nazionali ed europee, analisi geostatistiche ecc. Va infine ricordato che nello svolgimento di questo lavoro sono stati utilizzati soltanto pacchetti software commerciali e facilmente reperibili sul mercato. Ad oggi sono inoltre accessibili prodotti GIS (sistemi informativi territoriali) gratuiti perfettamente compatibili con software ed hardware normalmente in uso presso gli enti pubblici. BIBLIOGRAFIA 1. Giovani C., Garavaglia M., Montanari F., Villalta R., 2005 Il progetto radon prone areas in Friuli Venezia Giulia, 2005 – Atti del Convegno Nazionale di Radioprotezione “La radioprotezione nella ricerca. La ricerca nella radioprotezione” ISBN 88-88648-03-08, Catania 15-17 settembre 2005, sessione V, o5, 2005 2. Giovani C., Cucchi F., Nadalut B., 2007 – La distribuzione del radon indoor in Friuli Venezia Giulia: aspetti geologici – Atti del Convegno Nazionale AIRP, Vasto 1-3 ottobre 2007 3. Garavaglia M., Giovani C., Nadalut B., Piccini L., Pividore S., Velcich G., 2007 - Radon prone areas: i primi risultati in Friuli Venezia Giulia - Atti del Convegno Nazionale AIRP, Vasto 1-3 ottobre 2007 4. Giovani C., 2011, Uso dei sistemi informativi territoriali per lo studio della distribuzione della concentrazione di radon e dei parametri ad essa correlati in Friuli Venezia Giulia, Tesi di Dottorato in geomatica e sistemi informativi territoriali, XXIII ciclo, Università degli Studi di Trieste 36 Articoli Aspetti di radioprotezione nell’ambito delle gammagrafie industriali Giovani C., Garavaglia M., Di Marco P., Piccini L. SOS Fisica Ambientale-LUR-ARPA Friuli Venezia Giulia Via Colugna 42, 33100 Udine, [email protected] INTRODUZIONE In Italia esistono numerose aziende che effettuano controlli non distruttivi mediante radiografia o gammagrafia. Le situazioni indagate sono le più diverse: vengono effettuati controlli su saldature all’interno di aziende, a bordo di navi, su metanodotti o ponti, ecc. Sebbene in alcuni casi, ad esempio nei cantieri navali, tali attività vengano eseguite mediante sorgenti che risiedono stabilmente all’interno degli stabilimenti stessi, spesso tali sorgenti viaggiano anche per centinaia di chilometri sul territorio nazionale per raggiungere i luoghi di utilizzo. Da alcuni anni la Struttura Operativa Semplice Fisica Ambientale di ARPA Friuli Venezia Giulia, è impegnata nel campo del monitoraggio sulle attività relative ai controlli non distruttivi eseguiti mediante sorgenti gamma sul proprio territorio. Obiettivo di questo lavoro è quello di mettere in luce, sulla base dell’esperienza maturata dagli autori in questo campo, una serie di problematiche e di criticità relative al trasporto ed alla conservazione delle sorgenti utilizzate in gammagrafia industriale, alle modalità di esecuzione dei controlli ed alle possibilità di vigilanza da parte degli enti pubblici sulle suddette attività. L’obiettivo verrà perseguito attraverso l’analisi di due situazioni reali che vengono considerate adatte all’illustrazione delle problematiche citate: lo svolgimento di controlli gammagrafici sulle saldature di una nave in costruzione e le modalità di conservazione delle sorgenti per gammagrafia industriale di una ditta autorizzata all’attività di controllo. In tabella 1 sono riportati i dati, forniti ad ARPA FVG da ISPRA, relativi ai trasporti di sorgenti radioattive per controlli industriali non distruttivi sul territorio regionale. Sebbene i dati riportati siano incompleti, si può notare come il fenomeno sia tutt’altro che marginale. Tabella 1 | Numero di trasporti di sorgenti radioattive usate per controlli industriali non distruttivi sul territorio delle province di Udine e Gorizia. 2005 2006 2007 2008 2009 2010 Gorizia 33 20 9 26 6 320 Udine - - -* - - -* - - -* 258 77 - - -* *dati non disponibili DESCRIZIONE DEI CASI Caso 1: esecuzione dei controlli gammagrafici Il personale della SOS Fisica Ambientale di ARPA FVG viene allertato a causa di una segnalazione dei VVF che erano intervenuti in un’area cantieristica per un principio d’incendio. I contatori Geiger della squadra NBCR casualmente intervenuta avevano segnalato un’improvvisa impennata dei valori di radiazione gamma. La fonte veniva identificata in un’area adiacente a quella in cui operavano i VVF, nella quale si stavano svolgendo controlli gammagrafici sulle saldature di una nave in costruzione; a questo punto veniva richiesto l’intervento di ARPA FVG che portava sul posto alcune unità di personale della Struttura Operativa Semplice Fisica Ambientale. Lo sviluppo delle successive indagini condotte da ARPA FVG congiuntamente ai VVF ha evidenziato che nella realizzazione delle gammagrafie erano coinvolte 3 ditte diverse, ciascuna in possesso di 2 apparecchi, per una complessiva presenza sul posto di n.3 sorgenti di 192Ir e n.3 sorgenti di 75Se, con un’attività totale dell’ordine di alcune migliaia di GBq. L’attività di controllo, svolta da ARPA FVG e da personale dei VVF e sviluppatesi nell’arco di alcune giornate 37 lavorative, ha permesso di evidenziare una serie di criticità ed inadempienze che vengono di seguito riportate. 1. Poiché non era stato redatto un piano di lavoro complessivo e le tre ditte operavano individualmente su parti diverse della nave, nello stesso momento, era teoricamente possibile il contemporaneo utilizzo di più sorgenti all’interno del volume della nave con conseguente rischio per gli operatori sia all’interno che all’esterno della nave stessa. 2. Spesso non venivano utilizzati collimatori. 3. Non erano state effettuate valutazioni di dose per gli operatori del cantiere che operavano esternamente alla nave, o su altre navi presenti nel bacino, neppure nelle condizioni più critiche di esposizione quali l’effettuazione di controlli nei pressi delle balconate della nave con direzione del fascio verso l’esterno della stessa. 4. Sulla base dei controlli effettuati è risultato che una buona parte dei lavoratori si accingeva a svolgere la propria attività senza avere con sé il dosimetro personale, “dimenticato” all’interno degli automezzi. 5. Con riferimento alle dichiarazioni rese nei Piani di Sicurezza circa il rimessaggio degli apparecchi per gammagrafia al di fuori delle sessioni lavorative: 1 ditta è risultata perfettamente adempiente; 1 ditta è stata considerata adempiente per mancanza di elementi oggettivi contrari, anche se in presenza di forti sospetti; 1 ditta è stata trovata inadempiente relativamente agli obblighi di conservazione, comunicazione e trasporto di materiale radioattivo. Caso 2: modalità di conservazione delle sorgenti per gammagrafia industriale Sulla base dell’episodio riportato nel paragrafo precedente, nel corso del 2010 e del 2011 ARPA FVG ha effettuato una decina di altri controlli, presso altrettante ditte detentrici di nulla osta all’utilizzo di sorgenti di gammagrafia industriale per controlli non distruttivi o cantieri presso cui tali controlli venivano effettuati. Il caso di seguito descritto, inizialmente analizzato sulla base della richiesta di nuovo nulla osta da parte di una ditta, ha generato un lungo procedimento tecnico-amministrativo, che ha visto operare congiuntamente ARPA FVG e VVF, si è concluso con la modifica in senso restrittivo del nulla osta prefettizio rilasciato alla ditta oggetto del controllo. Dalle verifiche effettuate, infatti, è emersa una realtà di conservazione delle sorgenti estremamente precaria: 1. il pozzetto in cemento che conteneva le sorgenti era situato in campo aperto, chiuso da un coperchio in acciaio dotato di un banale lucchetto, in prossimità di un’abitazione e di un’area ad uso pubblico collettivo, attrezzata con alcuni giochi per bambini (vedi figure 1 e 2); 2. la schermatura delle sorgenti era realizzata con fogli di piombo alcuni dei quali di volta in volta collocati nel pozzetto ad avvolgere gli apparecchi gammagrafici ed uno appoggiato sopra il coperchio d’acciaio; 3. non è risultato in essere alcun sistema atto alla vigilanza del sito, peraltro non fisicamente perimetrato su un lato; 4. le misure antincendio presenti si presentavano sottodotate rispetto a quelle previste nella Relazione dell’Esperto Qualificato e senza manutenzione, la segnaletica insufficiente e realizzata fuori norma; 5. non è stato reperito il dosimetro ambientale previsto. Figura 1 | Pozzetto di deposito sorgenti per controlli gammagrafici non distruttivi 38 Figura 2 | Segnaletica relativa al pozzetto di figura 1 A partire dall’esperienza sopra descritta e dai successivi sviluppi è iniziata, da parte di ARPA FVG, la pratica sistematica del sopralluogo ai fini della stesura del parere tecnico richiesto dal D. Lgs. 230/95 (art. 29, comma 2 e Allegato IX, cap. 5 par. 5.2) per il rilascio del nulla osta prefettizio alla detenzione e uso di materiale radioattivo. Successive esperienze hanno dimostrato l’importanza della scelta effettuata. DISCUSSIONE L’esperienza lavorativa relativa ai casi descritti ed alla considerevole attività che essi hanno generato in questo campo da parte di ARPA FVG, ha permesso di mettere in luce limiti e difficoltà nell’esecuzione dell’attività di controllo. Le difficoltà possono essere ricondotte a 3 ambiti che vengono nel seguito analizzati: normativo; logistico-amministrativo; regolamentare interno ad ARPA FVG. 1. Per quanto riguarda l’ambito normativo, le principali difficoltà derivano in parte dal testo del Decreto Legislativo 230/95 laddove, per esempio, nell’Allegato IX (cap. 7, par. 7.2, lettera b), punto 1), si fa obbligo di inserire nel nulla osta la specifica prescrizione “di informare, almeno quindici giorni prima dell’inizio dell’impiego in un determinato ambito, gli organismi di vigilanza territorialmente competenti”, senza indicare che l’evento deve essere esattamente definito nel tempo e la comunicazione stessa ha valenza per il singolo evento lavorativo; ciò comporta il ricevimento di comunicazioni molto generiche che di norma indicano che, nell’ambito dell’anno solare in corso, saranno eseguiti, per un determinato committente, i controlli non distruttivi che quest’ultimo di volta in volta richiederà: ciò rende ben evidente che nessuna attività di verifica potrà essere esperita né la sicurezza generale risulterà realmente migliorata con siffatte comunicazioni, in quanto la presenza effettiva di sorgenti radiogene sul posto, in caso di accadimenti incidentali, non è né certa né escludibile. 2. Una delle problematiche di difficile soluzione in ambito logistico-amministrativo è relativa al fatto che l’attività di gammagrafia/radiografia industriale eseguita nei cantieri di lavoro è soggetta a grande variabilità in quanto segue l’attività del cantiere, da cui risultano gli oggetti da sottoporre a controllo gamma/radiografico; pertanto può succedere che la prevista sessione lavorativa con impiego di sorgenti radiogene subisca ricollocazioni temporali anche all’ultimo momento, obbligando così a riprogrammare anche il previsto sopralluogo di verifica ispettiva, a questo fatto si affianca poi la necessità dell’autorizzazione all’accesso all’area, se i controlli non distruttivi si svolgono nel quadro di un’attività lavorativa più vasta. Sulla base dell’esperienza risulta inoltre scoperta l’attività di controllo sul rispetto delle modalità di trasporto delle sorgenti radiogene, ad esempio la verifica che vengano effettuati percorsi esterni ai centri abitati, che adeguata segnaletica venga esposta sugli automezzi, ecc. Alcuni episodi accaduti nei 2 anni di attività in questo campo inducono gli autori a ritenere che quanto previsto dalla normativa e/o dal principio di precauzione sia abbondantemente disatteso, almeno con riguardo ai due aspetti citati relativi ai percorsi extraurbani ed all’obbligo di esposizione di opportuna segnaletica. 3. Un ulteriore aspetto da migliorare è quello regolamentare, interno ad ARPA FVG ma probabilmente esistente anche per le altre agenzie regionali per l’ambiente, legato agli orari di lavoro del personale. 39 L’attività di verifica dei controlli gammagrafici non distruttivi infatti, nella maggior parte dei casi si svolge in fasce orarie notturne o festive, fatto che consente di operare con le sorgenti di radiazioni ionizzanti in un contesto meno popolato e, quindi, meno problematico dal punto di vista della sicurezza; per contro il personale ARPA è costretto a operare in regime di straordinario lavorativo, che prevede un iter autorizzativo suo proprio e la possibilità che, per esaurimento dei fondi previsti a bilancio, il lavoro straordinario non possa essere retribuito e quindi eseguito. Il bilancio dei primi anni di lavoro di ARPA FVG nel campo del monitoraggio svolto sia sull’attività, già in essere, di trasporto e utilizzo di sorgenti radiogene per controlli industriali non distruttivi, che per le nuove attività produttive che prevedono impiego di sorgenti radiogene di categoria B, è composto da attività e da passività. Tra le prime riportiamo: a) l’aver attivato un’attività ispettiva effettiva, quantunque discontinua e con ampi margini di miglioramento, sul territorio; b) l’effetto (modesto) di deterrenza che questa attività ha determinato; c) l’aver instaurato rapporti di collaborazione con altri Enti, coinvolti a vario titolo nella materia, primi fra tutti le Prefetture e il Corpo Nazionale dei Vigili del Fuoco. Tra le “passività” devono essere inseriti: a) la bassa numerosità dei controlli ispettivi; b) l’efficacia e l’efficienza non ottimali degli stessi, dovute, in parte, alla poca esperienza nel settore ispettivo del personale ARPA FVG coinvolto: detto personale, infatti, proviene da esperienze prettamente laboratoristiche e analitiche; c) la mancanza di una sinergia efficace con altri Enti di controllo, quali le Aziende Sanitarie e gli Ispettorati Provinciali del Lavoro, le forze di Polizia Giudiziaria. Sulla base di quanto esposto è possibile identificare alcune linee generali che dovranno essere seguite nel prosieguo del lavoro in questo settore. Innanzitutto sarà necessario ricavare certezze in termini normativi: interpretazione corretta e condivisa della legge, definizione certa dei percorsi sanzionatori, parificazione del livello di controllo ispettivo tra le aziende del settore che hanno sede sul territorio regionale e ditte esterne alla regione: la realizzazione di questo obiettivo sarà importante al fine di non creare disparità di trattamento e, quindi, turbative nella corretta concorrenza tra i due tipi di soggetti. Tuttavia sono evidenti le difficoltà di realizzazione di questo obiettivo sia in ambito regionale che nazionale: da una parte le difficoltà sono causate dal numero di enti, ciascuno con la propria competenza, coinvolti a vario titolo e dall’altra potrebbero esserci ulteriori difficoltà di tipo tecnico dovute alla necessità di definire protocolli operativi comuni e condivisi in un ambito relativamente nuovo e poco conosciuto dagli operatori del settore. Un altro capitolo da affrontare è la collaborazione tra ARPA FVG e tutti gli altri Enti di controllo coinvolti: Prefetture, Vigili del Fuoco, Aziende Sanitarie, Ispettorati Provinciali del Lavoro. Da questa collaborazione dovrà risultare, possibilmente, un protocollo operativo che definisca, per le competenze di ciascuno, il percorso di sviluppo dell’attività successiva all’ispezione sul posto, che rappresenta il naturale punto di partenza dell’attività stessa. Sarebbe inoltre utile poter analizzare i dati relativi a tutti i trasporti e alle destinazioni di sorgenti radiogene per controlli industriali non distruttivi sul territorio della regione Friuli Venezia Giulia. Ciò porterebbe ad una maggiore conoscenza della realtà del territorio ed una maggiore consapevolezza dell’entità del problema e permetterebbe una pianificazione dei controlli più efficace. Un altro aspetto da tenere in considerazione, ancorché non di competenza di ARPA FVG, riguarda la verifica dell’effettiva formazione del personale in forza alle ditte e chiamato all’esecuzione pratica dei controlli industriali non distruttivi: tali persone sembrano ignorare, nei fatti, i pericoli a cui si offrono esponendosi a dosi di radiazione che potrebbero, invece, evitare con una pratica più attenta e consapevole. La numerosità dei controlli gammagrafici normalmente eseguiti anche su un territorio relativamente piccolo come quello del Friuli Venezia Giulia e l’ordine di grandezza dell’attività delle sorgenti coinvolte, rendono evidente l’importanza dell’esecuzione dei controlli in questo campo. Un altro fattore che spinge in questo senso è la disinvoltura e, spesso, l’incoscienza che dominano sovente la conservazione, il trasporto e l’utilizzo di queste sorgenti, cosicché non è raro trovare, presso i depositi autorizzati, inadempienze grossolane inerenti la vigilanza del posto, le misure di prevenzione incendi, la minimizzazione delle esposizioni accidentali, così come non è raro trovare automezzi che, con sorgenti a bordo, non espongono la dovuta segnaletica oppure stazionano nei parcheggi, insieme agli altri autoveicoli o, ancora, impegnano percorsi interni ai centri urbani anche quando, con poco sforzo, potrebbero evitarli. 40 CONCLUSIONI In conclusione, da quanto fin qui esposto si evince come a volte, sulla base di una normativa chiara nelle intenzioni ma non nelle parole, sia facile da parte delle aziende che effettuano i controlli gammagrafici ed eventualmente di quelle presso le quali i controlli vengono eseguiti, eludere la vigilanza degli enti pubblici. Inoltre vengono evidenziate alcune carenze nel rispetto delle normative sul trasporto e sulla conservazione delle sorgenti. La progettazione delle attività, con particolare riguardo alla radioprotezione dei lavoratori e del pubblico, risulta a volte inesistente o comunque inconsistente. Le situazioni più critiche sono risultate quelle in cui più aziende operano contemporaneamente in una stessa realtà senza alcuna pianificazione comune. Sulla base dell’esperienza che ARPA FVG si è fatta in questo campo, le attività di cui si parla in questo lavoro risultano, attualmente, probabilmente quelle che comportano il maggior rischio in termini di esposizione della popolazione e dei lavoratori (sia dal punto di vista della “safety” che della “security”). Al tempo stesso esse risultano, paradossalmente, tra quelle su cui vengono effettuati, per motivi diversi, meno controlli da parte delle autorità pubbliche. Gli autori, nel sottoporre a discussione la proprie osservazioni e le proprie modalità di lavoro in questo campo, si pongono l’obiettivo di favorire una discussione che possa portare ad un tavolo di lavoro con lo scopo di migliorare le attività di controllo, e, se possibile, uniformare tali attività sul territorio nazionale, costringendo al tempo stesso le aziende a lavorare meglio salvaguardando la salute dei propri dipendenti e della popolazione. BIBLIOGRAFIA 1. Circolare del Ministero della Sanità del 3 febbraio 1987 n. 2 “Direttive agli organi regionali per l’esecuzione di controlli sulla radioattività ambientale” 2. D.lgs. 17 marzo 1995 n. 230 e s.m.i. “Attuazione delle direttive 89/618/Euratom, 90/641/Euratom, 92/3/ Euratom e 96/29/Euratom in materia di radiazioni ionizzanti” 3. D.lgs. 26 maggio 2000, n. 241 “Attuazione della direttiva 96/29/EURATOM in materia di protezione sanitaria della popolazione e dei lavoratori contro i rischi derivanti dalle radiazioni ionizzanti” 4. D.lgs. 6 febbraio 2007, n. 52 “Attuazione della direttiva 2003/122/CE Euratom sul controllo delle sorgenti radioattive sigillate ad alta attività e delle sorgenti orfane” 41 Articoli Misure di 90Sr per effetto Cerenkov impiegando un rivelatore a scintillazione liquida: possibile utilizzo in caso di emergenza nucleare M.C. Losana, G. Garbarino, M. Magnoni Arpa Piemonte, Dipartimento Tematico Radiazioni, Via Jervis 30, 10015 IVREA (TO), [email protected] INTRODUZIONE L’effetto Cerenkov è un ben noto fenomeno che avviene quando una particella carica (nel nostro caso le particelle β) viaggia in un mezzo a una velocità maggiore di quella della luce nel mezzo stesso. Il mezzo infatti si polarizza al passaggio della particella e, ritornando alla situazione di quiete, emette fotoni nel campo della luce visibile (luce “blu”). Essendo la velocità della luce in un mezzo data da il rapporto tra la velocità “c” della luce nel vuoto e l’indice di rifrazione “n” del mezzo, l’effetto Cerenkov si può avere solo quando vβ > c/n. L’uso di rivelatori concepiti per la scintillazione liquida è particolarmente indicato anche per la misura dell’effetto Cerenkov, in quanto i fotoni blu emessi hanno una lunghezza d’onda compatibile con i fotomoltiplicatori. La preparazione del campione risulta poi molto semplice: è sufficiente riempire una fiala (20 ml) da scintillazione col campione in esame e metterla in conteggio. I fotoni prodotti per effetto Cerenkov verranno direttamente rivelati dai fotomoltiplicatori senza l’ausilio di liquidi scintillanti. L’impiego dell’effetto Cerenkov in misure di radioattività ambientale può essere particolarmente utile per quei radionuclidi che emettono particelle β ad alta energia senza emettere raggi gamma. Uno di questi radionuclidi è lo 90Sr, noto per la sua elevata radiotossicità, per la cui determinazione si deve normalmente ricorrere a trattamenti radiochimici piuttosto lunghi e complessi prima di giungere al conteggio radiometrico. Ne consegue una dilatazione dei tempi di analisi dell’ordine dei giorni, circostanza che può essere una grave limitazione in caso di emergenza radiologica e nucleare. Per questo motivo, la ricerca e la messa a punto di metodi rapidi per la misura dello 90Sr nelle matrici ambientali e alimentari è un tema di particolare interesse. In questo lavoro vengono presentati alcuni risultati preliminari su misure dello 90Sr mediante effetto Cerenkov nell’acqua e nel latte. MATERIALI E METODI La condizione soglia vβ > c/n per cui si ha l’effetto Cerenkov può essere espressa in termini di energia cinetica della particella β (espressa in keV), dalla seguente disuguaglianza: (1) Inserendo nella (1) i valori degli indici di rifrazione dei mezzi considerati si possono ottenere le condizioni Cerenkov in termini di energia della particella β per alcuni mezzi specifici. Considerando i valori degli indici di rifrazione per l’acqua nacqua= 1,3329 e per il latte nlatte= 1,3440 si ha: • acqua EβC > 261,9 keV • latte EβC> 253,8 keV A partire dallo spettro β di ciascun radionuclide si può dunque, in linea di principio, calcolare la frazione di particelle che sono in grado di produrre effetto Cerenkov. Possiamo infatti definire come “frazione Cerenkov” la quantità rC: (2) 43 dove N(E) è la funzione densità che descrive lo spettro di ciascun radionuclide. Il calcolo della (2) è nella pratica piuttosto laborioso perché necessita della conoscenza esplicita della funzione N(E), che dipende a sua volta dalla funzione di Fermi fc(Z,E) che deriva dalla teoria del decadimento β. Tuttavia, per le applicazioni che qui interessano, cioè la misura dello 90Sr in matrici ambientali e alimentari liquide, conviene in prima battuta adottare un approccio sperimentale, considerando quei radionuclidi che potenzialmente possono interferire nella misura e andando semplicemente ad osservare gli spettri Cerenkov che si ottengono. Lo 90Sr, se considerato in equilibrio secolare con l’90Y, è uno dei radionuclidi per i quali l’effetto Cerenkov è più pronunciato. Infatti entrambi sono degli emettitori β puri con, rispettivamente, Εβmax = 544 keV e Εβmax = 2270 keV. Complessivamente abbiamo infatti un valore della frazione Cerenkov piuttosto elevato rC = 0,61, cioè il 61% dei raggi β emessi dal sistema 90Sr/90Y genera effetto Cerenkov. Bisogna comunque tenere presente che, visto il valore relativamente basso delle soglie Cerenkov definite dalla (1), sono parecchi i radionuclidi, sia naturali che artificiali, potenzialmente interferenti, sia pure con valori di rC più bassi. Possiamo ricordare, tra i radionuclidi naturali, quelli che hanno più probabilità di produrre effetto Cerenkov, in quanto hanno emissioni beta con energia massima dello spettro β > 1000 keV: 40K, 228Ac, 212Bi, 208Tl, 234m Pa, 214Pb e 210Bi. Nei campioni acquosi, tuttavia, la concentrazione di questi radionuclidi è generalmente molto bassa e possono quindi essere trascurati. Nei campioni di latte, invece, possono essere trascurati solamente i radionuclidi appartenenti alle serie dell’238U e del 232Th, mentre il 40K, contenuto nel latte in quantità variabile da circa 10 Bq/kg a 70-80 Bq/kg, non può essere trascurato (Rao D.D., Mehendarge S.T., Chandramouli S., Hegde A.G., Mishra U.C., 2000). Per quanto riguarda gli aspetti sperimentali, tutte le misure sono state effettuate con un contatore a basso fondo Quantulus della Perkin Elmer. Sono state sempre utilizzate fiale di polietilene “low diffusion” da 20 ml (Vaca F., Manjon G., Garcia-Leon M., 1998) con tempo di conteggio fissato a 480 minuti. Vista la natura essenzialmente fisica della produzione di luce Cerenkov, non è necessario controllare il grado di acidità del campione, come nella scintillazione liquida tradizionale. L’assenza di liquido scintillante e l’ininfluenza dell’acidità del campione semplificano e riducono i tempi di preparazione del campione, molto importanti in caso di emergenza. Un aspetto importante è stata la definizione della migliore modalità di misura. Il Quantulus ha infatti diverse modalità di misura: modalità trizio per rivelare particelle beta a bassa energia, modalità carbonio per rivelare particelle beta a energia maggiore e modalità di discriminazione per la rivelazione simultanea di particelle alfa e particelle beta. In base ai risultati delle prove effettuate si è scelto di utilizzare la modalità di discriminazione simultanea alfa/beta, considerando come segnale gli impulsi catalogati come beta. CAMPIONI ACQUOSI DEFINIZIONE DEL BIANCO Per la definizione del bianco sono state effettuate parecchie misure di acque di diversa provenienza, sia potabili che non potabili. Il campione è stato analizzato tal quale. Nella tabella seguente sono riportati i campioni più significativi tra i 24 analizzati. Si osserva che per i campioni ricchi di radioattività naturale (per esempio acqua Garbarino dalle terme di Lurisia – CN) è stato registrato un numero di conteggi leggermente maggiore. Ciò è probabilmente dovuto alla presenza di emettitori beta di origine naturale che, come abbiamo visto, producono effetto Cerenkov. Sono state considerate diverse finestre spettrali e per ognuna sono stati calcolati la media e lo scarto dei conteggi ottenuti dai differenti campioni. Si osserva che lo scarto percentuale dei conteggi è minimo per la finestra 250-350 canali. E’ stato inoltre verificato che il parametro di quenching SQP ha un valore medio di 285 ± 10%. 44 Tabella 1 | Conteggi di bianco in diverse finestre spettrali per differenti campioni acquosi (sono riportati come esempio sei dei ventiquattro campioni analizzati). cpm Finestra ch 150-400 Finestra ch 200-400 Finestra ch 300-400 Finestra ch 320-400 Finestra ch 250-350 1 Fiume Po Casale M.to (AL) 1,095 0,599 0,120 0,074 0,226 2 Lago Maggiore Stresa (VB) 1,070 0,589 0,120 0,082 0,228 6 Pioggia Samone (TO) 1,222 0,690 0,095 0,068 0,266 7 Acqua potabile Ivrea (TO) 1,211 0,667 0,106 0,076 0,279 18 Acqua termale Roccaforte M.vì (CN) 1,929 1,026 0,232 0,118 0,397 24 Acqua minerale Ferrarelle 1,463 0,825 0,133 0,093 0,298 media 1,203 0,682 0,125 0,081 0,275 scarto medio 0,231 0,117 0,030 0,016 0,045 scarto medio % 19,19 17,17 24,14 19,54 16,16 TARATURA Campioni tracciati con 90Sr/90Y all’equilibrio Sono stati tracciati vari campioni acquosi con una sorgente di 90Sr all’equilibrio con 90Y, a diverse concentrazioni. Come si nota dalla Figura 1 lo spettro Cerenkov si distingue molto bene dallo spettro del bianco, fino a concentrazioni dell’ordine del Bq/kg. Con i medesimi dati è stata verificata la linearità della risposta per concentrazioni da 11 Bq/kg a 220 Bq/kg, ottenendo un buon risultato (coefficiente R2 > 0,99). Con queste rette è stato possibile calcolare un’efficienza del 17,2% nella finestra tra 250 e 350 canali (finestra in cui i conteggi dei vari campioni di bianco variano meno) e del 5,4% nella finestra tra 300 e 400 canali (Figura 2). Figura 1 | Spettri Cerenkov ottenuti da fiale di acqua tracciate con 90Sr/90Y a diverse concentrazioni. 45 Figura 2 | Rette di taratura per 90Sr/90Y in acqua in due differenti finestre di conteggio. Con i conteggi di bianco medi nella finestra 250–350 canali e un’efficienza del 17,2% si ottiene una MAR (Minima Attività Rivelabile) di 0,55 Bq/kg, mentre con i conteggi di bianco medi nella finestra 300–400 canali e un’efficienza del 5,4% si ottiene una MAR di 1,25 Bq/kg, un valore decisamente peggiore rispetto a quello ottenuto per la finestra 250-350 canali. L’utilizzo della finestra 300–400 canali permette però di discriminare meglio il contributo del sistema 90Sr/90Y da quello di altri emettitori beta, come verrà illustrato nel paragrafo successivo. Campioni tracciati con 40K e altri emettitori beta Il lavoro svolto su fiale tracciate con il sistema 90Sr/90Y è un utile punto di partenza per lo studio dell’effetto Cerenkov, ma è abbastanza lontano dalla situazione che si presenta nella realtà. In casi di emergenza nucleare, infatti, sono presenti in genere molti radionuclidi differenti e difficilmente in equilibrio tra di loro, almeno nelle prime fasi dell’emergenza stessa. Lo stesso sistema 90Sr/90Y non è inizialmente all’equilibrio e quindi non è corretto attribuire l’attività calcolata tramite effetto Cerenkov (prodotto essenzialmente dall’90Y) allo 90Sr. Per ovviare a questo problema occorrerebbe quindi effettuare due tarature separate per lo 90Sr e l’90Y. Tuttavia, anche risolvendo questo problema, resta la difficoltà maggiore, cioè la presenza di radionuclidi interferenti: si tratta di radionuclidi emettitori beta, diversi da 90Sr e 90Y, e che possono produrre effetto Cerenkov. Per cercare di valutare questo problema sono stati tracciati dei campioni di acqua con 40 K (Εβmax=1310 keV) e con altri radionuclidi, utilizzando una vecchia sorgente multi picco comunemente utilizzata per la taratura di spettrometri gamma, contenente inizialmente 241Am, 109Cd, 57Co, 139Ce, 113Sn, 137 Cs, 88Y, 60Co. Di fatto, a causa del decadimento e delle caratteristiche di emissione di questi radionuclidi 241 (l’ Am è un emettitore alfa), possono essere considerati come radionuclidi interferenti i soli 137Cs e 60Co. Nella Figura 3 sono riportati i relativi spettri. Si può osservare che gli spettri ottenuti da soluzioni di 40K e emettitori beta vari sono “schiacciati” verso le basse energie rispetto a quelli ottenuti dalle soluzioni di 90 Sr/90Y. Infatti si esauriscono approssimativamente nei primi 300 canali, mentre quelli prodotti da 90Sr/90Y giungono attorno al canale 400. Per questo motivo, nonostante la minore efficienza, è sembrato più opportuno prendere come finestra di conteggio Cerenkov quella tra i 300 e i 400 canali, per la quale è più agevole discriminare il contributo dello 90Sr/90Y da quello di altri radionuclidi. 46 Figura 3 | Spettri Cerenkov ottenuti da fiale di acqua tracciate con 40K, emettitori beta vari e 90Sr/90Y. Lo spettro in verde è stato ottenuto da una soluzione contenente vari emettitori beta tra cui 137Cs (161 Bq/kg) e 60Co (129 Bq/kg). Si osserva come nella finestra 300-400 canali ci sia solamente il contributo dello 90Sr/90Y e non più quello degli altri beta emettitori. Quindi la finestra 300-400 canali permette di discriminare la componente dovuta allo 90Sr/90Y da quella dovuta ad altri radionuclidi. Verifica della taratura Sono state infine tracciate, sia con 90Sr/90Y che con la sorgente multi picco sopra citata, due campioni di acqua. Applicando la taratura elaborata si è risaliti alla concentrazione di 90Sr/90Y aggiunta. Nella tabella seguente sono riportati i risultati ottenuti. Nella Figura 4 sono invece riportati gli spettri relativi alla Fiala 1. Si vede chiaramente che la curva rossa, relativa alla fiala che contiene sia 90Sr/90Y (52,61 Bq/kg) che altri emettitori beta (tra cui 55 Bq/kg di 137Cs e 43 Bq/kg di 60Co), è la somma di quella gialla, relativa alla fiala contenente solo 90Sr/90Y e di quella verde, relativa alla fiala contenente solo gli altri emettitori beta. Tabella 2 | Concentrazioni misurate di 90Sr/90Y in fiale contenenti anche altri emettitori beta. Finestra utilizzata 300 – 400 canali Conteggi di bianco 0,125 ± 0,030 cpm Tempo conteggio 480 minuti Efficienza 0,054 ± 0,005 1/Bq cpm finestra 300-400 canali Attività misurata 90Sr/90Y Bq/kg Attività nota 90Sr/90Y Bq/kg Fiala 1 3,159 ± 0,123 54,60 ± 11,16 52,61 ± 4,58 Fiala 2 0,329 ± 0,026 3,75 ± 1,62 2,09 ± 0,18 Figura 4 | Spettri Cerenkov ottenuti da fiale di acqua tracciate con solo 90Sr/90Y, solo altri emettitori beta o entrambi. 47 CAMPIONI DI LATTE Lo studio del latte è stato effettuato con la stessa metodologia utilizzata per l’acqua. Per il latte tuttavia non è stato ancora possibile effettuare una taratura vera e propria, in quanto rispetto all’acqua presenta delle difficoltà maggiori, dovute essenzialmente alla forte opacità del latte alla luce e alla maggiore presenza di interferenti. Data l’opacità del campione, l’analisi del parametro di quenching SQP è di fondamentale importanza per poter fare una taratura. Per quanto riguarda gli interferenti, il latte è in generale più radioattivo dell’acqua e quindi ha maggiori possibilità di contenere radionuclidi che possono produrre effetto Cerenkov (radionuclidi naturali e soprattutto 40K). D’altra parte, però, il latte assorbe maggiormente i fotoni rispetto all’acqua. Lo spettro di un campione di latte sarà quindi il risultato di questi due fenomeni che agiscono in maniera opposta. DEFINIZIONE DEL BIANCO E RUOLO DEL 40K Anche con i campioni di latte sono state effettuate numerose prove di bianco (in totale 17). Nella tabella seguente (simile alla Tabella 1 relativa ai campioni acquosi) vengono riportati i valori medi e i relativi scarti ottenuti in differenti finestre di conteggio. E’ stato inoltre osservato che il parametro di quenching SQP è molto variabile (anche con scarti di circa il 40%): ciò potrebbe dipendere dal diverso tipo di latte (intero, parzialmente scremato, ecc.) e soprattutto dal grado di conservazione. Tabella 3 | Conteggi di bianco in diverse finestre spettrali per differenti campioni di latte. cpm Finestra ch 200-400 Finestra ch 250-350 Finestra ch 300-400 media 0,357 0,103 0,037 deviazione standard 0,215 0,037 0,014 deviazione standard % 60,29 35,76 38,27 Nella figura sottostante sono confrontati uno spettro di bianco di acqua e uno di latte. L’opacità del latte fa sì che lo spettro di bianco sia più schiacciato verso le basse energie rispetto a uno spettro di bianco dell’acqua. Il maggior numero di conteggi presenti nel bianco di latte si concentra quindi nei primi canali dello spettro (fino al canale 150 circa) creando un vero e proprio picco. Tuttavia la causa di questo picco potrebbe non essere la radioattività naturale contenuta nel latte stesso, ma bensì un effetto di luminescenza dovuto all’assorbimento della luce (Stamoulis K.C., Ioannides K.G., Karamanis D.T., Patiris D.C., 2007): esso è infatti presente in tutti i campioni di latte indipendentemente dal tipo di radioattività contenuta (90Sr/90Y e altri beta emettitori, in particolare il 40K). Figura 5 | Spettri di bianco di acqua e di latte. Fino al canale 150 circa i conteggi di bianco del latte sono superiori a quelli dell’acqua. Dal canale 150 in poi accade il contrario. 48 CAMPIONI TRACCIATI CON EMETTITORI BETA Campioni tracciati con 90Sr/90Y all’equilibrio Sono stati tracciati campioni di latte con 90Sr/90Y a concentrazioni crescenti. Come si nota dalla figura seguente, lo spettro Cerenkov è ben visibile rispetto allo spettro di bianco fino a concentrazioni dell’ordine di una decina di Bq/kg. A concentrazioni inferiori lo spettro risulta molto simile a quello di bianco e difficilmente distinguibile. Per l’acqua invece è possibile distinguere uno spettro dallo spettro di bianco anche a concentrazioni di qualche Bq/kg. Figura 6 | Spettri Cerenkov ottenuti da fiale di latte tracciate con 90Sr/90Y a diverse concentrazioni. Campioni tracciati con altri radionuclidi emettitori beta Sono inoltre state tracciate fiale con altri radionuclidi emettitori beta utilizzando una sorgente multi picco utilizzata per la taratura di spettrometri gamma, analogamente a quanto fatto per l’acqua. Come si può osservare dalla figura seguente gli spettri delle fiale tracciate (con attività variabili tra circa 10 Bq/kg e 30 Bq/kg sia per il 137Cs che per il 60Co) non si distinguono da quello della fiala di bianco: l’attività utilizzata è probabilmente troppo modesta per determinare un incremento dei conteggi dello spettro. L’opacità del latte infatti fa sì che la luce Cerenkov prodotta dalle particelle beta di 137Cs e 60Co, meno energetiche, venga assorbita prima di raggiungere i fotomoltiplicatori, mentre ciò non accade per le particelle ad alta energia prodotte dallo 90Sr/90Y. Figura 7 | Spettri Cerenkov ottenuti da fiale di latte tracciate con 90Sr/90Y e altri emettitori beta a diverse concentrazioni (tra 10 Bq/kg e 30 Bq/kg). 49 CONCLUSIONI La rivelazione della luce Cerenkov impiegando un contatore per scintillazione liquida consente una determinazione quantitativa dello 90Sr all’equilibrio con 90Y in campioni acquosi, anche in presenza di altri radionuclidi interferenti. In caso di emergenza questa tecnica può essere una valida alternativa ai metodi tradizionali per la misura dello 90Sr. Infatti, essa comporta dei tempi di risposta decisamente più brevi, a scapito di una sensibilità meno buona (MAR dell’ordine del Bq/kg contro i mBq/kg delle tecniche radiochimiche tradizionali). Una sensibilità dell’ordine del Bq/kg è comunque ampiamente sufficiente in caso di emergenza: basti ricordare che i limiti imposti per lo 90Sr dai regolamenti europei sugli alimenti in caso di emergenza sono 125 Bq/kg per i prodotti lattiero caseari e i liquidi, 75 Bq/kg per gli alimenti per l’infanzia e 750 Bq/kg per gli altri alimenti (Regolamento EURATOM n° 3954/87 del 22-12-1987 e Regolamento EURATOM n° 2218/89 del 18-07-1989). Analogamente all’acqua è anche stato studiato il latte. La maggior complessità del campione, dovuta all’opacità e alla maggiore presenza di possibili radionuclidi interferenti, ha fatto sì che per il latte non si sia ancora arrivati a una vera e propria taratura e alla definizione della relativa MAR. Si è comunque in grado di rilevare nel latte la presenza di 90Sr all’equilibrio con 90Y fino a concentrazioni dell’ordine della decina di Bq/kg. In conclusione si può affermare che la misura di 90Sr/90Y mediante effetto Cerenkov si è dimostrata un valido strumento di screening, in situazione di emergenza, per la scelta dei campioni sui cui effettuare la radiochimica classica. Per il futuro sono in programma approfondimenti sperimentali teorici per quantificare le MAR anche per la matrice latte e per estendere questi risultati a tutti i possibili radionuclidi interferenti. BIBLIOGRAFIA 1. Rao D.D., Mehendarge S.T., Chandramouli S., Hegde A.G., Mishra U.C., Application of Cherenkov radiation counting for determination of 90Sr in environmental samples, 2000, Journal of Environmental Radioactivity 48. 2. Vaca F., Manjon G., Garcia-Leon M., Efficiency calibration of a liquid scintillation counter for 90Y Cherenkov counting, 1998, Nuclear Instruments and Methods in Physics Research A 406. 3. Stamoulis K.C., Ioannides K.G., Karamanis D.T., Patiris D.C., Rapid screening of 90Sr activity in water and milk samples using Cherenkov radiation, 2007, Journal of Environmental Radioactivity 93. 50 Articoli Misura dell’attività alfa-beta totale nelle acque mediante LSC: influenza dello spillover e ottimizzazione dei parametri sperimentali Forte M., Rusconi R., Badalamenti P., Costantino S., Lunesu D. ARPA Lombardia, via Juvara 22,20129 Milano (MI), [email protected] INTRODUZIONE La misura dell’attività alfa e beta totale nelle acque ad uso potabile mediante scintillazione liquida (LSC) con discriminazione alfa/beta rappresenta un utilissimo metodo di screening, oggi largamente impiegato per una prima, rapida valutazione della qualità radiometrica delle acque e come strumento decisionale relativo ad eventuali approfondimenti analitici (Kleinschmidt 2004, Happel S. et al. 2004, Wong 2005, Forte 2005 e 2007, Salonen 2006a, Ruberu 2008). Nonostante questa tecnica sia ampiamente consolidata, e in alcuni casi recepita come standard (ASTM 2006, UNI 2008, ISO 2010) essa presenta criticità intrinseche che devono essere opportunamente valutate. Alcuni di questi problemi sono indipendenti dalla procedura specifica adottata e sono dovuti sostanzialmente a due ragioni: • normalmente non è noto quali radionuclidi sono presenti nel campione. I differenti radionuclidi potenzialmente presenti possono presentare diverse efficienze di conteggio, specie nel caso dei radionuclidi beta emettitori. Inoltre il punto di lavoro ottimale per una buona discriminazione degli alfa emettitori dai beta emettitori è differente per i radionuclidi di diversa energia. • la composizione del campione e i reagenti utilizzati nel suo pretrattamento (acidi minerali) modificano lo spegnimento (quenching), influenzando l’efficienza di rivelazione e la discriminazione degli impulsi originati dalle emissioni alfa e beta. La non corretta classificazione degli impulsi alfa e beta, denominata interferenza alfa/beta (in inglese misclassification o spillover), origina un errato computo dei conteggi che va corretto o comunque valutato (Swemkow 2001). Sono stati effettuati numerosi studi per valutare la dipendenza dello spillover dalla composizione del campione (Sanchez-Cabeza 1992 e 1995, Pates 1994 e 1998, Salonen 2006b, Pujol 1997, DeVol 2007) ma i risultati ottenuti, pur offrendo utili indicazioni per comprendere la natura del fenomeno, risultano difficilmente utilizzabili per controllare efficacemente i parametri che possono alterare l’accuratezza delle misure ovvero per applicare adeguate correzioni al risultato. Recentemente sono state effettuate più puntuali valutazioni dell’influenza dello spillover sul risultato della determinazione (Rusconi 2006; Zapata 2012). Dall’esame della letteratura scientifica appare evidente che un forte elemento di criticità dell’analisi è legato all’interferenza alfa/beta che, a sua volta appare influenzata dalla composizione del campione. Le stesse procedure normate (UNI 2008, ISO 2010) prescrivono condizioni stringenti nella preparazione del campione, in particolare per quanto riguarda l’acidificazione. Scopo del presente lavoro è di valutare in modo sistematico l’influenza della composizione del campione sulla interferenza alfa/beta, e quindi sull’accuratezza, pertanto effettuando un’analisi di robustezza del metodo. I risultati preliminari di questo lavoro sono stati presentati nell’ultimo convegno internazionale di scintillazione liquida LSC2010 (Forte 2010). MATERIALI E METODI Le determinazioni sperimentali sono state effettuate mediante uno scintillatore Quantulus 1220 (Perkin Elmer). Sono state usate fiale per scintillazione in polietilene teflonato Zinsser SLD, come cocktail scintillante Quicksafe 400 (Zinsser). Le soluzioni di riferimento certificate di 236U e di 241Am sono state fornite da Eckert & Ziegler, quella di 90Sr da Cerca-Framatome. Le sorgenti di 40K sono state ottenute per dissoluzione di KCl (purezza 99.995%, Alfa Aesar), precedentemente essiccato a 200 °C. Tutti i reagenti utilizzati sono di grado analitico. Le sorgenti ad acidità nota sono state ottenute utilizzando soluzioni di HNO3 0,5 M e HCl 1 M, a loro volta ottenute dalla diluizione degli acidi concentrati e titolate alla fenolftaleina contro una soluzione di NaOH 51 0,1 M (Merck). Il pH delle sorgenti è stato ottenuto per calcolo, considerata la quantità di acido aggiunta. La procedura adottata per la preparazione e la misura dei campioni è la UNI 11260: sono stati trasferiti nel vial di scintillazione 8 mL di soluzione acquosa (contenente lo standard radioattivo ed una quantità nota di acido e/o di sale) e 12 mL di cocktail scintillante. Il vial è stato posto in conteggio per un tempo sufficiente e dipendente dalla quantità di radionuclide. Gli intervalli di conteggio scelte per la finestra alfa erano compresi tra i canali 500 e 700, per quella beta tra i canali 500 e 1000. RISULTATI E DISCUSSIONE CURVE DI INTERFERENZA E PUNTO DI LAVORO Inizialmente sono state ricavate le curve di interferenza dai valori delle interferenze τα e τβ in funzione dei diversi valori del parametro di discriminazione (PSA) impostato sullo strumento (UNI 2008). Per ogni misura si è calcolato il valore del parametro τα (interferenza alfa), definito come la frazione dei conteggi prodotti da particelle alfa che sono registrati erroneamente nel canale di conteggio beta quando si misura un emettitore alfa puro (Rusconi 2006). (1) dove: Cα: conteggi netti nel canale di conteggio alfa Cβ: conteggi netti nel canale di conteggio beta. Sono state impiegate sorgenti di 236U e di 241Am diluite in HNO3 0,03 M, corrispondente a pH 1,7, e preparate secondo le modalità sopra descritte. Analogamente è stata calcolata l’interferenza beta τβ misurando sorgenti di beta emettitori (40K e 90Sr in equilibrio secolare con 90Y). I risultati sono riportati in Fig. 1. Figura 1 | Curve di interferenza alfa e beta Si può notare che mentre il comportamento dei beta emettitori è simile a prescindere dalla loro energia, le curve riferite agli alfa emettitori 236U e 241Am sono diverse e danno luogo a differenti punti di intersezione, sia per quanto riguarda il “punto ottimale di lavoro” (PSA, in ascissa) che per quanto riguarda il valore di interferenza minimo (in ordinata). Dal momento che gli alfa emettitori normalmente presenti in acqua hanno energie più prossime a quelle del 236U che a quelle del 241Am (Tab. 1), abbiamo scelto di utilizzare per le prove descritte più oltre 236U come alfa emettitore e 90Sr come beta emettitore, ed impostare come punto di lavoro il parametro PSA corrispondente alla intersezione delle rispettive curve . Queste impostazioni sono state utilizzate per tutte le prove seguenti. Tabella 1 | Energia dei radionuclidi utilizzati per la taratura Radionuclide 241 5,49 U 4,49 K 1.31* Sr 0.54* 236 40 90 90 Emissione (MeV) Am Y** 2.28* * energia massima ** in equilibrio con Sr 90 52 EFFETTO DELLA COMPOSIZIONE CHIMICA SULLA INTERFERENZA Sono stati successivamente preparati una serie di campioni tracciati rispettivamente con 236U e 90Sr secondo le modalità sopradescritte e acidificati in modo crescente con acido nitrico. I valori delle interferenze (rispettivamente τα e τβ) sono riportati in Fig. 2. Le concentrazioni di acido sono riportate in molarità di acido nitrico (M) e ne è stato considerato un range molto ampio, tenuto conto che i valori variano da 0,004 M a 0,48 M, corrispondenti rispettivamente a pH 2,5 e pH 0,3. Figura 2 | Influenza dell’acidità su interferenza e quenching (236U e 90Sr) Si può notare che, mentre per il radionuclide beta emettitore τβ rimane quasi costante, nel caso dell’alfa emettitore l’aumento di τα è rapido e marcato. Nel grafico viene anche riportato il parametro di spegnimento fornito dallo strumento (SQPe, in canali, con la sua incertezza valutata sperimentalmente in ± 5 canali). In altri tipi di scintillatore liquido si utilizzano differenti parametri per monitorare lo spegnimento, come ad esempio il tSIE nel caso degli strumenti prodotti precedentemente dalla Packard. Si può notare come il parametro di quenching SQPe rimanga sostanzialmente costante in tutto il range di misura. Lo spegnimento valutato attraverso il parametro SQPe quindi, in questo caso, non rappresenta un utile indicatore della variazione della interferenza alfa. Successivamente è stato paragonato l’effetto sulla interferenza dell’aggiunta di acidi di diverso tipo: sono stati presi in esame l’acido cloridrico, altro acido di uso molto comune, e l’acido metansolfonico. Quest’ultimo è strutturalmente analogo all’acido solforico ma è un acido monoprotico come i precedenti. Sono state effettuate anche delle aggiunte di cloroformio Quest’ultimo non è un acido ma un solvente organico comunemente utilizzato in letteratura (come anche il tetracloruro di carbonio) in qualità di agente quenchante. In Fig.3 sono stati riportati i risultati ottenuti per l’interferenza alfa. I valori dell’interferenza beta rimangono pressoché costanti e non sono stati inseriti in figura per chiarezza. Figura 3 | Influenza di differenti acidi su interferenza alfa (236U) 53 Il grafico evidenzia come l’effetto dell’aggiunta di acido cloridrico e metansolfonico sull’interferenza, a differenza di quello dell’acido nitrico, sia pressoché nullo. Il cloroformio produce invece una marcata influenza sia sull’interferenza che sullo spegnimento, come ben monitorato dal parametro SQPe (Figura 4). Questo spiega perché si sia spesso tentato (Sanchez-Cabeza 1992, Pates 1996, Salonen 2006b) di mettere in relazione l’interferenza con lo spegnimento. L’altra componente rilevante nella composizione chimica dei campioni è la carica salina che può variare notevolmente nelle acque potabili (da poche decine di mg/L ad oltre il g/L). Per quanto siano sempre presenti molti tipi di cationi, normalmente quello più abbondante è Ca2+. Nel presente lavoro sali di calcio sono stati impiegati per investigare l’effetto dei solidi disciolti. Sono stati esaminati due set di campioni marcati, uno acidificato con HNO3 a pH 1,5 (HNO3 0,03 M, rappresentativo della procedura standard di preparazione), un altro acidificato con HNO3 a pH 2,5, in cui la concentrazione di acido è dieci volte più bassa (0,003 M). Sfortunatamente non è possibile preparare campioni completamente privi di acido in quanto questo è presente nella soluzione di riferimento certificata come stabilizzante. Anche in questo caso sono riportati (Figura 5) i soli risultati per l’interferenza alfa in quanto l’interferenza beta risulta costante. A questi set sono stati aggiunte quantità variabili di sali di calcio, sia nella forma di calcio nitrato (in cui l’anione nitrato è comune a quello dell’acido nitrico e va in pratica a sommarsi a questo), sia nella forma di calcio cloruro (in cui non è presente ulteriore anione nitrato). Il secondo caso è più rappresentativo della situazione reale delle acque in cui la presenza di anioni nitrato è molto limitata. Figura 4 | Relazione tra parametro di quenching (SQPe) e interferenza alfa Figura 5 | Influenza dei sali sull’interferenza alfa (236U ) 54 Si osserva che l’aggiunta di calcio nitrato produce un rapido aumento dell’interferenza, specie a pH 1,5, quando cioè è gia presente una apprezzabile quantità di anione nitrato derivante dall’acido nitrico. L’effetto dell’aggiunta di calcio cloruro sull’interferenza è invece trascurabile anche a concentrazioni relativamente elevate (la concentrazione massima raggiunta è 0,48 M, corrispondente a 53 g/L di CaCl2). La concentrazione di catione calcio, quindi, influenza in modo trascurabile l’interferenza mentre l’aumento dell’anione nitrato produce un marcato aumento della stessa. Questa conclusione è coerente con quanto verificato per l’aggiunta di diversi tipi di acido. SCELTA DELLE CONDIZIONI DI LAVORO Le prove precedenti permettono di stabilire delle condizioni di lavoro entro cui la variazione dell’interferenza è ritenuta accettabile. L’influenza del residuo totale delle acque, qui simulata con l’aggiunta di sali di calcio, può essere considerata trascurabile, va comunque tenuto presente che la concentrazione del campione per riscaldamento ed evaporazione non deve mai essere spinto al punto da provocare precipitazione dei composti in soluzione. Nella procedura da noi adottata abbiamo cautelativamente scelto di fissare in 0,5 g/L il limite superiore di residuo totale per procedere alla concentrazione 10:1 del campione per evaporazione (concentrazione finale 5 g/L). L’acidificazione del campione, necessaria alla sua stabilizzazione, specialmente se è prevista una concentrazione per riscaldamento, deve essere controllata accuratamente, ed in particolare quando venga impiegato acido nitrico. Le condizioni di lavoro indicate dalla norma UNI 11260 (pH 1,7 ± 0,3) e ISO 11704 (1,7 ± 0,2) (UNI 2008, ISO 2010), applicate alle nostre circostanze sperimentali, sono tali da contenere l’interferenza alfa/beta entro il 4% (Fig. 6). Bisogna tuttavia tener presente che, dalle prove effettuate, l’aumento dell’interferenza non appare correlato tanto al pH quanto alla concentrazione di anione nitrato, quindi, in casi particolari in cui, date le caratteristiche dell’acqua, sia necessario aggiungere una maggior quantità di acido per ottenere il pH richiesto, va verificato, ad esempio dall’esame degli spettri, che non si siano prodotte anomalie dovute ad un elevato aumento dell’interferenza. Figura 6 | Interferenza alfa/beta e pH (HNO3) INFLUENZA DELL’INTERFERENZA SULL’INCERTEZZA E SULL’ACCURATEZZA Una volta noto il valore dell’interferenza alfa e beta, è possibile tenerne conto nell’espressione del risultato (ASTM 2006). I conteggi netti alfa effettivi Ceff α si ottengono sottraendo dai conteggi netti totali nel canale alfa quelli originati dal decadimento beta e finiti erroneamente nel canale alfa (Cβ* τβ) e aggiungendovi i conteggi netti originati dal decadimento alfa e finiti erroneamente nel canale beta (Cα* τα, come rappresentato nella formula (2) Ceff α= Cα– Cβ* τβ+ Cα* τα (2) La formula completamente esplicitata che consente di ricavare l’attività è riportata altrove (Rusconi 2006). Ricavandone le derivate parziali, è possibile stimare i contributi all’incertezza delle diverse componenti. 55 Dall’esame dei risultati precedentemente ottenuti si è valutato che, fissando un intervallo di lavoro tra 1,4 e 2,0 per il pH (con acido nitrico) e tra 0 e 5 g/L per i sali disciolti (residuo fisso), ci si può attendere: τα (%) = 4,0 ± 1, 5 e τβ (%) = 4,0 ± 0, 5. In un caso esemplificativo, ipotizzando: attività alfa=attività beta = 0,2 Bq/L, tempo conteggio = 1000 minuti, massa campione = 80 g, si otterrebbe la seguente distribuzione di contributi alla varianza (e quindi all’incertezza) della misura (Tab. 2). Come si può notare, l’influenza della varianza di: τα e τβ alla varianza totale è relativamente modesto. Tabella 2 | Contributo percentuale delle varianze dei parametri alla varianza delle attività alfa e beta Contributo % alla varianza Attività α (%) Attività β (%) Cα τα 46,9 0,1 9,9 7,1 0,2 64,1 Interferenza beta Cβ τβ 0,8 0,6 Efficienza alfa εα 37,5 - Efficienza beta εβ - 21,6 Massa campione Q 3,7 1,9 Conteggi alfa Interferenza alfa Conteggi beta Per valutare sperimentalmente l’esattezza delle misure, sono stati preparati, mediante la procedura standard UNI 11260 alcuni campioni ad attività alfa e beta nota. Per simulare nella maniera più realistica le situazioni riscontrabili con campioni di acque potabili, sono stati scelti come alfa emettitore 236U e come beta emettitore 40K ed il loro rapporto è stato fatto variare di due ordini di grandezza (Tab. 3). Si può notare che i risultati sono sempre accettabili a meno dell’incertezza estesa di misura (U test). Si può osservare che la determinazione della attività alfa è sempre accurata, le attività beta misurate presentano bias elevati quando l’attività alfa è molto superiore all’attività beta. Ciò è probabilmente ascrivibile alla diversa dimensione delle finestre di misura: anche nel caso di una interferenza beta elevata, solo una parte degli impulsi erroneamente discriminati vengono contabilizzati come conteggi alfa in quanto la finestra di conteggio alfa è relativamente stretta (200 canali contro i 500 della finestra beta). Va anche considerato, tuttavia, che i campioni reali presentano, per la nostra esperienza fin qui maturata, spesso R <1 (75% dei casi circa), solo nell’1% circa dei casi si sono riscontrati R compresi tra 2 e 3 e mai superiori a quest’ultimo valore (ove R è il rapporto tra l’attività alfa e l’attività beta). Se, al contrario, per il calcolo delle attività non si considera il contributo dell’interferenza e si utilizza una formula semplificata ove tutti i conteggi alfa vengono attribuiti all’alfa emettitore (e così pure per la parte beta), si ottengono i risultati riassunti in Tabella 4. L’accuratezza della misura risulta sempre buona per l’attività alfa, mentre per quanto riguarda l’attività beta, non è più accettabile negli ultimi due casi esaminati, in cui l’attività alfa è superiore di 5-10 volte all’attività beta. Tabella 3 | Misura dell’attività alfa e beta su campioni tracciati (formula esatta) Concentrazione di attività nominale Concentrazione misurata (formula esatta) Valutazione Att. α (Bq/kg) ± Att. β (Bq/kg) ± R (att. α/β) Att. α (Bq/kg) ± Att. β (Bq/kg) ± Esatt. α (%) Esatt. β (%) utest α utest β 1 56 2 576 16 0,1 54 3 591 21 -4,5 2,6 -0,7 0,6 2 56 2 291 8 0,2 56 3 299 11 -0,4 2,7 -0,1 0,6 3 57 2 117 3 0,5 59 2 119 4 3,3 1,9 0,7 0,4 Camp. 4 57 2 59 2 1 59 2 61 2 2,7 3,4 0,5 0,7 5 114 3 59 2 2 118 4 60 3 3,2 2,0 0,6 0,3 6 286 9 59 2 5 294 11 61 6 3,0 3,6 0,6 0,3 7 564 17 59 2 10 576 21 69 11 2,1 17,2 0,4 0,9 56 Tabella 4 | Misura dell’attività alfa e beta su campioni tracciati (formula semplificata) Concentrazione di attività nominale Concentrazione misurata (formula semplificata) Valutazione Camp. Att. α (Bq/kg) ± Att. β (Bq/kg) ± R (att. α/β) Att. α (Bq/kg) ± Att. β (Bq/ kg) ± Esatt. α (%) Esatt. β (%) utest α utest β 1 56 2 576 16 0,1 58 2 575 20 4,1 -0,2 0,9 -0,04 2 56 2 291 8 0,2 56 2 292 10 0,1 0,3 0,03 0,1 3 57 2 117 3 0,5 58 2 118 4 1,0 0,6 0,2 0,1 4 57 2 59 2 1 57 2 61 2 0,1 3,8 0,02 0,8 5 114 3 59 2 2 114 4 62 2 -0,02 5,9 -0,003 1,3 6 286 9 59 2 5 285 10 69 2 -0,1 17,9 -0.03 3,6 7 564 17 59 2 10 559 19 87 3 -0,9 47,9 -0.2 8,1 CONCLUSIONI La misura dell’attività alfa e beta totale mediante scintillazione liquida presenta criticità specifiche. In una precedente pubblicazione (Rusconi 2006) sono state considerate sia la variabilità connessa al valore dell’efficienza (tenuto conto che si misurano simultaneamente più radionuclidi con differenti caratteristiche) che le problematiche legate alla interferenza alfa/beta o spillover. In questo lavoro si è verificato come la composizione del campione, sia in quanto tale (presenza di sali disciolti) che in seguito alla sua preparazione (acidificazione) possa influire sul risultato della misura: ciò equivale ad una analisi della robustezza del metodo. Si è esaminata in particolare l’influenza della composizione chimica sull’interferenza alfa e beta. Contrariamente ad altri approcci descritti in letteratura miranti ad ottimizzare l’analisi caso per caso, si è qui scelto di fissare le condizioni di lavoro a priori, conformemente a quanto descritto nella norma UNI 11260 (UNI 2008), e di verificare quanto le variazioni introdotte nel campione modificassero l’interferenza. Le prove effettuate hanno dimostrato che: 1) L’interferenza beta (τβ) dipende scarsamente dalla composizione del campione 2) L’interferenza alfa (τα) dipende in modo marcato dalla presenza di anioni nitrato (NO3-). Questi sono normalmente poco presenti nel campione ma vengono introdotti quando lo si acidifica con acido nitrico. 3) L’influenza degli altri parametri di composizione (acidità, presenza di sali) su τα è scarsa. 4) La variazione introdotta dagli anioni nitrato (NO3-) sul parametro strumentale che rileva il quenching (SQPe) è troppo bassa per essere utilizzabile per eventuali correzioni. E’ difficile evitare l’uso dell’acido nitrico per la stabilizzazione del campione, sia per le sue caratteristiche chimiche che per le indicazioni specifiche fornite dalle norme nazionali e internazionali (ISO 2003). Inoltre i campioni degli interconfronti sulle acque sono normalmente acidificati con acido nitrico. Le prove effettuate hanno permesso di stabilire che controllando accuratamente l’acidificazione è possibile limitare l’interferenza massima entro termini considerati accettabili: nel nostro caso si è fissato un intervallo di lavoro compreso tra pH 1,4 e 2,0 (UNI 2008) a cui sui associano interferenze alfa percentuali pari a τα (%) = 4,0 ± 1, 5 e interferenze beta τβ (%) = 4,0 ± 0,5. La loro varianza ha un peso modesto all’interno della stima della incertezza complessiva (inferiore al 10% per l’interferenza alfa e inferiore all’ 1 % per l’interferenza beta). Per quanto riguarda l’accuratezza delle misure, è possibile correggere il risultato per l’interferenza stimata (utilizzando la cosiddetta formula esatta). La correzione è utile quando il rapporto tra le attività alfa e beta si discosta significativamente dall’unità (e.g. > 5) e le interferenze non riescono più a compensarsi. Tuttavia nei casi reali il rapporto delle attività alfa e beta è tale, almeno per la nostra esperienza operativa, che anche una formula di calcolo della attività che trascuri le interferenze, fornisce risultati con una esattezza accettabile, considerata anche l’elevata incertezza sperimentale associata a questo tipo di misure. 57 BIBLIOGRAFIA 1. ASTM 2006. Standard method for alpha and beta activity in water by liquid scintillation counting. ASTM International, Designation D 7283-06. 2. DeVol, T.A., Theisen, C.D., DiPrete, D.P., 2007. Effect of quench on alpha/beta pulse shape discrimination of liquid scintillation cocktails. Health Physics 92, S105-S111. 3. Forte M., Rusconi R., Cazzaniga M.T., Sgorbati G. 2005. La radioattività nelle acque potabili lombarde: impostazione dei controlli”; Acqua e Aria, 5, 32-36. 4. Forte, M., Rusconi, R., Cazzaniga, M.T., Sgorbati, G., 2007. The measurement of radioactivity in Italian drinking waters. Microchemical Journal 85, 98-102. 5. Forte, M., Rusconi R., Costantino S., Badalamenti P., Lunesu D. Sgorbati G., 20108. Gross α and β measurement by LSC in waters: advantages, problems and limitations 6. Proceedings of International Conference on Advances in Liquid Scintillation Spectrometry – LSC2010, Paris Sept 6-10, 2010 7. Happel S. et al. 2004. Gross alpha determination in drinking water using a highly specific resin and LSC. Appl. Radiat. Isotopes 61, 339-344. 8. ISO 2003. ISO 5667-3. Water quality – Sampling. Part 3 : Guidance on the preservation and handling of water samples. Third edition, 2003-12-15 9. ISO, 2010. ISO 11704:2010. Water quality. Measurement of gross alpha and beta 382 activity concentration in non-saline water - Liquid scintillation counting method ISO, 10. Kleinschmidt, R.I., 2004. Gross alpha and beta activity analysis in water--a routine laboratory method using liquid scintillation analysis. Applied Radiation and Isotopes 386 61, 333-338. 11. Pates, J.M., Cook, G.T., MacKenzie, A.B.,1994. Quenching and its effect on alpha/beta separation liquid scintillation spectrometry. Liquid Scintillation Spectrometry (in Radiocarbon, 1996) 75-85. 12. Pates, J.M., Cook, G.T., MacKenzie, A.B., Pass, C.J., 1998. Implications of beta energy and quench level for alpha/beta liquid scintillation spectrometry calibration. Analyst 123, 2201-2207. 13. Pujol, L., Sanchez-Cabeza, J.-A., 1997. Role of quenching on alpha/beta separation in liquid scintillation counting for several high capacity cocktails. Analyst (Cambridge, United Kingdom) 122, 383-385. 14. Ruberu, S.R., Liu, Y.-G., Perera, S.K., 2008. An Improved Liquid Scintillation Counting Method for the Determination of Gross Alpha Activity in Groundwater Wells. Health Physics 95, 397-406. 15. Rusconi, R., Forte, M., Caresana, M., Bellinzona, S., Cazzaniga, M.T., Sgorbati, G.,2006. The evaluation of uncertainty in low-level LSC measurements of water samples. Applied Radiation and Isotopes, 64, 1124-1129. 16. Salonen, L., 2006a. Alpha/Beta liquid scintillation spectrometry in surveying Finnish groundwater samples. Radiochemistry, 48, 606-612. 17. Salonen, L., 2006b. Alpha spillover depends on alpha energy: a new finding in alpha/beta liquid scintillation spectrometry. LSC 2005, Advances in Liquid Scintillation Spectrometry, [International Conference], Katowice, Poland, 2005, 135-148. 18. Sanchez.-Cabeza J.A. et al., 1992. Optimization and calibration of a low-background liquid scintillation counter for the simultaneous determination of alpha and beta emitters in aqueous samples. Liquid Scintillation Spectrometry (in Radiocarbon, 1993) 43-50. 19. Sanchez-Cabeza J.A., Puyol L., 1995. A rapid method for the simultaneous determination of gross alpha and beta activities in water samples using a low background liquid scintillation counter. . Health Physics, 68(5), 674-682. 20. Semkow, T.L., Parekh, P. P., 2001. Principles of gross alpha and beta radioactivity detection in water. Health Physics, 81(5), 567-574. 21. UNI, 2008. Qualità dell’acqua – Determinazione del contenuto di attività alfa e beta totale in acque destinate al consumo umano mediante scintillazione liquida. UNI 11260. 22. Wong, C.T., Soliman, V.M., Perera, S.K., 2005. Gross alpha/beta analyses in water by liquid scintillation counting. Journal of Radioanalytical and Nuclear Chemistry 264, 357-363. 23. Zapata-García, D., Llauradó M., Rauret G., 2012. Implications of particle energy and acid media for gross alpha and gross beta determination using liquid scintillation. Appl Radiat Isot. 70(4), 705-11 58 Articoli Accumulo di radionuclidi naturali ed artificiali in formazioni crioconitiche di alcuni ghiacciai delle Alpi Occidentali Massimo Faure Ragani*, Claudio Operti*, Giovanni Agnesod*, Stefano Bertino**, Giuliana Garbarino**, Mauro Magnoni**, Maura Ghione** *ARPA Valle di Aosta, Loc. Grande Charrière 44 ,11020 Saint Christophe (AO), [email protected] **ARPA Piemonte, Via Jervis 30, 10015 Ivrea (TO), [email protected] PREMESSA Nella zona delle Alpi Occidentali, la contaminazione ambientale diffusa da radionuclidi artificiali oggi presente è stata causata principalmente dalla dispersione di sostanze radioattive conseguenti l’incidente di Chernobyl nel 1986, dalle ricadute radioattive causate dagli esperimenti nucleari avvenuti negli anni ’60-’70 e dalle ricadute dovute all’incidente del satellite americano SNAP 9A nel 1964 [Tieber e al, 2009]). Un’ulteriore fonte diffusa, anche se minoritaria, è stata nel 2011 la dispersione a grande raggio di sostanze radioattive provenienti dalla centrale giapponese di Fukushima. Ognuna di queste fonti è caratterizzata dalla presenza di particolari radionuclidi, da rapporti isotopici specifici e da una distribuzione spaziale e temporale non sempre costante [Bossew e al., 2007]. Attualmente il principale radionuclide a vita lunga considerato nelle analisi su matrici ambientali è il 137Cs, che risulta essere quasi sempre l’unico rilevabile e che quindi è generalmente assunto come riferimento. Nel presente lavoro è stata analizzata una matrice ambientale che da qualche anno è oggetto di attenzione da parte di diversi gruppi di ricerca nel campo della radiometria ambientale: le crioconiti. Con questo nome si indicano gli accumuli di polvere aerodispersa che si formano sulla superficie dei ghiacciai e sulla soprastante copertura nevosa. Il termine fu coniato dall’esploratore svedese A.E. Nordenskiöld durante un viaggio in Groenlandia nel 1870 per descrivere tasche di polvere fina, amorfa di cui era disseminata la superficie del ghiacciaio continentale: dal greco “Kryos”- freddo e “Konis”- polvere. Per capire il meccanismo di formazione di queste cavità facciamo riferimento alla figura 1. a b c d e Figura 1 | Processo di formazione delle crioconiti La polvere aerodispersa (a) si deposita sulla superficie del ghiacciaio (b) e nei punti in cui inizia ad accumularsi per effetto della morfologia superficiale (c), durante il periodo di ablazione caratteristico della stagione tardo primaverile – estiva, diminuisce l’albedo (b,c). In seguito all’aumentato assorbimento di calore dovuto al deposito scuro, il ghiaccio circostante fonde e si formano delle vaschette a conca, i cosiddetti “cryoconites holes” in cui sedimenta il deposito (d): il processo si arresta quando il calore diurno non risulta più sufficiente a continuare la fusione. Quando le temperature tornano al di sotto del punto di fusione e con ulteriori precipitazioni, si riforma lo strato di ghiaccio che preserva la crioconite primitiva (e) che gli anni successivi si arricchirà di nuovo materiale. Queste dinamiche avvengono in un contesto ambientale remoto e poco soggetto ad ulteriori agenti perturbativi. La crioconite è quindi una matrice ambientale di accumulo e conservazione in tempi dell’ordine di diverse decine di anni. La composizione delle crioconiti è alquanto complessa e comprende materia cosmogenica, geogenica, biogenica e antropogenica. Le formazioni crioconitiche si trovano principalmente nella zone di ablazione dei ghiacciai, in particolare in quelli temperati presenti nella catena alpina. Le caratteristiche delle formazioni crioconitiche dipendono dal ghiacciaio su cui si trovano e possono assumere forme diverse, da singole cavità profonde fino a 59 qualche decina di centimetri (figura 2) a strutture più diffuse in cui sono presenti rivoli di acqua di fusione che trascinano il “polviscolo nero detto crioconite, il quale s’arresta qua e là e si affonda nei pozzetti la cui acqua fa parte del velo scorrente sul ghiacciaio stesso” [Giacosa, 1896],(figura 3). Figura 2 | Formazioni crioconitiche del ghiacciaio del Timorion– campagna di misura ottobre 2010 Figura 3 | Formazioni crioconitiche del ghiacciaio dell’Indren– campagna di misura ottobre 2011. OBIETTIVI In questo lavoro si propone un’analisi radiometrica dei diversi radionuclidi presenti su cinque campioni di crioconiti prelevati sui ghiacciai delle Alpi nord-occidentali. Sono stati analizzati i seguenti radionuclidi di origine artificiale: 137Cs, 134Cs, 207Bi, 241Am, 90Sr, 238Pu e 239+240Pu. MATERIALI E METODI CAMPIONAMENTI Sono stati effettuati negli anni 2010-2011 cinque campionamenti sui seguenti ghiacciai (figura 4): • 2010: Timorion (Gran Paradiso) – 3260 m, Arolla (Canton Vallese-Svizzera) – 2720 m, • 2011: Timorion (Gran Paradiso) – 3260 m, Ventina (Monte Rosa) – 3120 m, Indren (Monte Rosa) – 3264 m. I campioni sono stati ottenuti asportando dalla superficie glaciale i depositi crioconitici in modo da avere un campione di almeno di 50 ml. In laboratorio sono state effettuate analisi sui campioni tal quale laddove il materiale raccolto si presentava compatto e denso e, invece, dopo la separazione dalla fase acquosa, nei casi in cui il materiale si presentava molto umido (campioni raccolti sul ghiacciaio dell’Indren). Successivamente, il materiale è stato sottoposto ad essicazione in stufa a 105°C, per 48 ore per determinare il fattore di conversione peso secco/peso fresco. I valori di concentrazione di attività rilevata sono riferiti al peso secco. Figura 4 | Siti dei campionamenti. 60 SPETTROMETRIA GAMMA Le analisi sono state effettuate mediante due catene gamma-spettrometriche al Germanio Iperpuro tipo P - efficienza nominale rispettivamente di 33% e 50% (campo di misura: 50 keV – 2,5 MeV), in pozzetto per conteggio campioni in piombo di spessore 10 cm, analizzatori multicanali DSPec e software di analisi “Gamma-Vision” EG&G ORTEC – AMETEK. I campioni sono stati conteggiati ponendo a diretto contatto del rivelatore il contenitore in polietilene, per tempi compresi tra 250000 s e 1000000 s. I campioni di crioconite analizzati avevano una massa compresa tra 20g e 90g e densità in genere pari a circa 1.4 g/cm3. Nella tabella 1 sono riportate le righe di emissione scelte per quantificare l’attività di ogni radionuclide. Tabella 1 | Righe di emissione utilizzate per la quantificazione dell’attività dei radionuclidi Radionuclide Energia (Kev) Be 477.60 K 1460.82 Cs 661.66 Am 59.54 Bi 1063.66 Cs 604.72 7 40 137 241 207 134 Per la determinazione dell’attività dei radionuclidi 207Bi e 134Cs, si è scelto di utilizzare esclusivamente le emissioni rispettivamente di 1063.66 keV e 604.72 keV in quanto prive di interferenti. Infatti, per quanto riguarda il 207Bi, nel picco relativo all’emissione a 569.70 keV (probabilità di emissione gamma pari 97.76%) si rilevano anche i conteggi dovuti all’interazione dei raggi cosmici con la schermatura in piombo del pozzetto, 207Pb (n,n’γ) ed eventualmente anche quelli dovuti al 134Cs (569.33 keV, probabilità di emissione gamma pari 15.39%). Per il 134Cs non si è considerata la riga di emissione a 795.86 keV (probabilità di emissione gamma pari 85.4%) in quanto concorrente con l’emissione a 794.95 keV dell’228Ac (probabilità di emissione gamma pari 4.25%) presente nei campioni di crioconite e la cui deconvoluzione avrebbe previsto uno studio più approfondito dell’interferenza con il picco dell’228Ac. Si è, inoltre, prestata particolare attenzione alle correzioni dovute all’”effetto somma” per il 134Cs ed il 207Bi che per le righe di emissione utilizzate, nelle geometrie di analisi sono state quantificate in percentuali comprese tra il 19% ed il 26%. ANALISI RADIOCHIMICHE Il metodo utilizzato per le separazioni radiochimiche permette, con gli opportuni accorgimenti, la determinazione degli isotopi del plutonio e dello stronzio a partire dallo stesso campione. Il metodo si basa sulla distruzione del campione calcinato mediante lisciviazione acida con acido nitrico e fluoridrico, portando i radioisotopi del Pu e lo 90Sr in soluzione. Successivamente si opera la riduzione del Pu con l’aggiunta di sodio nitrito; il Pu viene fissato su una resina anionica, mentre radionuclidi interferenti quali U, Th, Am, Fe vengono eluiti e scartati. Su questa soluzione di scarto può essere determinato lo 90Sr. Il Pu viene recuperato con acido iodidrico e si effettua un ulteriore passaggio in colonna cromatografica utilizzando un letto di polietilene in polvere su cui viene fissato triottilfosfina ossido (TOPO), al fine di eliminare ulteriori tracce di uranio e altri radionuclidi. Il Pu isolato chimicamente viene elettrodeposto e messo a contare. La determinazione dello 90Sr viene eseguita indirettamente attraverso l’90Y, supponendo già raggiunta, in questa tipologia di campioni, la condizione di equilibrio secolare 90Sr/90Y. La separazione dell’90Y nei campioni è stata effettuata utilizzando un derivato organico dell’acido fosforico (HDEHP) che complessa selettivamente l’90Y in un determinato intervallo di pH e viene fissato su una fase solida. Mediante eluizioni e l’aggiunta di acido ossalico l’ittrio viene recuperato e poi fatto precipitare sotto forma di ossalato, che viene filtrato e messo a contare. La determinazione degli isotopi del Pu avviene mediante conteggio in condizione di vuoto spinto con la tecnica della spettrometria alfa ad alta risoluzione e rivelazione delle emissioni alfa principali degli isotopi del plutonio: 238Pu a 5499 keV, 239Pu a 5156 keV e 240Pu a 5168 keV (aventi rispettivamente probabilità di emissione alfa pari a 71.6%, 73.2% e 73.5%). La determinazione dello 90Sr avviene mediante conteggio dell’90Y utilizzando un contatore a basso fondo a flusso di gas dotato di dispositivo di anticoincidenza e di sottrazione del fondo. Viene effettuato un numero di cicli di misura sufficiente per seguire il decadimento dell’ittrio e si verifica che il decadimento 61 sperimentale ottenuto sia compatibile con il decadimento teorico del solo 90Y confrontando i rispettivi tempi di dimezzamento. RISULTATI Tutti i dati riportati si riferiscono al peso secco del campione e sono riferiti alla data del campionamento. In tabella 2 si riportano anche le incertezze totali con fattore di copertura K=2. Tabella 2 | Concentrazioni di attività di radionuclidi trovati nei campioni di crioconiti. 7 TIMORION 2010 TIMORION 2011 Bq/kg inc. Bq/Kg Bq/kg inc. Bq/Kg Bq/kg inc. Bq/Kg Bq/kg inc. Bq/Kg Bq/kg inc. Bq/Kg Be 1212 30 1489 28 1185 39 1468 28 615 19 K 494 18 632 16 854 35 511 20 764 17 40 AROLLA 2010 VENTINA 2011 INDREN 2011 137 Cs 2446 36 5693 111 8894 159 4251 93 5533 110 241 Am 13.7 6.7 32.2 7.6 40.8 12.8 25.7 7.4 28.1 6.4 207 Bi 3.2 1.6 6.2 1.0 13.8 4 4.7 0.6 4.9 0.8 134 Cs < MAR 90 Sr 239+240 238 Pu Pu 1.62 0.91 < MAR 1.13 0.81 1.13 0.74 66 105 77 123 - - 68 109 195 312 13.4 1.8 19.3 2.4 - - 15.7 2.0 26.6 3.6 0.56 0.10 0.83 0.12 - - 0.61 0.08 1.19 0.18 OSSERVAZIONI Da una attenta analisi dei dati riportati in tabella 2 si possono effettuare le seguenti affermazioni: • Le concentrazioni di attività dei radionuclidi risultano essere molto elevate rispetto alle matrici ambientali comunemente utilizzate, in particolare si riescono a quantificare alcuni radionuclidi artificiali che generalmente risultano essere al di sotto del limite di rilevabilità, come per esempio il 207Bi ed il 238Pu. • Il 134Cs è risultato quantificabile in tutti e soli i campioni prelevati nel 2011 e per questo motivo è riconducibile al fall-out successivo all’incidente di Fukushima del marzo 2011, come confermato anche dalla presenza di questo radionuclide nel campione di particolato atmosferico relativo al mese di aprile 2011 (concentrazione di attività di 134Cs pari a qualche decina di μBq/m3). La presenza di questo radionuclide dimostra che questa matrice è efficace nell’accumulo anche di particolato “recente”, come confermato anche dall’elevata presenza di 7Be. • Il 207Bi risulta essere stato immesso in atmosfera durante i test termonucleari degli ani ’60, in particolare è stato ipotizzato [Bossew e al., 2006] che il maggior rilascio di 207Bi sia stato prodotto nel test del 10 ottobre 1961 in Novaya Semlya (Unione Sovietica) e successivamente depositato nell’emisfero boreale principalmente durante il 1963. • Il 137Cs si può separare in due grandi contributi: quello dovuto all’incidente di Chernobyl e quello preChernobyl, definito in genere “globale” e che tiene conto di tutti i rilasci precedenti al 1986. Nel caso in cui si fosse quantificato il 134Cs nei campioni del 2010, si sarebbe potuto associare questo radionuclide al rilascio di Chernobyl e si sarebbe potuto procedere con una separazione dei due contributi, “globale” e “Chernobyl”, per il 137Cs. • L’241Am, come prodotto di decadimento del 241Pu,è dovuto ai rilasci pre-Chernobyl [Tieber e al, 2009] e risulta presente in tutti i campioni di crioconite analizzati ad indicare la presenza di particolato “vecchio”. • Nei campioni sottoposti ad analisi radiochimica, tutti tranne quello di Arolla, si è rilevato il 238Pu oltre al 239+240 Pu. Il 238Pu risulta dovuto principalmente all’incendio del satellite americano SNAP 9A nel 1964. Il rapporto isotopico 238Pu/ 239+240Pu varia tra valori di 0.039 e 0.045 (figura 5) e testimonia una origine riconducibile principalmente al fall-out “globale” del campione (valore di riferimento del rapporto isotopico pari a 0.035±0.008 [Tieber e al, 2009]). La separazione radiochimica dei picchi corrispondenti a 238Pu e 239+240Pu è risultata buona nonostante la complessità chimica della matrice. 62 Figura 5 | Rapporti isotopici 238Pu/239+240Pu presenti nei campioni di crioconiti • La separazione dello 90Sr dagli interferenti naturali è risultata, come atteso, di notevole complessità. Confrontando infatti il tempo di dimezzamento sperimentale con quello del solo 90Y è risultata evidente la difficoltà di separare lo 90Sr dal 210Bi. La differenza tra i valori di concentrazione di attività dei campioni appartenenti ai siti di studio analizzati (tabella 2) non riflette pertanto una reale diversità nelle dinamiche di deposizione del fall-out radioattivo, ma piuttosto una problematicità analitica. Negli sviluppi futuri del presente lavoro si prevede di mettere a punto una metodica di separazione radiochimica più efficiente per matrici complesse come le crioconiti. • In figura 6 sono riportati i rapporti di concentrazione di attività 241Am/137Cs e 207Bi/241Am (riportati temporalmente al 01/10/2011). Si osserva che utilizzando i rapporti dei radionuclidi i campioni prelevati sul Timorion negli anni 2010 e 2011 risultano molto più confrontabili rispetto al semplice raffronto delle concentrazioni delle attività. Inoltre i valori sono confrontabili con quanto riportato dagli studi sulle crioconiti in Austria [Tieber e al, 2009]. Figura 6 | Rapporti 241Am/137Cs e 207Bi/241Am presenti nei campioni di crioconiti 63 Il rapporto 241Am/137Cs nei nostri campioni assume valori compresi tra 0.0051 e 0.0061, quello pubblicato nello studio austriaco ha un range che va da 0.0026 e 0.0054, valori leggermente più bassi avendo le Alpi Nord-orientali risentito maggiormente del fall-out dovuto all’incidente di Chernobyl. Il rapporto 207Bi/241Am nei nostri campioni assume valori compresi tra 0.18 e 0.31, quelli pubblicati nello studio austriaco tra 0.20 e 0.26. Questo rapporto non risente del diverso fall-out di Chernobyl, essendo entrambi radionuclidi presenti quasi esclusivamente nel fall-out “globale”. DISCUSSIONE E CONCLUSIONI Le crioconiti si confermano essere un ottimo indicatore ambientale in quanto rappresentative di dinamiche globali e relative ad un orizzonte temporale di svariati anni. Esse, inoltre, permettono di valutare radionuclidi che in altre matrici ambientali sono del tutto assenti. Si evidenzia l’importanza di definire procedure standardizzate di campionamento e gestione dei campioni e l’interesse per confronti su scala continentale e mondiale. BIBLIOGRAFIA 1. Aldersley A. The formation and development of cryoconite holes, 2011, http://bccs.bristol.ac.uk/ toProgramme/_project/2010/Andy_Aldersley_S10 2. Bossew P., Lettner H., Erlinger C., Gastberger M. Activity ratios of 137Cs, 90Sr and 239-240Pu in environmental samples, 2007, Journal of Environmental Radioactivity 97 (2007) 5-19 3. Bossew P., Lettner H., Hubmer A. A note on 207Bi in environmental samples, 2006, Journal of Environmental Radioactivity 91 (2006) 160-166 4. Giacosa P. Spedizione scientifica al Monte Rosa (1894 e 1895), 1896 Bollettino del Club Alpino Italiano 1895-96 Vol. 29 Num. 62 5. Sattler B., Anesio A., Antlinger I., Lettner H., Microbial Communities of Cryoconites as Sensitive Indicators for Radioactive Impact on Artic and Alpine Glaciers – Project Description, 2007, 8th NyÅlesund seminar, Cambridge, UK 16-17 October 2007. 6. Tieber A, Lettner H., Bossew P., Hubmer A., Sattler B.,Hofmann W. Accumulation of anthropogenic radionuclides in cryoconites on Alpine glaciers 2009, Journal of Environmental Radioactivity 100 (2009) 590-598 64 Articoli Modello per la stima delle concentrazioni alfa totale e beta totale nel particolato atmosferico in situazioni di emergenza Albertone L., Porzio L. Arpa Piemonte – Dipartimento Tematico Radiazioni Struttura Semplice Siti Nucleari, Via Trino 89, 13100 Vercelli (VC), [email protected] Le misure di concentrazione alfa totale e beta totale nel particolato atmosferico sono fortemente influenzate dalla presenza di radionuclidi naturali a vita breve sempre presenti in aria: l’approccio più diffuso nella pratica di laboratorio consiste nell’attendere il loro completo decadimento in modo da poter valutare il contributo residuo dovuto a radionuclidi naturali o artificiali a vita non breve. Tale pratica non è però applicabile nel caso di emergenze radiologiche o nucleari, nel corso delle quali è necessario disporre di valutazioni in tempi molto ristretti. Nel presente lavoro viene proposta la validazione, basata su dati sperimentali, di un modello teorico volto alla stima del contributo residuo dovuto a radionuclidi naturali o artificiali a vita non breve alle concentrazioni alfa totale e beta totale nel particolato atmosferico in tempi compatibili con quelli legati a emergenze radiologiche o nucleari. PREMESSA In aria sono presenti radionuclidi naturali a vita breve delle famiglie dell’uranio e del torio (tab. 1) che influenzano fortemente le misure di concentrazione alfa totale e beta totale del particolato atmosferico raccolto su filtro. L’approccio più diffuso nella pratica di laboratorio consiste nell’attendere il loro completo decadimento in modo da poter valutare il contributo residuo dovuto a radionuclidi naturali o artificiali a vita non breve: tale pratica non è però applicabile nel caso di emergenze radiologiche o nucleari, nel corso delle quali è necessario disporre di valutazioni in tempi molto ristretti, condizionati da tempi di aspirazione e di misura non superiori a qualche ora. Tabella 1 | Principali radionuclidi naturali a vita breve potenzialmente presenti in aria (T1/2 è il tempo di dimezzamento e BR il Branching Ratio). Padre T1/2 BR Figlio Rn-222 91,75 h 1 Po-218 Padre T1/2 BR Figlio Rn-220 55,6 s 1 Po-216 α Po-216 0,150 s 1 Pb-212 α Bi-214 α α β α Po-218 183 s 0,9998 0,0002 Pb-214 At-218 At-218 2s 1 Pb-212 10,639 h 1 Bi-212 1 Bi-214 β Bi-212 60,55 m 0,3593 0,6407 Tl-208 Po-212 β α β Pb-214 26,8 m Bi-214 19,9 m 0,0002 0,9998 Tl-210 Po-214 α β Po-212 2,96E07 s 1 Pb-208 α Po-214 1,64E04 s 1 Pb-210 α Tl-208 186 s 1 Pb-208 β Tl-210 79,2 s 1 Pb-210 β I valori di riferimento per le concentrazioni alfa totale e beta totale nel particolato atmosferico possono essere desunti dai livelli di intervento derivati per la concentrazione integrata in aria che determina per inalazione una dose efficace di 1 mSv riportati1 in CEVaD, 2010. 1 Tabella 5.14 di CEVaD, 2010. 65 Tabella 2 | Valori di riferimento per diversi tempi di esposizione. Radionuclide Concentrazione integrata in aria Bq s/m3 T = 1 ora Bq/m3 T = 24 ore Bq/m3 Pu-239 2.4 105 6.7 101 2.8 Sr-90 1.4 10 3.9 10 1.6 103 8 4 Assumendo come radionuclidi di riferimento Pu-239 per la concentrazione alfa totale e Sr-90 per la concentrazione beta totale si possono derivare i valori di riferimento riportati in tab. 2 che, come si può facilmente osservare, per la componente alfa sono confrontabili con le concentrazioni di Rn-222 comunemente2 osservate in aria, comprese nel range 1÷100 Bq/m3. La scelta di misurare concentrazioni alfa totale e beta totale nel particolato atmosferico è dovuta alle seguenti considerazioni: • la strumentazione necessaria per effettuare tali misure non è particolarmente complessa e può essere facilmente disponibile in campo; • in generale non si ha un’informazione a priori della composizione isotopica della contaminazione del particolato atmosferico nella I fase3 – o fase iniziale – di un’emergenza radiologica o nucleare; • la misura delle concentrazioni alfa totale e beta totale è sempre necessaria per conoscere la contaminazione totale del particolato atmosferico • nel caso in cui la contaminazione del particolato atmosferico sia dovuta esclusivamente a radionuclidi non facilmente rivelabili (Sr-90, Pu, U) la misura delle concentrazioni alfa totale e beta totale è l’unica informazione disponibile. Considerando solo i radionuclidi che possono essere trattenuti su filtro come particolato4 e trascurando i decadimenti poco probabili è possibile restringere (tab. 3) l’interesse solo ad alcuni dei radionuclidi di tab. 1. Valgono inoltre le seguenti approssimazioni: • APo-214 = ABi-214 • APo-212 = BRBi-212→Po-212ABi-212 Tabella 3 | Principali radionuclidi naturali a vita breve potenzialmente presenti nel particolato atmosferico raccolto su filtro Padre T1/2 BR Figlio Padre T1/2 BR Figlio Po-218 183 s 1 Pb-214 α Pb-212 10,639 h 1 Bi-212 Bi-214 β Bi-212 60,55 m 0,3593 0,6407 Tl-208 Po-212 β α β Pb-214 26,8 m 1 Bi-214 19,9 m 1 Po-214 β Po-212 2,96E07 s 1 Pb-208 α Po-214 1,64E04 s 1 Pb-210 α Tl-208 186 s 1 Pb-208 β MATERIALI E METODI È noto che il decadimento dei radionuclidi a vita breve presenti su filtro è descritto dalla somma di esponenziali decrescenti che dipendono dalle costanti di decadimento dei radionuclidi presenti. Il modello proposto è stato sviluppato per esplicitare la dipendenza dei coefficienti degli esponenziali decrescenti dalle concentrazioni in aria dei radionuclidi naturali a vita breve (tab. 3) e dei radionuclidi naturali o artificiali a vita non breve. Nell’ipotesi di avere delle concentrazioni in aria Ci costanti5 dei radionuclidi di tab. 3, anche non in equilibrio fra loro, con le seguenti notazioni: 2 Si veda UNSCEAR 2000 Report Vol. I, Sources and Effects of Ionizing Radiation. 3 Per le definizioni delle diverse fasi dell’emergenza si faccia riferimento a CEVaD, 2010. 4 Si assuma un’efficienza di trattenimento prossima al 100% per il particolato atmosferico totale; la frazione gassosa e lo iodio elementare non sono ovviamente trattenuti dal filtro. 5 Tale assunzione è ragionevolmente plausibile per tempi di aspirazione non superiori a qualche ora. 66 • Ci concentrazione del radionuclide i in aria; • λi costante di decadimento del radionuclide i; • BRi→j probabilità del decadimento dal radionuclide i al radionuclide j; • ta tempo di aspirazione; • tm tempo di misura; • φ flusso di aspirazione; • Ai attività su filtro del radionuclide i durante l’aspirazione; • Bi attività su filtro del radionuclide i dopo l’aspirazione; • Fi concentrazione su filtro del radionuclide i durante l’aspirazione; • Gi concentrazione su filtro del radionuclide i dopo l’aspirazione; le equazioni differenziali che permettono di descrivere l’andamento delle attività su filtro del radionuclide i-esimo durante l’aspirazione sono: Le soluzioni analitiche di tali equazioni – verificate con il manipolatore simbolico Maxima6 versione 5.26.0 – sono date da: dove è evidente la somma di esponenziali decrescenti che dipendono dalle costanti di decadimento dei radionuclidi di tab. 3. È possibile riscrivere le soluzioni precedenti come: Le concentrazioni su filtro sono pari alle concentrazioni in aria all’inizio dell’aspirazione mentre le attività raccolte su filtro tendono a valori costanti, che dipendono dalle concentrazioni in aria, dal flusso di aspirazione e dagli schemi di decadimento dei radionuclidi. Al termine dell’aspirazione le equazioni che descrivono l’andamento delle attività su filtro assumono la forma: 6 Maxima è un Computer Algebra System (CAS) in grado di eseguire calcoli numerici, simbolici, grafici e altre operazioni correlate. Per maggiori informazioni http://maxima.sourceforge.net/ 67 Le relative soluzioni sono date da: Anche in questo caso si possono scrivere in forma più compatta evidenziando la dipendenza dalle concentrazioni in aria: In generale le concentrazioni alfa totale e beta totale misurate sono date da: dove Cα e Cβ sono le concentrazioni in aria dei radionuclidi alfa e beta emittenti a vita non breve. I ratei di conteggio netti attesi sono dati da: che si possono riscrivere in funzione delle concentrazioni in aria Ci come: 68 Figura 1 | Andamento dei coefficienti gi(t) e hj(t). Trascurando le concentrazioni in aria di Po-218 e Tl-208 – il contributo di questi radionuclidi è sempre trascurabile dopo 30 minuti dal prelievo del filtro (fig. 1) – è possibile scrivere in forma matriciale le equazioni precedenti come: Denotando con rαβ* l’insieme dei valori misurati, l’operazione di inversione del modello consiste nel minimizzare la quantità7 rispetto alle concentrazioni in aria incognite Ci: da cui si ottiene, in notazione matriciale: dove Urα, Urβ, UC sono le matrici delle covarianze di rα, rβ e C rispettivamente. Deve inoltre essere rispettata la condizione: 7 Tale quantità segue una distribuzione modello, nel caso presente n=6. χ2 con (2m-n) gradi di libertà, dove n è il numero di parametri stimati dal 69 Le soglie di decisione Ci* ed i limiti di rivelabilità Ci# per le incognite Ci possono essere calcolati, secondo il formalismo descritto in ISO 11929: 2010, attraverso le relazioni: da cui si ottiene: Il criterio per determinare la presenza di contaminanti a vita non breve fa riferimento alle soglie di decisone e non ai limiti di rivelabilità, pertanto nelle tabelle successive saranno riportate solo le soglie di decisone Ci*. RISULTATI Il modello è stato applicato8 – simulando condizioni di emergenza – a misure sperimentali di concentrazione alfa totale e beta totale nel particolato atmosferico: • flusso di aspirazione nominale tra 50 e 100 l/min; • filtri in fibra di vetro diametro 47 mm con efficienza di trattenimento del 99.97% per particelle < 1 μm; • tempi di aspirazione compresi tra 5 min e 1 ora; • misure ripetute da 1 min (60 ripetizioni per ciclo) effettuate subito dopo il prelievo del filtro. Nel seguito saranno presentati alcuni risultati relativi a tempi di aspirazione di 1 ora a 100 l/min (tab. 4 e fig. 3); considerazioni analoghe valgono per tutti gli altri prelievi e simulazioni effettuati. Tabella 4 | Elaborazioni sui dati riportati in fig. 2. Risultati espressi in Bq/m3 (k = 2, 95%). Numero di misure m = 60 m = 120 m = 180 Cα < 20.32 < 1.98 < 0.311 < 0.116 Cβ < 25.31 < 2.62 < 0.300 < 0.0792 CPb-214 15.19 ± 5.39 14.57 ± 1.12 13.71 ± 0.52 13.54 ± 0.40 CBi-214 14.63 ± 3.38 14.89 ± 1.71 16.74 ± 1.22 17.28 ± 1.06 χ2 125.72 252.09 388.23 539.97 χ (0.99, 2m-6) 149.13 284.33 415.90 545.63 2 m = 240 Si può osservare che il modello spiega correttamente l’andamento osservato già dopo 1 ora di misure, e le soglie di decisione sono coerenti9 con i valori di riferimento di tab. 2. Numero di misure m = 60 Numero di misure m = 120 8 L’implementazione del modello è stata effettuata con Maxima, versione 5.26.0. 9 Assumendo un tempo di esposizione di 1 ora. 70 Numero di misure m = 180 Numero di misure m = 240 Figura 2 | Ratei di conteggio alfa totale e beta totale ottenuti da misure sperimentali. ta = 3600 s, φ= 1.62E-03 m3/s, tm = 60 s Al fine di verificare le capacità predittive del modello, ai ratei di conteggio ottenuti sperimentalmente (fig. 2) è stato aggiunto10 un segnale simulando una concentrazione beta a vita non breve di 10 Bq/m3 (fig. 3), ampiamente inferiore ai valori di riferimento di tab. 2. Tabella 5 | Elaborazioni su segnale disturbato simulando una concentrazione beta aggiuntiva a vita non breve di 10 Bq/m3 (fig. 3). Risultati espressi in Bq/m3 (k = 2, 95%). Numero di misure m = 60 m = 120 m = 180 m = 240 Cα < 27.83 < 5.62 < 0.89 < 1.97 Cβ < 27.39 12.97 ± 5.26 11.79 ± 0.87 11.02 ± 0.38 CPb-214 15.26 ± 6.16 14.31 ± 1.45 14.16 ± 0.64 13.88 ± 0.50 CBi-214 14.68 ± 3.42 15.12 ± 1.91 15.89 ± 1.39 16.50 ± 1.18 χ2 105.88 186.11 255.31 340.85 χ2(0.99, 2m-6) 149.13 284.33 415.90 545.63 Si può osservare che anche in questo caso il modello spiega correttamente l’andamento simulato e le soglie di decisone sono coerenti con i valori di riferimento di tab. 2. Inoltre le stime delle concentrazioni di Pb-214 e Bi-214 sono assolutamente sovrapponibili a quelle effettuate sui dati sperimentali (tab. 4) e la stima della concentrazione beta totale è coerente con il valore atteso già dopo 2 ore di misura. Numero di misure m = 60 Numero di misure m = 120 10 Il segnale aggiunto comprende anche una componente casuale con distribuzione rettangolare centrata sul rateo di conteggio corrispondente ad una concentrazione beta aggiuntiva a vita non breve di 10 Bq/m3. 71 Numero di misure m = 180 Numero di misure m = 240 Figura 3 | Segnale disturbato simulando una concentrazione beta aggiuntiva a vita non breve di 10 Bq/m3 rispetto ai dati sperimentali di fig. 2. Sono in corso la valutazione del numero minimo di misure necessarie a verificare il rispetto dei valori di riferimento di tab. 2 e l’implementazione del modello in un foglio di calcolo in modo da renderlo più facilmente utilizzabile. CONCLUSIONI Il modello proposto può essere un strumento utile alla stima delle concentrazioni alfa totale e beta totale nel particolato atmosferico di radionuclidi a vita non breve nel caso di emergenze radiologiche o nucleari, nel corso delle quali è necessario disporre di valutazioni in tempi molto ristretti, condizionati da tempi di aspirazione e di misura non superiori a qualche ora. Le simulazioni effettuate suggeriscono che con tempi di aspirazione di 1 ora e di misura di 2 ore sia possibile verificare il rispetto dei valori di riferimento corrispondenti ai livelli di intervento derivati riportati in CEVaD, 2010 per radionuclidi non facilmente rivelabili, in particolare per isotopi alfa emittenti. BIBLIOGRAFIA 1. ISO 11929: 2010 Determination of the characteristic limits (decision threshold, detection limit and limits of the confidence interval) for measurements of ionizing radiation - Fundamentals and application 2. CEVaD, Emergenze nucleari e radiologiche. Manuale per le valutazioni dosimetriche e le misure ambientali, 2010, ISPRA 72 EL.SE. S.r.l. Via Pier della Francesca 26 - 20090 Trezzano sul Naviglio www.el-se.com - [email protected] Contaminametro portatile con scintillatore plastico ZnS CoMo 170 SEA Camera a ionizzazione pressurizzata 9DP Ludlum Analizzatore multicanale 702i Ludlum Misuratore gamma portatile con rivelatore a scintillazione NaI(Tl) e asta telescopica ALMEMO-2NaI nelle versioni con memoria per 100.000 misure e con stampante termica incorporata SISTEMI DI MONITORAGGIO AMBIENTALE 9 9 9 9 9 composizione modulare personalizzabile facilmente adattabili a diverse esigenze di installazione (in ambienti interni o esterni) in grado di gestire diverse tipologie di rivelatori: GM, Proporzionali, Neutroni, NaI(Tl) software di gestione e visualizzazione dei dati acquisiti possibilità di alimentazione a pannelli solari e connessione wireless Radiazioni Non Ionizzanti Articoli Strumenti e metodi a baso costo per monitoraggio selettivo dell’esposizione umana a segnali Wi-Fi Rodríguez de la Concepción A., Renga D., Stefanelli R., Trinchero D. iXem Labs – Politecnico di Torino corso Duca degli Abruzzi 24, 10129 Torino, [email protected] ABSTRACT - L’obiettivo di questo lavoro consiste nell’assemblaggio, configurazione e messa in opera di un semplice strumento per la valutazione del campo elettromagnetico a radiofrequenza generato da reti WiFi, di bassissimo costo realizzativo, di semplice utilizzo ma anche cn ottime prestazioni funzionali ed eccellenti caratteristiche in termini di precisione e di sensibilità di lettura. Lo strumento prevede inoltre la possibilità di discriminare i valori di potenza associati a diversi segnali WiFi, offrendo addirittura la separazione dei contributi irradiati dai punti di accesso rispetto a quelli delle stazioni utente associate alla stessa rete. Lo strumento può essere assemblato da chiunque abbia adeguate, ma non specifiche, competenze radioelettriche. Il software di monitoraggio può essere autocostruito con semplici passaggi, ma ne esiste una versione già disponibile, in forma open source, pubblicata sul repository Wiki del laboratorio iXem del Politecnico di Torino INTRODUZIONE I dispositivi WLAN (wireless local area network) sia fissi (punti di accesso) che mobili (personal computers e smartphones) sono sempre più continuativamente oggetto di monitoraggio dell’esposizione, in considerazione di esigenze non necessariamente motivate dal punto di vista tecnico (le emissioni sono molto contenute), ma comunque utili per fornire una corretta informazione ai cittadini. Il monitoraggio, e in particolar modo la misura del campo elettromagnetico, tuttavia, sono resi complicati dalle caratteristiche di modulazione, digitale e banda larga, nonché dagli scenari tipici, che prevedono la presenza simultanea di diverse fonti di rumore/interferenza. Molto spesso, infatti, la misura è effettuata in un contesto operativo all’interno del quale sono presenti diversi reti WLAN: quella “generata” dal punto di accesso oggetto della misura, quelle generate da punti di accesso “terzi”, a cui si sommano segnali generati da utenze dell’uno o degli altri. A differenza di quanto avviene per il broadcasting , dove le utenze non sono presenti, o per la telefonia mobile, dove le utenze utilizzano una banda di uplink separata, in una rete WLAN i punti di accesso e le utenze condividono lo stesso canale. Quando le utenze sono agganciate alla stessa rete, la trasmissione avviene in una successione temporale stabilita dal punto di accesso. In presenza di utenze agganciate a reti diverse, la non contemporaneità non è garantita, e nel caso di utenze “libere”, in cerca di una rete a cui agganciarsi, la situazione è ancora più complessa, in quanto il canale di trasmissione cambia in continuazione. Infine, tra le bande utilizzate dalle reti WLAN, quella a 2.4 GHz è particolarmente critica, in quanto i canali hanno banda di frequenza pari a 16.6 MHz, ma passo di canalizzazione paria 5 MHz, e quindi canali diversi sono pure parzialmente sovrapposti. È evidente che in un contesto come quello descritto, solo uno strumento in grado di isolare contributi irradiati da soggetti diversi permetta di effettuare una misura corretta. In fase di misura, è necessario distinguere tra rete e rete, tra utenze e punti di accesso, al fine di isolare il contributo del punto di accesso oggetto di misura, e quantificarne il segnale irradiato. L’unica soluzione praticabile è offerta dall’utilizzo di strumenti raffinati, i demodulatori vettoriali, di costo molto elevato e non sempre trasportabili sul campo. MISURA DI UN SEGNALE WLAN Il contesto descritto richiede l’utilizzo di un demodulatore vettoriale, dispositivo di grande precisione, ma costo molto elevato. Difficilmente trasportabile, e soprattutto caratterizzato da complessità di utilizzo. Dal punto di vista misuristico, il demodulatore vettoriale rappresenta la “Soluzione”, dove la “S” maiuscola caratterizza l’assoluta correttezza dei risultati, confrontata con qualsiasi altro strumento: dai misuratori 77 a banda larga, agli analizzatori di spettro, magari con front-end digitale, ma non vettoriali [1]-[3]. Recentemente sono stati pubblicati lavori che forniscono metodologie di misura per ovviare all’utilizzo di demodulatori vettoriali [4], [5]. Queste procedure sono efficaci in assenza di interferenze, però non è possibile prescindere dalla demodulazione, quando più segnali, totalmente o parzialmente sovrapposti in frequenza, siano presenti durante la misura. IL DISPOSITIVO L’idea realizzativa nasce da una considerazione “quasi” banale. La demodulazione di un segnale WLAN è effettuata continuativamente da qualsiasi chipset wireless montato su qualsiasi piattaforma (PC, gateway, smartphone) connessa ad una rete WLAN, ogni qual volta quella piattaforma voglia scegliere un punto di accesso, collegarsi ad esso, e con esso scambiare dati ed informazione. La piattaforma è normalmente attrezzata con un chipset che effettua le seguenti operazioni: • filtraggio a radiofrequenza della sola banda WLAN prima del mixer, quindi grande precisione di misura e bassa componente di rumore; normalmente un chipset wireless presenta una sensibilità in banda tra -102 dBm e -110 dBm, assolutamente confrontabile con il demodulatore più avanzato presente sul mercato • demodulazione di tutti i segnali WLAN presenti nel luogo di connessione, individuazione degli identificativi di rete ed associazione ad ognuno del corrispondente contributo di potenza ricevuta; questa operazione, necessaria ai fini di stabilire il collegamento di rete, è svolta in modo “nascosto” rispetto all’utente della piattaforma, ma è indispensabile per stabilire un corretto collegamento in rete • aggiornamento continuativo dello stato delle reti presenti nel luogo di connessione, con ricezione di tutti i segnali presenti, siano essi punti di accesso o stazioni utente. Ulteriore vantaggio è rappresentato dal fatto che un chipset WLAN costa qualche decina di Dollari. Sulla base di questa considerazione, abbiamo realizzato un PC attrezzato con un chipset WLAN, che accede direttamente alle funzionalità di scansione e monitoraggio implementate all’interno dello stesso chipset e normalmente non accessibili all’utente [6]. Il PC, in particolare, effettua una scansione di tutti i pacchetti presenti su ogni canale Wi-Fi per un tempo predefinito dall’utente, individua il nome della rete che li ha generati (E-SSID), e nel caso in cui il nome della rete sia nascosto, individua il MAC-ADDRESS (B-SSID) della stessa, che è sempre trasmesso in chiaro. Il PC, in pratica, funziona come un normale router Wi-Fi, offrendo all’utente la possibilità di accedere alle informazioni di rete che sono utilizzate da un router per il proprio funzionamento e che normalmente non sono accessibili all’utente dello stesso. Il dispositivo è realizzato mediante un comunissimo chipset Wi-Fi, di tipo commerciale, del valore di poche decine di Euro, pre-montato sua una scheda di controllo standard, di tipo mini-PCI o PCI. Il meccanismo di controllo e gestione è affidato al PC, realizzato mediante una scheda che ospita una CPU e RAM adeguate. La scelta naturale è rappresentata da una soluzione integrata su SBC (single board computer), come quella rappresentata in Figura 1, a destra. Possono andare bene anche soluzioni che prevedano l’utilizzo di un computer di vecchia generazione, obsoleto per attività computazionali o di ufficio, ma utile per il controllo di hardware di misura, come mostrato in Figura 1, a sinistra. L’antenna può essere di tipo commerciale, ma può essere sufficiente un’antenna omnidirezionale a larga banda, che copra tutti i canali Wi-Fi, anch’essa autocostruita. In particolare, il costo estremamente contenuto della realizzazione, permette di considerare la possibilità di montare sullo stesso PC non uno, ma più chipsets, in modo tale da effettuare la misura delle tre polarizzazioni (X,Y,Z) in contemporanea. Questo permette di ridurre i tempi di misura ad un terzo, permettendo l’esecuzione di monitoraggi in più punti. Alternativamente, è possibile utilizzare i tre chipsets per misurare il campo elettromagnetico in punti diversi dello spazio, effettuando la media spaziale sulla sezione trasversale del corpo umano richiesta dalla normativa tecnica in tempo reale. 78 Figura 1 | Esempi di realizzazione del dispositivo a tre radio, con PC (a sinistra) e SBC (a destra) IL SOFTWARE L’analisi in frequenza può essere facilmente realizzata dall’utente finale, mediante accesso alle funzioni di scansione e monitoraggio del chipset. Le procedure sono standard, e quindi è sufficiente la conoscenza dei codici di controllo del chipset stesso per avviare la scansione dei pacchetti e l’acquisizione del dai di monitoraggio. Operativamente, se non automatizzata, l’operazione può essere relativamente laboriosa, poiché il chipset registra tutti i pacchetti generati da tutti i dispositivi wireless identificati. Occorre quindi un lavoro di scrematura e filtro dei pacchetti, per individuare quelli significativi, ai quali è associata l’effettiva potenza massima, irradiata sui sincronismi. Per semplificare le operazioni di misura e fornire una lettura immediata, abbiamo realizzato un software di controllo, installato sul dispositivo (il PC) da noi progettato per effettuare la scansione di rete. Il software di controllo è attrezzato con interfaccia Web: a questo modo l’utilizzo del PC che effettua la scansione è garantito a tutti, mediante utilizzo di un qualsiasi browser, prescindendo dal sistema operativo o dal sistema di acquisizione utilizzato dall’utente finale. Il software effettua le seguenti operazioni: 1. sceglie quali e quante chipsets utilizzare in fase di scansione 2. sceglie le frequenze (i canali) su cui effettuare al scansione 3. determina la durata della fase di ascolto per ogni canale 4. effettua la scansione 5. filtra i dati di monitoraggio 6. aggrega i risultati per B-SSID 7. stampa i risultati La Figura 2 rappresenta la pagina Web utilizzata per impostare i parametri di scansione (punti da 1. a 3. dell’elenco precedente). La figura 3 rappresenta la pagina Web utilizzata per memorizzare i parametri identificativi della catena sperimentale, al fine del calcolo automatico dei valori di campo presenti nel luogo di misura. 79 Figura 2 | La schermata iniziale del Software di scansione Figura 3 | Impostazione dei parametri della catena di misura RISULTATI In Figura 4 è riportato un esempio di risultati. La scansione riportata in figura è stata effettuata all’interno di un laboratorio del Politecnico di Torino. Il software effettua una stima della potenza ricevuta per ogni segnale Wi-Fi presente, distinguendo i punti di accesso dalle stazioni. Quando disponibile, viene effettuato un riconoscimento dell’identificativo pubblico (E-SSID). In caso di reti protette, il segnale viene catalogato in base all’indirizzo MAC della scheda radio (B-SSID). Viene inoltre riconosciuto il canale di esercizio, che è associato univocamente alla frequenza utilizzata dagli apparati oggetto di misura. Infine viene riportata la potenza di segnale, per ognuna delle polarizzazioni misurate. In pratica, lo strumento contiene al proprio interno l’equivalente di tre analizzatori di spettro, indipendenti, che lavorano in perfetta contemporaneità e 80 sincronismo, ognuno dei quali misura indipendentemente una delle tre polarizzazioni. La Figura 5 riporta i valori di campo corrispondenti, calcolati in funzione dei parametri di caratterizzazione della catena sperimentale precedentemente introdotti mediante la schermata riportata in Figura 3. Le incertezze della catena di misura così realizzata dipendono dalle prestazioni dei singoli componenti, ed è evidente che l’utilizzo di un chipset a basso costo rappresenti una possibile limitazione, rispetto agli analizzatori di spettro a bassa cifra di rumore. Vale la pena ricordare che è sempre possibile eseguire una caratterizzazione strumentale delle radio utilizzate, per mezzo di un confronto con un corrispondente analizzatore vettoriale. Tale confronto può essere realizzato mediante un collegamento su cavo tra una sorgente di riferimento e un analizzatore vettoriale, e successivamente con la radio. A questo modo è possibile recuperare la componente sistematica dell’errore di misura, e utilizzare il dato come fattore di pre-calibrazione per il calcolo della potenza ricevuta. iXemWIKI La realizzazione proposta è descritta da un filmato pubblicato sul repository iXemWiki degli iXem Labs del Politecnico di Torino, insieme con una versione del software di scansione descritto nel paragrafo precedente. L’accesso al repository è garantito a titolo gratuito, ed è possibile registrandosi presso lo stesso sito e richiedendo le credenziali di accesso. L’indirizzo Web del repository è: wiki.iXem.polito.it CONCLUSIONI Il risultato è rappresentato da un dispositivo semplice, di costo bassissimo, molto più funzionale ed immediato di qualsiasi sistema di misura dotato di demodulatori vettoriali. La grande peculiarità è rappresentata dalla possibilità di utilizzare codici di demodulazione disponibili “open source” che permettono l’individuazione della potenza associata a reti in chiaro, reti criptate, e e di separare con successo gli Access Point dalle station. Lo strumento ideale per una risposta chiara, veloce, precisa, affidabile, a costi molto contenuti. Per il futuro abbiamo intenzione di sviluppare dispositivi analoghi da utilizzare per effettuare scansioni di altre tipologie di segnale digitale: telefonia mobile 2G, 2.5G, 3G, 3.5G, 4G, televisione digitale DVB-T e DVB-H, fonia digitale DAB, reti WPAN a standard 802.15 BIBLIOGRAFIA 1. D. Trinchero “Valutazione teorica e sperimentale dell’esposizione in presenza di reti radio digitali di nuova generazione”, IV Convegno Nazionale Controllo ambientale degli agenti fisici: nuove prospettive e problematiche emergenti, 24-27 Marzo 2009, Vercelli, Italy 2. Agilent, Application Note 1380-1 “RF Testing of Wireless LAN Products” 3. Rohde & Schwarz, Application Note 1MA69, “WLAN Tests According to Standard 802.11a/b/g” 4. D. Trinchero et al., “Misura dell’esposizione a segnali radio digitali a banda larga mediante strumenti selettivi in frequenza”, IV Convegno Nazionale Controllo ambientale degli agenti fisici: nuove prospettive e problematiche emergenti, 24-27 Marzo 2009, Vercelli, Italy 5. D. Trinchero, A. Carta, L. Cisoni, R. Stefanelli, S. Trinchero, “Measurement of radio signals carrying wideband digital modulations by means of frequency selective instruments”, XVIII Riunione Nazionale di Elettromagnetismo (RiNEM), 6-10 Settembre 2010, Benevento, Italy 6. IEEE Standard for Information technology-Telecommunications and information exchange between systems-Local and metropolitan area networks-Specific requirements - Part 11: Wireless LAN, , IEEE Std. 802.11, 2007. 81 Figura 4 | Esempio di risultato della scansione – potenze rilevate Figura 5 | Esempio di risultato della scansione – valori di campo sulle singole polarizzazioni e totale 82 Articoli Misure di campo elettrico da stazioni radio base UMTS e analisi della relazione con la potenza in antenna Mathiou M.1, Bottura V.2, Cappio Borlino M.2, Vaccarono D.3, D’Elia S.3 , Adda S.4 Politecnico di Torino III Facoltà di Ingegneria, [email protected] Arpa Valle D’Aosta, Loc. Grande Charrière 44, Saint Christophe (AO), [email protected] 3 Vodafone Omnitel NV, Via Jervis 13, 10015 Ivrea (TO), [email protected] 4 Arpa Piemonte, Via Jervis 30, 10015 Ivrea (TO), [email protected] 1 2 Le simulazioni teoriche preventive sulle emissioni di campo elettrico generate da SRB con tecnologia UMTS portano in molti casi a risultati eccessivamente sovrastimati. E’ stato oggetto di una tesi di laurea magistrale in Ingegneria delle Telecomunicazioni del Politecnico di Torino in collaborazione con ARPA Valle d’Aosta e Vodafone Italia di Ivrea un primo lavoro di confronto tra misure di campo elettrico generato in ambiente e potenza emessa dall’antenna trasmittente, per valutare un modo di effettuare le simulazioni che fornisca risultati più reali dell’impatto elettromagnetico generato da questo tipo di impianti. A seguito di tale lavoro primario sono seguite altre verifiche sul campo in siti del Piemonte grazie alla collaborazione tra ARPA Piemonte e operatore Vodafone Italia ed un lavoro di elaborazione statistica dei dati di potenza di alcune importanti SRB. INTRODUZIONE Presso l’ARPA Valle d’Aosta, in collaborazione con l’operatore Vodafone Italia, è stata svolta una tesi di laurea magistrale di una studentessa del corso di laurea specialistica in Ingegneria delle Telecomunicazioni del Politecnico di Torino. L’obiettivo della tesi era quello di verificare la possibilità di trovare dei fattori di riduzione da applicare alla potenza utilizzata nelle simulazioni teoriche eseguite per una Stazione Radio Base (SRB) funzionante con la tecnologia UMTS, per avere una visione più realistica, ma pur sempre conservativa, dell’impatto elettromagnetico che tale impianto può avere sull’ambiente circostante, rispetto a quella ottenibile utilizzano la potenza di progetto. Tali fattori sono, peraltro, già previsti dalla normativa tecnica di settore (Guida CEI 211-10, Admission Control) L’ipotesi di lavoro era quella di identificare i fattori di riduzione andando ad esaminare il legame presente tra traffico, potenza irradiata e campo misurato in siti di tipologia differente, verificando anche se fosse possibile raggruppare i siti in base a caratteristiche comuni di tipo geografico o di tipo tecnico. Sono state eseguite diverse misure di campo elettrico in ambiente di vita per periodi di tempo piuttosto lunghi (anche 24 ore) mentre, contemporaneamente, venivano memorizzati i dati puntuali di potenza e traffico gestiti dalla stazione radio base tramite un processo costruito appositamente per questa attività. SITI DI MISURA Risulta molto importante il tipo di sito di misura da scegliere perché deve presentare tutte le caratteristiche idonee all’effettuazione delle misure, ed individuarli non è stato facile. Il sito ottimale doveva prevedere: una stazione radio base dell’operatore Vodafone in tecnologia UMTS, la possibilità di collocare la sonda nella zona illuminata dal lobo principale dell’antenna emittente e la possibilità di avere accesso alla rete elettrica per la gestione della strumentazione di misura per molte ore consecutive, nonché l’accesso in sicurezza. Dopo aver preso in considerazione tutti i siti presenti sul territorio valdostano, la scelta è ricaduta su due, nei comuni di Saint Vincent (fig. 1) e Quart (fig. 2), a cui se ne è aggiunto uno ulteriore, presso la sede Vodafone di Ivrea (fig.3). Tutti e tre i siti hanno caratteristiche tecniche e urbanistiche differenti: 83 Figura 1 | Sito di Saint Vincent Il sito di Saint Vincent (fig. 1) è posto al centro della cittadina, in una zona residenziale, in cui è presente una SRB composta da tre settori ognuno dei quali lavora su due portanti, una dedicata al traffico voce e una dedicata al traffico dati Il sito di Quart (fig. 2) è posizionato in una zona prevalentemente commerciale e di uffici, è presente una SRB composta da tre settori e ogni settore lavora su una sola portante in grado di gestire sia il traffico voce che il traffico dati Il sito di Ivrea (fig. 3) è posto in una zona commerciale e di uffici ed è costituito da una SRB composta da due settori che utilizzano ciascuno due portanti entrambe in grado di gestire sia il traffico voce che il traffico dati. Figura 2 | Sito di Quart Figura 3 | Sito di Ivrea 84 MISURE Prima dell’esecuzione delle misure vere e proprie sono stati effettuati rilievi e simulazioni preventivi per poter comprendere la distribuzione del campo elettrico nell’intorno del sito considerato e poter scegliere il punto migliore di misura. Nei tre siti è stato misurato in ambiente di vita il campo elettrico generato da una delle portanti della SRB mentre, contemporaneamente, venivano memorizzati i relativi dati di potenza e traffico. Le misure di campo elettrico sono state effettuate con l’analizzatore NARDA SRM3000 messo a disposizione da ARPA Valle d’Aosta. Al fine di acquisire i dati su un periodo lungo è stato necessario predisporre un programma di controllo dello strumento via PC (fig. 4). I dati di traffico e potenza trasmessa sono stati campionati direttamente dalla rete Vodafone tramite un procedimento costruito ad-hoc. Tale processo consiste in un collegamento da remoto di un tecnico direttamente agli apparati della SRB tramite il quale si e’ potuta fare un’estrazione ogni 3 secondi ed una memorizzazione dedicata dei contatori di rete interessanti per la nostra analisi. Nei processi automatizzati standard tali dati invece non vengono estratti con questa capillarità ma solamente su base oraria. Le prime misure in banda stretta sono state eseguite con modalità digitale sul canale di controllo del segnale UMTS che fornisce in uscita valori quasi stabili, per cui si è potuto verificare che, escludendo il traffico, l’antenna eroga al minimo sempre una potenza pari a circa 35 dBm. In tale modalità viene comunque registrato anche il contributo totale del segnale UMTS. Nelle misure successive si è invece misurato direttamente l’integrale sull’intera banda del segnale. L’intervallo di misura è stato posto pari a 10 secondi poiché la procedura di campionamento sulla SRB era in grado di fornire i dati di potenza e di traffico ad intervalli non regolari compresi tra 3 e 5 secondi. Figura 4 | Misure di campo elettrico ELABORAZIONI E RISULTATI È stato necessario effettuare delle elaborazioni preliminari per sincronizzare tra loro le misure di campo elettrico con i dati memorizzati dalla SRB, in quanto gli intervalli di campionamento non erano uguali, inoltre, i dati di traffico non sono stati memorizzati per tutto l’intervallo di misura. Successivamente le elaborazioni sono state eseguite mettendo in relazione il campo elettrico e la radice quadrata della potenza in antenna espressa in Watt, per valutare la correlazione tra le due grandezze che, teoricamente, è ben definita. Tale correlazione è stata analizzata sia tra i valori istantanei, che mediando su diversi intervalli temporali, tra cui quello più significativo, anche ai fini stessi del lavoro, è quello su 6 minuti come previsto dalla normativa nazionale. Mediando su 6 minuti le correlazioni tra campo elettrico (espresso in V/m) e radice della potenza (espressa in W) sono già molto buone, si mostra un esempio di correlazione tra un set di dati (fig. 5) e una tabella (tab. 1) riassuntiva delle correlazioni ottenute per tutti i siti di misura nei diversi intervalli di media temporale: 85 Figura 5 | Esempio di correlazione campo elettrico – radice potenza Tabella 1 | Correlazioni a diverse medie temporali tra campo elettrico – radice quadrata della potenza IST 1 MIN 6 MIN 10 MIN 15 MIN 30 MIN 1 ORA St. Vincent (*) Aprile 0,494 -- 0,855 0,904 0,933 0,964 0,980 St. Vincent Giugno 0,183 0,427 0,740 0,777 0,794 0,808 0,810 Ivrea Giugno 1° giorno 0,012 0,068 0,319 0,432 0,494 0,482 0,483 Ivrea Giugno 2° giorno 0,052 0,167 0,617 0,649 0,647 0,692 0,769 Quart Giugno 0,346 0,617 0,908 0,943 0,961 0,977 0,983 Grugliasco Ottobre (1p) 0.361 0.498 0.902 0.950 0.955 0.967 0.980 (*) le misure di campo elettrico sono state effettuate ad intervalli di campionamento di 1 minuto I differenti risultati tra i siti dipendono da vari fattori: tipo di traffico gestito dall’antenna, giorno della settimana in cui si esegue la misura, condizioni atmosferiche di temperatura ed umidità, ecc. Inoltre per ottenere correlazioni accettabili tra campo elettrico e potenza è necessario disporre di molti dati di misura. Le correlazioni sono comunque significative quando si media già su un periodo di 6 minuti. Sono state eseguite le stesse elaborazioni anche sui dati di traffico. Purtroppo, a causa della mole di dati impattata dall’operazione di acquisizione di questo tipo di informazione, non è stato possibile avere a disposizione tutti i valori istantanei di traffico per i vari siti, ma in alcuni giorni sono stati forniti solo per alcune ore. I risultati delle elaborazioni non hanno evidenziato correlazione tra campo elettrico e traffico. Tra i motivi va considerato lo scarso numero di dati a disposizione, ma, soprattutto, il fatto che non esiste una definita relazione che lega il campo elettrico al traffico, nonostante la potenza emessa dall’antenna sia generata per gestire tale traffico. Infatti, può accadere che un utente molto vicino alla SRB generi molto traffico ma richieda poca potenza e che un altro utente che si trova ai confini della cella richieda molta più potenza per generare lo stesso quantitativo di traffico. Inoltre, è importante anche il tipo di traffico, in quanto il traffico voce è sicuramente diverso dal traffico dati, di tipo spot e con ampiezze decisamente inferiori. Considerando che mediando a 6 minuti le correlazioni tra campo elettrico e potenza sono già buone, si è provato a vedere se, utilizzando come potenza di simulazione la massima ricavata dalle medie su 6 minuti, il risultato dell’elaborazione teorica fornisse un valore sempre maggiore anche rispetto ai valori ricavati dalle singole medie ogni 6 minuti dei dati di campo elettrico misurato. Inoltre, si sono simulati i valori di campo anche utilizzando la media tra valori di potenza mediati su 6 minuti e la massima potenza dichiarata dall’operatore in fase di progetto, per metterli tutti a confronto. 86 I comportamenti sono differenti nei tre siti: solo per il sito di Quart, dove le correlazioni campo/potenza erano ottime, il valore di campo elettrico ottenuto inserendo nella simulazione la massima tra le potenze mediate sui 6 minuti è risultato sempre maggiore delle medie dei valori di misura (fig. 6). Questo risultato è molto importante perché il sito di Quart era quello in cui si sono riscontrati intervalli di 6 minuti in cui la potenza rimaneva abbastanza costante e la cui media si avvicinava al valore limite per il corretto funzionamento della rete (fig. 7). Figura 6 | Confronti tra simulazioni e misure – Sito di Quart Figura 7 | Potenza nei massimi 6 min. durante la sessione di misura - Sito di Quart Negli altri siti, in cui la potenza realmente utilizzata dalla SRB nel periodo di misura è stata nettamente al di sotto della massima potenza disponibile, e non è stato possibile trovare un periodo di 6 minuti in cui essa rimanesse abbastanza costante, (fig. 9), alcuni valori delle singole medie ricavate dalle misure superavano il valore ottenuto dalla simulazione (fig. 8). Figura 8| Confronti tra simulazioni e misure – Sito di St. Vincent 87 Figura 9 | Potenza nei massimi 6 min. durante la sessione di misura - Sito di St. Vincent Solo per nel sito di Quart, dove il valore massimo di potenza utilizzata è pari circa al 75 % della potenza totale, valore che si avvicina al valore limite per il corretto funzionamento della rete, il valore di campo elettrico ottenuto inserendo nella simulazione la massima tra le potenze mediate sui 6 minuti è risultato sempre maggiore dei valori delle medie su 6 minuti ottenuti direttamente dalle misure. I dati rilevati da Arpa Valle d’Aosta sono poi stati integrati da ulteriori misure, effettuate con la stessa metodologia da Arpa Piemonte su un sito nella prima cintura di Torino (Grugliasco), caratterizzato da traffico elevato e buona accessibilità del punto di misura. Tale sito è stato monitorato in una prima fase con una condizione di singola portante UMTS, ed in una seconda fase dopo il potenziamento tramite aggiunta della seconda portante. Il coefficiente di correlazione tra campo e potenza è risultato pari a 0.94. In fig.10 sono riportati la regressione campo-radice della potenza e le valutazioni teoriche effettuate analogamente a quanto fatto per i siti valdostani (per il caso a singola portante). Figura 10 | Misure e simulazioni – Sito di Grugliasco 88 Riassumendo, dai risultati delle rilevazioni effettuate si possono trarre le seguenti conclusioni: • Le correlazioni tra campo e potenza aumentano all’aumentare del tempo sul quale si media; • la media sui 6 minuti e’ parametro significativo sul quale effettuare le analisi statistiche; • tra i diversi parametri monitorabili dalla rete, e’ necessario individuare il corretto contatore che fornisce la potenza istantaneamente complessiva emessa dalla SRB; • i siti hanno tutti caratteristiche tecniche differenti: si notano comportamenti differenti anche per quanto riguarda l’andamento delle correlazioni; • il sito di Quart e quello di Grugliasco forniscono le correlazioni migliori, probabilmente perche’ le portanti misurate hanno una alta percentuale di occupazione di potenza e le misure sono poco perturbate dall’ambiente circostante. ANALISI STATISTICA DELLA POTENZA DI CELLE UMTS IN AREE URBANE Visto l’obiettivo di validare il coefficiente di riduzione da applicare alla potenza ipotizzato nella prima fase dell’attività’, si e’ voluto estendere l’analisi ad un cluster di siti statisticamente significativo dal quale estrarre e memorizzare i dati puntuali relativi alla potenza emessa. Si e’ scelto quindi di concentrarsi su due primarie città del Nord /Sud Italia che sono gestite dai due diversi produttori di apparati radio fornitori di Vodafone Italia. All’interno di questi cluster sono stati individuate le celle che sulla base dei contatori potenza smaltita (oraria) sono risultate le più ad alto traffico. L’analisi effettuata sui dati di potenza ha avuto sostanzialmente la finalità di predisporre un metodo per la stima dell’entità della riduzione dovuta all’Admission Control, ed è stata sviluppata in due obiettivi: • determinare se il cluster di dati fosse realmente rappresentativo di condizioni di carico elevato degli impianti, • valutare statisticamente, in condizioni effettivamente conservative, l’entità del fattore di riduzione rispetto alla potenza massima, assimilabile all’admission control. Tale analisi ha contemplato sia siti con singola portante, sia siti con due portanti (in genere ripartite tra voce e dati). La prima operazione effettuata sulle serie di dati è stata lo studio dell’autocorrelazione, finalizzato a determinare l’intervallo di campionamento più corretto sul quale lavorare, dal quale è emerso che un campionamento ogni 10s.circa garantisce che i dati siano effettivamente significativi in quanto indipendenti tra di loro. Dopo aver effettuato il ricampionamento, si quindi è proceduto all’analisi, tramite la stima di una serie di parametri statistici utili per la determinazione della bontà del cluster di dati e tramite calcolo della media trascinata su 6 minuti. Per la determinazione della rappresentatività del cluster in merito alle condizioni di carico elevate, sono stati calcolati i percentili e valutati i boxplot (esempio fig. 11). Figura 11 | boxplot per una serie di dati della città del Nord 89 Si sono in pratica considerate come condizioni di alta potenza i valori che nel boxplot sono considerati come outlayers, ossia quei valori superiori al limite (Lout) determinato come somma del 75° percentile più il range interquartilico. Un ulteriore discrimine per individuare le sessioni ad alta potenza è stato il valore del 95° percentile. In prima analisi, si sono individuate quelle celle per le quali si potevano riscontrare condizioni di alta potenza (>Lout) per intervalli di tempo maggiori di 1 minuto. Su 30 celle analizzate in totale, 12 rispondevano a questo requisito (4 su 17 a Milano e 8 su 13 a Palermo). Per queste celle, si è considerato che la media trascinata sui 6 minuti fosse effettivamente una stima sufficientemente conservativa della massima potenza raggiunta in presenza del meccanismo di admission control. Per le restanti celle, si è scelto di considerare come rappresentative quelle che soddisfano le seguenti condizioni: 1. il valore massimo istantaneo raggiunge livelli superiori al 95% della potenza massima erogabile 2. la percentuale degli outlayers (stimata secondo il metodo visto sopra) è superiore al 10% del totale dei campioni, ossia almeno 30 minuti su un campionamento di 24 ore sono in condizioni di alta potenza Per le celle così individuate (7 su 30), il parametro utilizzato per la stima della massima potenza raggiungibile dall’impianto è stato la media dei valori individuati come outlayers. In pratica, sono stati ricostruiti i potenziali peggiori 6 minuti, che si realizzerebbero nel caso in cui le condizioni di alta potenza fossero richieste continuativamente per un tempo di durata di qualche minuto. Tale parametro è stato stimato anche per le prime 10 celle, ed è risultato, a riprova della validità del ragionamento sopra riportato, convergente con il valore della massima media su 6 minuti. I parametri scelti (massima media su 6 minuti o media degli outlayers) sono stati quindi espressi in percentuale rispetto alla potenza massima erogabile dagli impianti. In merito all’aspetto del rapporto con la potenza massima erogabile, nell’analizzare le serie di dati della città del Sud, ci si è resi conto di un comportamento anomalo rispetto ai dati della città del Nord. In effetti, per la maggior parte dei siti della città del Sud è utilizzato un depotenziamento via software a causa di una situazione storica di copertura della città. E’ in effetti evidente, nel grafico di fig. 12, come il depotenziamento via software infici il funzionamento del meccanismo di admission control. Per la cella analizzata, infatti, il valore massimo della potenza istantanea raggiunge soltanto il 73.8% della potenza di targa dell’impianto, ma livelli elevati vengono mantenuti per intervalli di tempo prolungati, per cui il valore massimo della media su 6 minuti raggiunge il 72% della potenza di targa. Figura 12 | Andamento nel tempo della potenza su 2 portanti di un impianto della città del Sud In tab. 2 sono riportati i risultati delle stime per tutte le celle analizzate (indicate con una N quelle della città del Nord e con una S quelle della città del Sud). Nella sezione A sono visibili i valori percentuali del rapporto tra massima media su 6 minuti e massima potenza erogabile per le 10 celle che rispettano il requisito di alta potenza per periodi prolungati. Nella sezione B sono riportati i valori percentuali del rapporto tra la media degli outlayers e la massima potenza erogabile per le celle considerate rappresentative secondo i criteri sopra riportati. Queste prime due sezioni possono essere utilizzate per una prima stima dell’entità del fattore da applicare ai sensi della norma CEI 211-10 per tener conto dell’admission control. E’ però da rilevare che il depotenziamento di molte delle celle della città del Sud è dovuto non al meccanismo dell’admission 90 control, che anzi non è operativo in maniera efficace come già evidenziato, bensì al depotenziamento via software operato a priori sulla cella. Per completezza e’ da evidenziare anche la presenza di una cella con un sovraccarico nell’utilizzo della potenza (la N58841, evidenziata in rosso nella tab. 2). Tale cella risultava già come congestionata ed anomala come servizio fruibile dagli utenti, in quanto caratterizzata da una sola portante UMTS implementata in un contesto di traffico elevato (e’ già stato pianificato un aumento capacitivo con l’aggiunta della seconda portante). Infatti la percentuale di occupazione di potenza da parte del traffico dati, per il mese di aprile, è stata sempre superiore al 95%, contro una media di riferimento di circa il 70% (ad di sopra della quale vengono pianificati interventi di espansione). Peraltro, il numero di campioni con valore di potenza su 6 minuti maggiore dell’80% della massima potenza erogabile è molto limitato (pari all’1.4%). Oltre ai valori riportati in tabella, è stato calcolato il rapporto tra la massima media su 6 minuti e la massima potenza erogabile per le celle residue, dato che, pur non essendo adeguato ad una stima cautelativa del fattore di riduzione per l’admission control, può servire come indicazione delle condizioni medie di esposizione riscontrabili da misura rispetto alla valutazione a massima potenza, anche in presenza di traffico elevato. Considerando tutte le celle analizzate, l’occupazione media di potenza rispetto alla massima erogabile è del 54% circa. Tabella 2 | Risultati della stima della percentuale della potenza massima erogabile effettivamente trasmessa in condizioni di carico elevato delle celle A B Identificativo cella Numero portanti % della potenza massima erogabile N02863 1 79.7 N57641 1 73.6 N58841 1 86.05 N46713 2 62.6 S06652 1 58.75 S24809* 1 68.75 S24591 1 62.2 S31061* 1 67.8 S55482 1 59.2 S05503-6 2 62.4 S54892-5 2 72.15 S54952-5 2 73.0 N25481 2 68.25 N58865 73.7 N63165 50.7 N58294 36.5 N58785 62.2 N60105 48.2 N63275 55.3 * celle di Palermo che non sono state depotenziate via software Il valore più elevato tra quelli di tabella 2 è quello relativo alla cella in condizioni di funzionamento non sostenibili (per la quale è stata richiesta l’attivazione della seconda portante). Se si esclude questa cella, la percentuale più elevata riscontrata è inferiore all’80%. Ragionando in termini di media sul set di celle maggiormente cariche, il fattore da applicare alla massima potenza erogabile è all’incirca di 0.74. Anche per le analisi sulla potenza possiamo pertanto trarre alcune conclusioni: • la buona correlazione tra misure di campo e misure di potenza (medie su 6 minuti) permette di lavorare direttamente sui dati di potenza per studiare i fattori di utilizzo della stessa nel normale funzionamento della rete; • l’analisi sulle potenze è stata eseguita con un approccio conservativo (selezione di un set di celle ad alto traffico, ricerca delle peggiori condizioni di utilizzo della potenza per 6 minuti effettivamente registrate o ricostruite, scelta della portante a maggiore occupazione di potenza nelle celle a 2 portanti); 91 • il fattore di utilizzo della potenza ricavato è inferiore all’80% per 18 celle su 19 selezionate. Tale risultato conferma quanto evidenziato nelle misure di Quart (nei peggiori 6 minuti, potenza circa 75% della massima erogabile); • la sola cella con utilizzo di potenza >80% presenta tale fenomeno per poco più di 1/100 dell’intervallo di tempo studiato (circa 24h), ed è una cella anomala che verrà a breve ampliata con la seconda portante. • sarebbe necessario ampliare il campioni di siti del secondo fornitore per confermare l’utilizzo dei risultati per la stima dell’Admission Control, in quanto la maggior parte delle celle della seconda città (depotenziate via software), tale meccanismo non è efficace; • e’ stato messo a punto un metodo che potrà essere utilizzato anche per altri tipologie di apparati in ulteriori condizioni di trasmissione (previa verifica del contatore che effettivamente monitora la potenza dell’apparato stesso). CONCLUSIONI La tecnologia UMTS è radicalmente diversa dalle precedenti nella gestione spettrale ed e’ caratterizzata da una efficiente gestione spazio/potenza utilizzato dagli utenti. Per un funzionamento ottimale, la stazione radio base non deve utilizzare la massima potenza disponibile per lunghi periodi, portando così ad un risultato medio di potenza utilizzata sempre minore di quella massima di un fattore stimabile. Tale coefficiente è già previsto dalla normativa tecnica di settore (Admission Control). I lavori presentati nell’articolo hanno lo scopo di quantificare tale coefficiente in modo cautelativo rispetto alle reali condizioni di emissione delle antenne (dati ricavati dai contatori di rete). Si è cominciato con il verificare la correlazione campo – potenza tra le misure in ambiente e la potenza emessa in antenna. In condizioni di buona visibilità delle antenne e di elevato utilizzo della stazione, tale correlazione su una media di 6 minuti è ottima (superiore a 0.9). Il passo successivo e’ stato una estesa elaborazione statistica sui dati di potenza delle SRB più significative di due grandi città per verificare se il coefficiente ricavato dai dati misurati (circa 0.75) fosse cautelativo anche per ampi cluster di siti. Le elaborazioni confermano tale risultato e indicano un metodo per ricavare un coefficiente utile a calcolare un valore piu’ realistico della potenza in antenna da utilizzare per le simulazioni preventive di impatto elettromagnetico, che garantisce comunque il rispetto dei limiti nel confronto con i valori misurabili in campo. Questa metodologia potrà essere in futuro quindi applicata per ricavare il valore di Admission Control relativi a fornitori di tecnologia UMTS anche di altri operatori. BIBLIOGRAFIA 1. Z. Mahfouz, A. Gati, D. Lautru, M. Wong, J. Wiart, V. Fouad Hanna “Influence of Traffic Variations on Exposure to Wireless Signals in Realistic Environments”, Bioelectromagnetics (2011). 2. Norma CEI 211-10 “Guida alla realizzazione di una Stazione Radio Base per rispettare I limiti di esposizione ai campi elettromagnetici in alta frequenza (2002) 92 Articoli Stima del rischio di superamento del valore di attenzione sulla base di misure spot di campo magnetico generato da linee ad alta tensione Adda S., Caputo E., Anglesio L., d’Amore G., Arpa Piemonte - Dipartimento Tematico Radiazioni Via Jervis 30, 10015 Ivrea (TO), radiazioni@arpa. piemonte.it Il DM 29/05/2008 prevede un metodo per la valutazione indiretta, tramite estrapolazione, dell’induzione magnetica in condizioni di massimo carico delle linee, basata sull’effettuazione di misure prolungate. Ciò comporta che le misure spot (per brevi periodi di tempo) non sono adeguate a dare informazioni circa il rispetto dei limiti, e quindi non sono utilizzabili per le attività di controllo delle Agenzie se non ad un livello puramente conoscitivo. Dal punto di vista dell’organizzazione dell’attività di un’Agenzia, non sempre è agevole prevedere misure prolungate nel tempo in tutti i recettori interessati dal passaggio di una linea. Per questo motivo, è stata condotta un’analisi statistica finalizzata a fornire un criterio di determinazione dei casi in cui sussiste un comprovato rischio di superamento del valore di attenzione, sulla base di misure spot, in modo da definire quando sia necessario procedere ad una misura prolungata e quando invece sia sufficiente fermarsi alla misura spot stessa. INTRODUZIONE Il metodo per la valutazione indiretta dell’induzione magnetica in condizioni di massimo carico delle linee previsto dal DM 29/05/2008 è basato sull’acquisizione di almeno 100 coppie di valori sincroni campocorrente sulla base dei quali procedere ad un’estrapolazione. Tale metodo è stato testato e verificato (Colonna, Licitra, 2009), garantendo in determinate condizioni la possibilità di confrontare il dato ricavato con il valore di attenzione fissato dal DPCM 08/07/2003. Se quindi da un lato il confronto con il valore d’attenzione può essere effettuato soltanto in presenza di un campione adeguato di misure prolungate nel tempo, dall’altro le attività di monitoraggio e controllo di un’Arpa devono poter coniugare questa esigenza con la necessità di garantire un’adeguata copertura territoriale (numero di punti monitorati) e con problemi pratici quali la difficoltà a trovare postazioni adeguate all’installazione di centraline o al posizionamento di strumenti per la misura prolungata nel tempo. L’obiettivo di questo lavoro è stato pertanto di fornire un metodo di stima del rischio di superamento del valore di attenzione, basato su misure spot (per brevi periodi di tempo) di campo magnetico, utile per definire quando sia necessario procedere a misure prolungate nel tempo (casi di rischio significativo), ovvero quando le misure spot siano sufficienti a garantire che in qualunque condizione di carico della linea non sia possibile un superamento (rischio non significativo). Il metodo utilizzato è stato quello di un’analisi statistica su serie di dati campo-corrente relativi a misure prolungate nel tempo, che ha confrontato il dato di massima mediana su 24h annua ricavato con la metodologia del DM 29/05/2008 con quello ricavato da un’estrapolazione tout-court dalla misura spot. Il fine è stato quello di determinare fino a quale valore di campo massimo ricavato dalla misura spot si può essere certi che il valore reale di massima mediana su 24h resti al di sotto di una certa soglia, scelta in modo da garantire il rispetto del valore di attenzione. MATERIALI E METODI Sono state prese in analisi 25 campagne di misura per periodi superiori a 24 ore, prevalentemente su linee a 220kV (12) e su linee a 380kV (10), per un totale di 9000 coppie campo-corrente. Di queste 25 serie di dati, 5 corrispondono a misure effettuate da Arpa Valle d’Aosta su linee a 220kV di questa regione, mentre le restanti sono dati di misura su linee in Piemonte. Alcuni esempi di acquisizioni campo-corrente sono riportati in fig 1. 93 Figura 1 | Andamento nel tempo dei valori di campo magnetico e di corrente per 4 linee prese in considerazione nell’analisi Per questi dati, sono stati calcolati i valori di induzione magnetica estrapolati alla massima mediana annua, ricavati con il metodo definito dal DPCM 29/05/2008 (di seguito denominati Bprolung), e ricavati con una estrapolazione dal dato spot (B0). Dove Bspot è la misura istantanea e Ispot è il valore di corrente nel quarto d’ora in cui ricade l’istante di misura. La grandezza sulla quale sono state effettuate le analisi è quindi stata il rapporto B0/Bprolung.(indice di bontà dell’estrapolazione). Nell’analizzare questi rapporti per categoria di tensione della linea, si è verificato che la loro distribuzione dipende dal rapporto tra la corrente al momento della misura e il valore massimo della corrente mediana su 24 ore per quella linea, come si può vedere nei grafici di fig. 2. Figura 2 | Andamento dei rapporti B0/Bprolung in funzione del rapporto I0/Imax E’ possibile vedere che per valori di corrente al momento della misura inferiori al 20% del valore massimo annuo della mediana su 24 ore, l’estrapolazione da misura spot ha una dispersione molto ampia dei risultati, con una tendenza alla sovrastima rispetto a Bprolung, mentre per valori superiori al 20% si ha una convergenza a 1 del rapporto B0/Bprolung, con una dispersione dei dati più contenuta. 94 La maggiore dispersione dei rapporti nell’intervallo inferiore di valori di corrente è da addebitarsi congiuntamente alla maggiore incertezza sul dato di campo (valori bassi in corrispondenza di basse correnti) e sul dato di corrente (essendo tipicamente l’incertezza sulla corrente determinata in funzione del fondo-scala, e quindi percentualmente maggiore sui valori più bassi). La convergenza a valori prossimi a 1 per i casi di misure spot con correnti più elevate evidenzia invece che, come prevedibile, l’utilizzo di questa estrapolazione tende a diventare più affidabile in condizioni di alto carico della linea durante le misure. Per questo motivo, si è scelto di effettuare l’analisi statistica su tre intervalli di valori del rapporto tra la corrente al momento della misura e la massima mediana su 24 ore nell’anno: <0.2, 0.2 – 0.5, >0.5. E’ stata per prima cosa osservata la distribuzione dei valori B0/Bprolung nei suddetti intervalli, caratterizzandone poi i parametri statistici, con la principale finalità di determinare il parametro corretto che definisce l’allargamento della distribuzione, ossia quel valore che permette di affermare con un certo grado di confidenza che una percentuale definita di dati ricade all’interno dell’intervallo fissato. Sulla base di questo parametro, sono stati quindi definiti degli intervalli di valori possibili di B0/Bprolung,ed è stato determinato fino a quale valore di B0 si può essere certi che Bprolung resti al di sotto di una certa soglia, determinata in modo da garantire il rispetto del valore di attenzione. Infine, i risultati sono stati validati grazie al confronto con i risultati di altre campagne di misura, per le quali è stato verificato che il valore del rapporto B0/Bprolung ricadesse all’interno degli intervalli definiti con la metodologia sopra descritta. RISULTATI In fig. 2 è possibile vedere la distribuzione dei valori di B0/Bprolung per linee analizzate, corrispondenti ai 3 intervalli definiti per il rapporto tra la corrente al momento della misura e la corrente massima 132kV 220kV 380kV Figura 2 | Distribuzioni dei rapporti B0/Bprolung, raggruppati per tensione delle linee e per valore del rapporto tra corrente al momento della misura e corrente massima 95 Tali distribuzioni sono caratterizzate tramite l’analisi dei parametri statistici. In particolare, non essendo stato possibile confermare specifiche ipotesi sulla forma funzionale della distribuzione, l’analisi è stata orientata alla definizione dei parametri della distribuzione campionaria, con l’intento di determinare l’intervallo di possibili valori del rapporto B0/Bprolung. Per la definizione degli intervalli di valori, le distribuzioni sono state considerate come sostanzialmente simmetriche, dato che media e mediana erano in tutti i casi confrontabili (con una differenza tra il 2% e l’8% per le distribuzioni con I0/Imax<0.2, che si riporta a meno dello 0.18% per tutte le altre). Per la determinazione dell’allargamento delle distribuzioni campionarie, è stata anche effettuata l’analisi tramite boxplot (come nell’esempio di fig. 3). I parametri che sono stimati nell’analisi di boxplot sono riportati a fianco della figura. L’upper hinge e il lower hinge sono rispettivamente il valore più alto tra quelli inferiori al 3° quartile sommato alla differenza interquartilica, e il valore più basso tra quelli superiori al 1° quartile meno la differenza interquartilica. <0.2 0.2-0.5 >0.5 Figura 3 | Esempi di boxplot dei rapporti B0/Bprolung per le linee a 132kV I parametri statistici che sono stati utilizzati per caratterizzare l’allargamento delle distribuzioni sono i seguenti: • due volte la deviazione standard • differenza tra 95° percentile e 5° percentile (larghezza della distribuzione campionaria) • differenza tra l’upper e il lower hinge nell’analisi di boxplot In tab. 1 sono riportati i valori di questi parametri in percentuale rispetto alla mediana, stimati per le diverse tensioni di linea e raggruppamenti di valori di corrente. Tra questi, sono evidenziati i valori scelti per la definizione degli intervalli di valori di B0/Bprolung. Mantenendo un approccio conservativo, i valori scelti sono quelli che definiscono l’intervallo più ampio. Nell’ultima colonna è quindi riportato il dato denominato “probabilità residua”, in pratica la percentuale di dati che rimane fuori dall’intervallo definito dal parametro evidenziato, che costituisce un livello di significatività dell’ipotesi che il valore reale ricada all’interno dell’intervallo stesso. L’approccio usato per la definizione degli intervalli garantisce che questa probabilità sia al massimo del 10%. Tabella 1 | Parametri statistici per la definizione degli intervalli di valori possibili di B0/Bprolung 2 σ (%) 95° perc. 5° perc. (%) Upper – lower hinge (%) 58.3 95.27 100.70 6.3 86.4 145.87 116.77 10.0 89.25 81.05 10.0 Intervallo di valori I0/Imax Tensione (kV) 132 <0.2 220 380 55.9 0.2 – 0.5 >0.5 Probabilità residua (%) 132 23.7 39.44 42.99 7.8 220 16.0 25.73 43.14 0.8 380 22.4 24.89 32.57 6.4 132 9.6 15.95 17.93 6.4 220 22.2 28.85 51.82 10.0 380 11.7 16.20 21.33 3.9 * In questo caso non è stato scelto l’intervallo più ampio, in quanto la probabilità residua risulterebbe pari a 0, e si è ritenuta una scelta eccessivamente conservativa. 96 Questa analisi è stata validata grazie al confronto con i risultati di altre campagne di misura, per le quali è stato verificato che il valore del rapporto B0/Bprolung ricadesse all’interno degli intervalli definiti con la metodologia sopra descritta. Per la validazione, si sono utilizzati i dati relativi a 20 campagne di misura, con dati non appartenenti alla serie usata per ricavare gli intervalli. I risultati sono riportati in fig. 4, dalla quale si evince che è confermata la validità degli intervalli definiti. Figura 4 | Dati di B0/Bprolung (in azzurro) confrontati con gli intervalli definiti (in rosso) Degli intervalli così definiti e validati, viene preso in considerazione il valore minimo, pensando cautelativamente di operare sempre una sottostima nel procedere all’estrapolazione dal dato spot. In tab. 2 sono pertanto riportati il limite inferiore dell’intervallo di valori di B0/Bprolung, ed il conseguente valore limite di B0 che garantisce che Bprolung sia minore o uguale ad 8μT. Quest’ultimo valore è stato scelto, rispetto al valore di attenzione, tenendo un margine del 20% in relazione a possibili incertezze aggiuntive nella misura. Tabella 2 | Limite inferiore dell’intervallo di valori di B0/Bprolung e e conseguente valore massimo di B0 che garantisce che Bprolung<8μT Intervallo di valori I0/Imax <0.2 0.2 – 0.5 >0.5 Tensione (kV) B0/Bprolung minimo B0 limite 132 0.48 3.5 220 0.29 2 380 0.53 4 132 0.77 6 220 0.75 6 380 0.84 6.5 132 0.91 7 220 0.72 5.5 380 0.89 7 Pertanto, qualora il livello estrapolato da misura spot sia inferiore al valore limite riportato in tabella 2, è possibile affermare che il rischio di superamento del valore di attenzione è non significativo. Nel caso in cui invece lo superi, è opportuno effettuare la misurazione su almeno 24 ore. Dall’analisi dei risultati, è evidente che quando la misura viene effettuata in condizioni di basso carico della linea è in genere opportuno ripeterla per periodi prolungati al fine di ridurre l’incertezza sul dato ottenuto. 97 APPLICAZIONE DEL METODO AI RISULTATI DI UNA CAMPAGNA DI MONITORAGGIO Al fine di verificare l’impatto dell’applicazione del metodo definito sull’attività di monitoraggio e controllo effettuata da un’Arpa, è stata presa in analisi una campagna di misure spot effettuata da Arpa Piemonte nell’anno 2009 su 217 punti in tutta la regione. In particolare, i punti per i quali è stato possibile procedere ad un’estrapolazione (in questo caso alla Portata in Corrente in Servizio Normale, in quanto non per tutte le linee era disponibile il valore di massima mediana su 24h) sono stati 89. Applicando il metodo messo a punto, è risultato che per 34 punti (pari al 38% di quelli analizzati) sarebbe necessaria l’effettuazione di una misura prolungata. Nello specifico, in tabella 3 l’analisi è distinta per tensione delle linee coinvolte. Tabella 3 | Analisi dei punti con rischio significativo di superamento del valore di attenzione in condizioni di Portata in Corrente in Servizio Normale Tensione linee Numero punti monitorati Punti nei quali effettuare misura 24h % 132 kV 60 17 28% 220 kV 12 7 58% 380 kV 17 10 59% Si osserva come la percentuale di casi critici, anche in condizioni di massimo carico tollerabile dalle linee, sia piuttosto bassa per le linee a 132kV, mentre è più elevata per le linee a tensione superiore, pur rimanendo al di sotto del 60%. Se ne può dedurre che è possibile programmare una campagna di misure spot su linee a 132kV, con conseguente maggiore facilità di effettuazione delle misure e possibilità di aumentare il numero di punti monitorati, mantenendo la ragionevole certezza che tali misure siano sufficienti a caratterizzare l’esposizione nell’ottica del confronto con i limiti. CONCLUSIONI Questo lavoro è stato orientato a fornire un criterio utile per l’organizzazione delle attività di monitoraggio e controllo del campo magnetico generato da elettrodotti, tramite la stima del rischio di superamento del valore di attenzione a partire da misure spot (per brevi periodi di tempo). Tale criterio è fondato su una estrapolazione del valore di campo corrispondente alle condizioni di massima mediana su 24 ore, a partire dalla singola misura spot: il dato estrapolato va confrontato con un valore limite, al di sotto del quale è possibile affermare che il rischio di superamento del valore di attenzione è non significativo. Qualora invece il dato estrapolato superi tale limite, il rischio diviene significativo ed è opportuno effettuare la misurazione su almeno 24 ore (100 coppie campo-corrente ai sensi del DM 29/05/2008). Il valore limite con il quale confrontarsi è stato ricavato sulla base di un’analisi statistica di circa 9000 coppie di dati campo-corrente, corrispondenti a misure in prossimità di linee ad alta e altissima tensione nelle regioni Piemonte e Valle d’Aosta. I risultati dell’analisi sono stati quindi validati grazie al confronto con i risultati di ulteriori campagne di misura. In conclusione, viene fornita una tabella di valori limite del dato estrapolato da misura spot, variabili in funzione della tensione della linea e del rapporto tra la corrente al momento della misura e la corrente massima mediana su 24 ore nell’arco dell’anno, utilizzabile per valutare l’opportunità di effettuare misure prolungate nel sito indagato. BIBLIOGRAFIA 1. N.Colonna, G.Licitra, “Valutazione indiretta dell’induzione magnetica: verifiche su casi reali della procedura fissata dal D.M. 29/05/08”, Atti del Convegno “Controllo ambientale degli agenti fisici: nuove prospettive e problematiche emergenti” (2009). 2. S. Borra, A. Di Ciaccio, “Statistica, Metodologie per le scienze economiche e sociali”, McGraw-Hill, Milano, 2008 98 Articoli Monitoraggio nel dominio dei codici di celle UMTS/HSPA e misura del parametro ρCA A.Barellini 1, G.Licitra 2, A.Pinzauti 1, A.M.Silvi 1 1 2 ARPA Toscana – Area Vasta Toscana Costa - Settore Agenti Fisici – via V.Veneto, 27 – Pisa ARPA Toscana – Dip. Prov.le Lucca – via Vallisneri, 6 - Lucca RIASSUNTO Nel presente lavoro è stato monitorato nel tempo il rapporto tra la potenza ricevuta dovuta al canale CPICH di celle UMTS/HSPA e quella totale dovuta complessivamente alle stesse celle. Le misure hanno consentito di verificare il valore di tale rapporto in condizioni sia di assenza che di elevata presenza di traffico dati. I valori ottenuti in quest’ultimo caso hanno consentito di ottenere la misura o comunque un’ottima stima del parametro ρCA delle celle, permettendone un confronto con il valore suggerito dall’Appendice H della norma CEI 211-10. INTRODUZIONE: IL SISTEMA UMTS/HSPA Il sistema UMTS è stato progressivamente aggiornato negli anni (www.3gpp.org) al fine di aumentare la velocità di trasmissione sia nella tratta radio in downlink, con l’introduzione del protocollo HSDPA (High Speed Downlink Packet Access), che in direzione opposta, nella tratta in uplink, con il protocollo HSUPA (High Speed Uplink Packet Access). Lo standard di trasmissione così modificato viene generalmente indicato con il termine di UMTS/HSPA (High Speed Packet Access). Le Stazioni Radio Base UMTS/HSPA utilizzano la tecnologia W-CDMA (Wideband Code Division Multiple Access) per l’accesso multiplo alla stessa risorsa radio da parte dei diversi utenti. Il segnale trasmesso dalle celle UMTS/HSPA è caratterizzato dalla presenza, oltre che dei canali riservati alla trasmissione voce/ dati degli utenti anche da alcuni canali di controllo del sistema. Alcuni di questi canali (CPICH, CCPCH, PICH, SCH 1) sono costantemente trasmessi dalla cella anche in assenza di traffico voce o dati. A ciascuno di questi canali viene riservata una frazione della massima potenza complessiva assegnata alla cella. In particolare, la potenza assegnata al canale CPICH (Common Pilot Channel) determina l’area di copertura della cella. Nella tratta in downlink le principali novità nell’interfaccia radio sono state introdotte in release 5 [7] con il protocollo HSDPA. Nello strato fisico, esso introduce, rispetto a quanto previsto in release 99, due nuovi canali: il canale HS-SCCH (High Speed – Shared Control Channel) ed il canale HS-PDSCH (High SpeedPhysical Dedicated Shared Channel), utilizzato per la trasmissione dei dati utente, trasmesso utilizzando un codice OVSF avente SF pari a 16. Il protocollo HSDPA prevede che allo stesso utente possano essere associati fino a 15 canali HS_PDSCH contemporaneamente. La tabella 1 riassume i canali utilizzati in HSDPA in downlink per la trasmissione dati dell’utente Tabella 1 | Canali utilizzati in HSDPA (Guerrini, 2004) Downlink SF Codici Bit rate (kbit/s) HS-PDSCH 16 1÷15 900÷14400 (payload) DPCH 256 1 3.4 (segnalazione) HS-SCCH 128 1÷4 (campi di controllo) La possibilità di utilizzare per la trasmissione dei canali HS_DPSCH anche lo schema di modulazione 16QAM ed una diversa organizzazione dei due nuovi canali fisici (sottotrame di 2 ms) rispetto alla trama temporale della durata di 10ms prevista per la componente FDD (Frequency Division Duplex) dell’UMTS consentono di portare la velocità di trasmissione teorica in downlink da 384 kbit/s a 14.4 Mbit/s. Ulteriori 1 Il canale SCH viene trasmesso in time multiplexing con il canale CCPCH (Holma, 2004). 99 migliorie sono state successivamente apportate con le release 7 ed 8 [11] che prevedono la possibilità di utilizzo della modulazione 64 QAM, della tecnica MIMO e della modalità DC_HSPA (Dual Cell HSDPA) che prevede l’utilizzo di due portanti adiacenti in contemporanea per la trasmissione in downlink. Il sistema così aggiornato viene generalmente indicato con il termine HSPA+ o evolved HSPA. L’APPENDICE H DELLA NORMA CEI 211-10 ED IL PARAMETRO ρCA L’Appendice H “Metodologie di misura per segnali UMTS” della norma CEI 211-10 indica le metodiche per la misura dei segnali UMTS ai fini della verifica del rispetto dei limiti di esposizione relativi ai campi elettromagnetici a radiofrequenza. La norma fornisce indicazioni anche relativamente alle metodologie da utilizzare per estrapolare il massimo valore di campo elettrico che la Stazione può produrre nel punto di misura nelle condizioni di massimo carico. La tecnica che consente di ottenere il valore nelle condizioni di massimo carico senza incorrere in sovrastime è quella che utilizza una catena di misura in banda stretta. In essa è necessario disporre di analizzatore di segnali vettoriali che consenta di effettuare misure nel dominio dei codici. La tecnica si basa sulla misura del valore di campo elettrico prodotto nel punto di misura dal canale CPICH della cella UMTS/HSPA e della conoscenza della frazione della potenza complessiva della cella ad esso riservata (ρCA). Il valore del parametro ρCA può essere ottenuto sperimentalmente misurando contemporaneamente la potenza totale ricevuta, dovuta alla cella, e quella dovuta al solo canale CPICH. Ciò tuttavia solo a condizione che la misura venga effettuata nelle condizioni di massimo carico della cella. Il verificarsi di tale condizione, tuttavia, non è noto a priori. Diversamente il valore del parametro ρCA può essere richiesto al gestore della cella UMTS/HSPA o, come suggerito dall’Appendice H della norma CEI 211-10, può essere utilizzato per esso un valore pari al 10%. Il valore in dB del rapporto tra la potenza ricevuta dovuta al solo canale CPICH e quella totale, dovuta alla cella, può assumere esclusivamente valori negativi. Tale rapporto è atteso variare da un valore massimo ad un valore minimo. Il primo si realizza in condizione di assenza di traffico voce/dati in cui la cella UMTS/ HSPA trasmette oltre al canale CPICH solamente gli altri canali di controllo CCPCH, SCH, PICH. Il secondo si raggiunge via via all’aumentare della potenza complessiva dei canali di traffico voce/dati che si attivano, rimanendo infatti costante la potenza trasmessa dai canali di controllo. MATERIALI E METODI Nel presente lavoro sono state effettuate misure nel dominio dei codici del segnale ricevuto da una cella UMTS/HSPA nel tempo. Lo scopo è quello di monitorare il rapporto tra la potenza ricevuta dovuta al canale CPICH della cella analizzata e quella totale misurata sulla portante UMTS/HSPA, andando ad individuare in particolare i valori di tale rapporto in condizioni di cella carica in termini di traffico voce/dati. I valori che si ottengono, che costituiscono una stima del parametro ρCA della cella, possono essere utilizzati per una duplice finalità. La prima è quella di confrontarli con i valori del parametro ρCA forniti dai gestori per confermare la validità della metodica utilizzata e, in particolare, che gli istanti individuati corrispondano effettivamente a condizioni almeno prossime a quelle di emissione alla massima potenza della cella. In secondo luogo, i valori ottenuti per il parametro ρCA possono essere confrontati con il valore suggerito dall’Appendice H della norma CEI 211-10 (10%) per verificare se tale valore sia ancora attuale o se diversamente debba essere rivisto in relazione alle attuali configurazioni delle celle UMTS/HSPA. Occorre considerare a tale proposito che, come già descritto, il canale CPICH determina l’area di copertura della cella. Il valore del parametro ρCA indicato all’interno della norma CEI 211-10 è stato fornito nel momento in cui le reti UMTS erano in fase di sviluppo e che pertanto esso potrebbe essere oggi, in condizioni di reti ormai consolidate, non più appropriato. La metodica di misura, già utilizzata in via sperimentale in precedenza [5,6], viene qui ripresa per applicarla alle attuali reti UMTS/HSPA. La catena strumentale utilizzata è costituita da un’antenna a tromba ETS LINDGREN 3160-03 (1.70 ÷ 2.60 GHz), collegata per mezzo di un cavo coassiale ad un analizzatore di spetto Tektronix costituito dalla piattaforma mod. NetTek Y350 e dal modulo YBT250. Lo strumento consente in primo luogo di individuare i canali CPICH delle diverse celle UMTS/HSPA che trasmettono ad una determinata frequenza e misurarne la potenza ricevuta nel punto di misura (fig. 1). Per ciascuno canale CPICH, caratterizzato in base allo Scrambling Code della relativa cella, lo strumento fornisce il valore assoluto della potenza ricevuta (Ec) e quello relativo (Ec/I0) alla potenza complessiva misurata sulla frequenza UMTS (Io), determinata dai contributi di tutte le celle. 100 Figura 1 | Esempio di individuazione delle celle e della misura dei relativi canali CPICH Questa prima operazione risulta importante per verificare che nel punto di misura risulti preponderante il contributo di una determinata cella. Poiché il sistema UMTS/HSPA consente il riuso della stessa frequenza anche in celle adiacenti, il contributo delle altre celle determina un aumento del rumore di fondo per la successiva analisi nel dominio dei codici all’interno della cella selezionata (fig. 2). Un criterio di scelta può consistere nel selezionare le condizioni di misura in cui la potenza del canale CPICH della cella preponderante risulta superiore di almeno 10 dB rispetto a quella dei canali CPICH delle altre celle. La scelta di un’antenna direttiva nella catena utilizzata ha lo scopo di favorire tale condizione. a b Figura 2 | Esempio di misura nel dominio dei codici (a) e di codogramma (b) La figura 2a mostra un esempio di misura nel dominio dei codici. Lo strumento visualizza i canali di controllo e di traffico attivi nonché il valore di potenza Prel di ciascuno di essi in rapporto alla potenza complessiva ricevuta sulla portante UMTS/HSPA. La misura nel dominio dei codici può anche essere ripetuta nel tempo (fig. 2b) ottenendo così un codogramma in cui la potenza Prel (in dB) di ciascun canale attivo viene indicata utilizzando una scala di colori. I dati ottenuti possono poi essere esportati in formato tabellare. Il codogramma consente pertanto di ottenere l’andamento nel tempo della percentuale di potenza dovuta al canale CPICH rispetto a quella ricevuta complessivamente sulla portante UMTS/HSPA. Lo strumento consente di selezionare il tempo intercorrente tra due acquisizioni successive. Nel corso della campagna di misure effettuata è stato impostato un intervallo di 1 s che determina un tempo complessivo di misura di 80 s essendo il codogramma costituito da 80 acquisizioni. 101 Le misure sono state effettuate presso 15 siti ubicati nella città e provincia di Pisa ed hanno riguardato complessivamente circa 30 Stazioni Radio Base dei 4 gestori. RISULTATI Un primo risultato che si ottiene dall’analisi dei codogrammi è l’individuazione della configurazione delle celle in condizioni di assenza di traffico voce/dati ed in presenza dei soli canali di controllo sempre presenti (CPICH,CCPCH, PICH). In figura 3 sono riportati due esempi di codogrammi relativi a due celle di gestori differenti in condizioni di assenza o scarsa presenza di traffico. La figura 4 riporta i relativi andamenti della potenza Prel dei canali di controllo CPICH, CCPCH e PICH. Figura 3 | Esempio di codogrammi in condizioni di assenza o scarsa presenza di traffico Figura 4 | Andamenti nel tempo della potenza Prel dei canali CPICH,CCPCH,PICH per le celle di fig. 3 Dai grafici di figura 4 si può notare come in condizioni di assenza di traffico i valori della potenza Prel del canale CPICH assumano valori massimi pari a – 2 dB e –3 dB rispettivamente nei due casi. Si tenga presente al riguardo che i dati in formato tabellare esportati dallo strumento sono arrotondati all’intero più vicino. I valori ottenuti indicano che al canale CPICH viene assegnata una potenza di circa il 50-60% della potenza complessiva assegnata ai canali di controllo sempre presenti. I grafici mostrano inoltre come il rapporto della potenza tra i canali di controllo rimanga costante nel tempo a conferma dell’invariabilità del valore assoluto della potenza a loro assegnata. La figura 5 mostra al contrario due esempi di codogrammi di celle UMTS/HSPA in condizioni di elevata presenza di traffico voce/dati. In essi si nota in particolare la presenza di canali HSPA HS_PDSCH attivi (fino a 13 in contemporanea). 102 Figura 5 | Esempio di codogrammi in condizioni di elevata presenza di traffico Figura 6 | Esempi di andamenti nel tempo della potenza Prel del canale CPICH in condizioni di elevata presenza di traffico voce/dati La figura 6 mostra alcuni esempi dell’andamento temporale della potenza Prel associata al canale CPICH in condizioni di elevata presenza di traffico voce/dati. Nei grafici, la potenza Prel varia da valori fino a –3 dB in condizioni di assenza di traffico, come peraltro atteso, a valori fino a –13 dB in presenza di canali HS_PDSCH attivi e quindi di traffico dati. Alle figure sono stati sovrapposti come riferimento i valori tipici del parametro ρCA forniti dai differenti gestori delle celle (linee rosse). Come si può osservare, i valori minimi misurati per la potenza Prel del canale CPICH approssimano o coincidono con i valori del parametro ρCA forniti dai gestori, confermando che i valori ottenuti costituiscono un’ottima stima se non il valore vero e proprio del parametro ρCA. In base alle misure effettuate, queste condizioni si verificano frequentemente in presenza di canali HS_PDSCH attivi. Inoltre le stime ottenute per i parametri ρCA, come per altro confermati dai valori forniti dai gestori, risultano in alcuni casi inferiori al valore di –10 dB che corrisponde al 10% indicato dalla Norma CEI 211-10. Ciò comporta che, nelle attuali configurazioni delle reti UMTS/HSPA, 103 questo valore non risulta più cautelativo per l’effettuazione delle estrapolazioni del valore di campo elettrico determinato nelle condizioni di massima potenza delle celle. CONCLUSIONI Le misure effettuate su circa 30 Stazioni Radio Base UMTS/HSPA appartenenti ai 4 gestori hanno consentito di provare che la metodica utilizzata, che consiste nel monitorare nel tempo la frazione della potenza ricevuta nel punto di misura dovuta ai canali di controllo delle celle, consente di ottenere diverse informazioni sulla configurazione radioelettrica delle stesse. In condizioni di assenza di traffico voce/dati consente di individuare la configurazione dei rapporti tra le potenze assegnate ai canali di controllo sempre attivi (CPICH,CCPCH e PICH). In condizioni di elevata presenza di traffico, essa consente di ottenere la misura o, per lo meno, un’ottima stima del parametro ρCA . Le misure effettuate hanno mostrato che la condizione di emissione ad un valore di potenza prossimo al massimo assegnato alla cella si verifica frequentemente in presenza di canali HS_PDSCH attivi. Ciò conferma che le migliorie apportate con l’introduzione del protocollo HSDPA per incrementare il bit-rate fruibile all’utente ha fatto crescere l’utilizzo del sistema UMTS/HSPA in particolar modo per la trasmissione dati, rendendo più probabile la condizione di emissione delle celle a valori prossimi a quelli massimi assegnati. I valori ottenuti sperimentalmente per il parametro ρCA (fino a –13 dB), come anche confermati dai dati forniti dagli stessi gestori (fino a –14 dB che corrisponde al 4% della potenza complessiva della cella) risultano in alcuni casi inferiori al valore indicato dall’Appendice H della Norma CEI 211-10 (10%). In base ai valori ottenuti si ritiene pertanto opportuno rivedere tale indicazione con un valore attorno al 4%, cautelativo ai fini dell’estrapolazione dei livelli massimi attesi in condizioni di massimo carico della cella. BIBLIOGRAFIA 1. 3GPP TS 25.211, Physical channels and mapping of transport channels onto physical channels (FDD), versione 5.8.0, 2005, www.3gpp.org 2. 3GPP TS 25.212, Multiplexing and channel coding (FDD), versione 5.10.0, 2005, 3GPP, www.3gpp.org 3. 3GPP TS 25.213, Spreading and modulation (FDD), versione 5.6.0, 2005, 3GPP, www.3gpp.org 4. 3GPP TS 25.214, Physical layer procedures (FDD), versione 5.11.0, 2005, 3GPP, www.3gpp.org 5. ARPA Toscana, Progetto 3eCEM WP5: Sperimentazione di tecniche innovative per la misura del segnale UMTS – Report conclusivo, 2006 6. Brunetti M., Analisi di segnali UMTS nel dominio dei codici mediante analizzatore di spettro vettoriale, Tesi di Laurea, 2006, Facoltà di Ingegneria, Università degli Studi di Pisa 7. Guerrini C., Pace A., HSDPA: la nuova generazione dell’UMTS, Notiziario Tecnico Telecom Italia, Anno 13, 1, pagg. 90-104, 2004, Telecom Italia 8. Holma H., Toskala A., WCDMA for UMTS: radio access for third generation of mobile communications, 3rd edition, 2004, Wiley 9. Norma CEI 211-10, Guida alla realizzazione di una Stazione Radio Base per rispettare i limiti di esposizione ai campi elettromagnetici in alta frequenza, 2002, CEI 10. Norma CEI 211-10, V1 - Appendice H, Metodologie di misura per segnali UMTS, 2004, CEI 11. Rohde & Schwarz, Application Note 1MA121_2E - HSPA+ Technology Introduction, 2009, Rohde & Schwarz 12. Valliant A., HSPA: l’UMTS ma con una marcia in più!, Notiziario Tecnico Telecom Italia, Anno 15, 3, pagg. 61-64, 2006, Telecom Italia 104 Articoli Modelli semplificati per la dosimetria elettromagnetica in regime quasi-stazionario Bottauscio O.1, Chiampi M.2, Zilberti L.3 Istituto Nazionale di Ricerca Metrologica, Strada delle Cacce 91, 10135 Torino, [email protected] Politecnico di Torino, Corso Duca degli Abruzzi 24, 10129 Torino, [email protected] 3 Istituto Nazionale di Ricerca Metrologica, Strada delle Cacce 91, 10135 Torino, [email protected] 1 2 INTRODUZIONE Con la Raccomandazione 1999/519/EC e con la Direttiva 2004/40/EC (attualmente sospesa e in fase di revisione), il Parlamento Europeo ha di fatto fornito valore legale alle linee-guida dell’International Commission on Non-Ionizing Radiation Protection (ICNIRP, 1998), che prevedono la limitazione delle grandezze dosimetriche indotte in un corpo umano esposto a campi elettromagnetici. L’impossibilità, allo stato dell’arte, di rilevare sperimentalmente tali grandezze, comporta necessariamente il ricorso a modelli di calcolo ogniqualvolta sia necessario verificarne la conformità con le suddette prescrizioni. Per quanto concerne l’esposizione a campi elettrici e magnetici quasi-stazionari, nonostante la disponibilità di software capaci di gestire modelli umani ad alta risoluzione, al momento la normativa vigente tende a proporre approcci semplificati, rinviando l’uso dei modelli più sofisticati considerati non ancora sufficientemente “maturi” (CENELEC, 2005 e 2007). Assolutamente priva di procedure di riferimento è invece l’analisi dosimetrica di un corpo in movimento all’interno di un forte campo magnetico stazionario (tipicamente in prossimità di tomografi a risonanza magnetica MRI), prevista dall’ICNIRP (ICNIRP, 2009) ma ancora confinata nella sfera della ricerca. Il presente contributo vuole illustrare l’uso di alcuni modelli di calcolo sviluppati dagli autori seguendo un’ottica “normativa” ed utilizzabili per svolgere un’indagine dosimetrica nel caso di campi elettrici e magnetici quasi-stazionari (Bottauscio, Chiampi, Zilberti, 2009) e di movimento all’interno di campi magnetici stazionari (Chiampi, Zilberti, 2011). Tali modelli presentano infatti caratteristiche di semplicità ed efficienza, come richiesto comunemente dal processo di unificazione, ma al contempo risultano sufficientemente versatili da permettere lo studio di scenari d’esposizione alquanto complessi. MODELLI DI CALCOLO I modelli in oggetto si fondano sui teoremi integrali di Green e sulla loro applicazione numerica tramite il metodo degli elementi al contorno (Boundary Element Method - BEM). Una prima formulazione, sviluppata nel dominio della frequenza e dedicata ai campi elettrici quasi-stazionari, permette di simulare scenari d’esposizione che includano oggetti sia con potenziale noto e imposto, sia con potenziale flottante; l’eventuale presenza del terreno è gestita automaticamente per mezzo del metodo delle immagini. Un secondo modello, specifico per campi magnetici a bassa frequenza, consente la stima delle grandezze indotte in un corpo che si trovi in prossimità di conduttori percorsi da corrente, nell’ipotesi che il campo da essi prodotto si possa considerare imperturbato. I risultati forniti da questi due approcci sono sovrapponibili al fine di contemplare una possibile situazione di esposizione mista. Infine, una terza formulazione sviluppata nel dominio nel tempo è utilizzabile per svolgere l’analisi dosimetrica di un corpo che compia movimenti rigidi di traslazione o rotazione all’interno di un campo magnetico stazionario. Quest’ultimo modello, realizzato con preciso riferimento agli scanner MRI, permette di studiare gli effetti indotti nel corso dello spostamento di un operatore o di un paziente, secondo una qualsiasi traiettoria, nei pressi del tomografo. Tutti i succitati modelli di calcolo sono stati validati per mezzo di soluzioni analitiche e/o per confronto con simulazioni numeriche basate su schemi computazionali completamente indipendenti. FORMULAZIONE PER CAMPI ELETTRICI QUASI-STAZIONARI A bassa frequenza i campi elettrici ambientali sono sostanzialmente prodotti da oggetti carichi caratterizzati da un valore imposto del potenziale elettrico. La tensione di questi oggetti rispetto al terreno tipicamente 105 è nota (si pensi al caso delle linee elettriche di trasmissione e distribuzione), mentre la carica da essi posseduta può essere dedotta solamente risolvendo la relativa matrice di capacità. E’ pertanto ragionevole impostare la formulazione per l’analisi dosimetrica in riferimento al fasore del potenziale scalare elettrico V, rappresentando anche eventuali corpi elettricamente carichi tramite il potenziale da essi esibito. Quest’ultimo deve soddisfare ovunque l’equazione di Laplace, di cui, per un qualsiasi punto P interno ad una regione Ω omogenea e delimitata da una o più superfici chiuse ∂Ω, la fisica-matematica fornisce la nota soluzione integrale: (1) dove n rappresenta la coordinata del sistema locale secondo la direzione del versore normale diretto all’interno di Ω ed, essendo il problema quasi-stazionario, la funzione di Green assume la forma Ψ=1/(4πr) (r indica la distanza tra il punto di calcolo P ed un qualsiasi punto appartenente a ∂Ω). Applicando a questa equazione la tecnica BEM, ogni superficie di frontiera (∂Ω) delle diverse regioni costituenti il dominio di calcolo è discretizzata in elementi di forma triangolare con dimensioni relativamente ridotte. Su ognuno di tali triangoli il potenziale elettrico e la sua derivata normale sono stati assunti uniformi. Imponendo la validità della relazione (1) per gli stessi punti appartenenti a ∂Ω, per ciascuno dei volumi presenti, il potenziale del generico elemento i-esimo di superficie è espresso tramite il contributo di tutti gli M triangoli che si affacciano sul volume stesso: (2) dove si impone il fattore ξ = 0.5 per evitare la singolarità della funzione di Green quando r = 0. Ogni elemento di superficie consente quindi la scrittura di un’equazione scalare che implica due incognite (il potenziale e la sua derivata normale). Al fine di delineare una matrice che descriva il problema e che contenga un numero di equazioni pari al numero di incognite, l’equazione (2) è scritta, per ciascun elemento, in riferimento ad entrambi i volumi (a) e (b)che condividono la superficie su cui giace l’elemento stesso. Le incognite sono poi legate tra loro dalle condizioni di continuità del potenziale e della componente normale della densità di corrente. L’applicazione di questa procedura conduce a un sistema algebrico lineare invertibile, a condizione di rispettare le seguenti regole: • nel caso di oggetti a potenziale imposto (che fungerà da termine noto del problema) esiste una sola incognita per elemento e pertanto è sufficiente la scrittura dell’equazione (2) in riferimento al solo volume esterno; • nel caso di oggetti con potenziale flottante uniforme, le incognite sono rappresentate da un unico valore del potenziale e dai valori assunti dalla sua derivata normale su ogni elemento; è pertanto sufficiente applicare la relazione (2) nel solo volume esterno ed introdurre poi un vincolo integrale che leghi la carica posseduta dall’oggetto (solitamente nulla) ai medesimi valori di derivata normale. Nel codice di calcolo è stato inoltre implementato il metodo delle immagini che, senza alterare le dimensioni della matrice, permette di includere nelle simulazioni la presenza del terreno (rappresentato come un piano perfettamente conduttivo). Dopo la soluzione del sistema, la stessa equazione (2) consente il calcolo del potenziale in qualsiasi punto interno ad uno dei volumi, ponendo però ξ = 1. Infine il campo elettrico è valutato esplicitando il gradiente del potenziale. FORMULAZIONE PER CAMPI MAGNETICI QUASI-STAZIONARI All’interno di un corpo umano esposto a campi magnetici a bassa frequenza, né le correnti dielettriche nè quelle di conduzione sono in grado di perturbare apprezzabilmente il campo ambientale. In assenza di oggetti ferromagnetici e/o fortemente conduttivi, il campo magnetico può pertanto essere trattato come una grandezza impressa, ricavabile tramite la legge di Biot-Savart dalle correnti che fluiscono nelle sorgenti (ad esempio i conduttori di una linea elettrica). Sotto queste ipotesi, il fasore del campo elettrico in un qualsiasi punto P interno ad una regione omogenea è esprimibile per mezzo di una forma semplificata della classica Equazione Integrale di Campo Elettrico (EFIE) applicata alla superficie ∂Ω che delimita la regione stessa: 106 (3) e la funzione di Green dove figurano la permeabilità magnetica μ, il fasore del campo magnetico precedentemente introdotta. Anche in questo caso, il trattamento numerico dell’equazione (3) è svolto secondo la tecnica BEM, discretizzando la superficie ∂Ω in M elementi di dimensione sufficientemente ridotta da potervi considerare uniformi le grandezze di campo. Per un generico elemento i-esimo dovrà quindi essere verificata la relazione: (4) dove compare il già discusso fattore di singolarità ξ. L’equazione (4) può essere proiettata sui versori di un riferimento locale individuato sull’elemento i-esimo, ottenendo quindi tre relazioni scalari in luogo di una vettoriale. Ripetendo questa procedura per tutti gli elementi presenti nel dominio di calcolo, si giunge alla scrittura di un sistema alegbrico costituito da un numero di equazioni indipendenti pari al numero delle incognite. La soluzione di tale sistema conduce alla determinazione delle componenti del campo elettrico sugli elementi. Successivamente, applicando nuovamente l’equazione (4) con fattore ξ unitario, si può calcolare il valore del campo elettrico in un qualsiasi punto interno a ∂Ω. E’ opportuno sottolineare che, a differenza di quanto osservato per la formulazione relativa ai campi elettrici, nel caso dei campi magnetici la presenza del terreno non introduce effetti di perturbazione di alcun tipo. FORMULAZIONE PER MOVIMENTI IN CAMPO MAGNETICO STAZIONARIO La formulazione precedente rappresenta il punto di partenza per lo sviluppo dello schema computazionale che consente l’analisi dosimetrica di un corpo in moto all’interno di un forte campo magnetico stazionario. Adottando le stesse ipotesi operative già illustrate ed assumendo un sistema di riferimento solidale ad una regione omogenea Ω in moto rigido, l’equazione (3) si modifica come segue: (5) dove l’integrazione necessaria a determinare il campo elettrico nel generico punto P è ancora estesa alla superficie di contorno ∂Ω ma, nel dominio del tempo, il coefficiente complesso jω è rimpiazzato dalla corrispondente derivata temporale. Le elaborazioni necessarie per la soluzione numerica dell’equazione (5) restano immutati rispetto agli schemi BEM già discussi; in particolare, la superficie ∂Ω è suddivisa in triangoli sui quali le grandezze di campo sono assunte uniformi. L’operatore di derivata, approssimato da un rapporto incrementale, conduce così alla versione discretizzata dell’equazione (5): (6) dove il rapporto incrementale non si applica al versore normale , giacché, avendo assunto un riferimento locale e limitando l’analisi a moti rigidi, esso risulta costante nel tempo. L’equazione (6), proiettata su un sistema locale di versori ed applicata a tutti gli elementi del reticolo, porta a definire il sistema algebrico lineare che descrive il fenomeno in ogni istante temporale esaminato. Per ottenere la soluzione relativa all’intera traiettoria di movimento, è quindi necessario ripetere la procedura per tutti i “passi” in cui è stato scomposto il moto della regione Ω. E’ bene notare che la matrice del sistema risulta invariante rispetto al passo temporale e pertanto può essere invertita una sola volta per tutte. Inoltre, il termine ∆t interviene nel denominatore del termine noto dell’equazione (6) come un semplice fattore moltiplicativo; può perciò essere assunto inizialmente unitario senza perdita di generalità, a patto di moltiplicare poi la soluzione finale per il suo valore effettivo (operazione che rappresenta un riscalamento del campo elettrico indotto in ragione della velocità di movimento). MODELLO BEM DEL CORPO UMANO Le formulazioni BEM in oggetto sono state impiegate per valutare le grandezze dosimetriche in un soggetto che si possa trovare in diversi scenari d’esposizione. Per la rappresentazione del corpo umano, come già 107 accennato si è deciso di adottare un modello capace di coniugarsi contemporaneamente con i requisiti di semplicità voluti dalle norme e con le esigenze di versatilità riscontrabili nello studio di situazioni verosimili. Per questo motivo, si è ritenuto opportuno creare una versione tridimensionale del cosiddetto “reference man” (CENELEC, 2007), ottenuto per rotazione intorno al proprio asse del profilo bidimensionale proposto dalla normativa e reticolato con circa 2300 elementi di superficie triangolari (fig. 1). Figura 1 | Modello BEM del corpo umano Il modello umano è assunto omogeneo, con conduttività e permettività relativa rispettivamente pari a 0.2 S/m e 105, come indicato dalle norme (CENELEC, 2007). Dal momento che tutte le formulazioni BEM illustrate conducono al calcolo del campo elettrico indotto, il calcolo della densità di corrente è ottenibile semplicemente sulla base di tali proprietà. ESEMPI DI APPLICAZIONE DELLE FORMULAZIONI BEM In questa sezione vengono presentati alcuni esempi di applicazione dei modelli di calcolo per fini dosimetrici. E’ importante rilevare che, benché siano stati studiati per riprodurre situazioni realistiche, i casi illustrati non rappresentano vere e proprie indagini dosimetriche esaustive, ma sono qui utilizzati al fine di evidenziare le potenzialità dei suddetti modelli computazionali. Per quanto concerne l’esposizione a campi tempo-varianti con bassa frequenza, è stata prevista la possibilità di studiare l’effetto congiunto dei campi elettrici e magnetici, sfruttando la linearità dei due problemi e sovrapponendo quindi i risultati forniti dalle due formulazioni specifiche. Sebbene nelle più recenti versioni delle proprie linee-guida l’ICNIRP abbia adottato restrizioni di base sul campo elettrico indotto (ICNIRP, 2010), in conformità alla Raccomandazione 1999/519/EC e alla Direttiva 2004/40/EC, si è deciso di mostrare i risultati in termini di densità di corrente. ESPOSIZIONE IN UNA SOTTOSTAZIONE ELETTRICA Come esempio di esposizione congiunta a campi elettrici e magnetici quasi-stazionari, si propone il caso di un operatore che si trovi in prossimità dei conduttori di una linea trifase a 380 kV, operativa alla frequenza di 50 Hz all’interno di una sottostazione elettrica. Tali conduttori si trovano ad un’altezza di 6.5 m sopra il terreno e distano tra loro 5.5 m. La distanza tra le due colonne isolanti che sostengono ogni conduttore è di 3.5 m e l’operatore è posto in due diverse posizioni, indicate con A e B, corrispondenti rispettivamente alle zone dove è più intenso il campo elettrico oppure quello magnetico (fig. 2). 108 Figura 2 | Scenari d’esposizione A e B all’interno di una sottostazione elettrica Nel corso delle simulazioni si ipotizza che i tre conduttori siano percorsi da un sistema equilibrato di correnti, di valore efficace pari a 1500 A. In fig. 3 si riporta l’andamento della densità di corrente indotta lungo l’asse x, all’altezza della fronte del modello umano. Come si può notare, la strategia di calcolo ha permesso di valutare separatamente la densità di corrente indotta a causa del campo magnetico e quella dovuta al campo elettrico ambientale; nei casi esaminati è quest’ultimo a determinare l’effetto prevalente. Si noti come, trattandosi di una grandezza vettoriale e fasoriale, la densità di corrente totale risulti in alcuni punti amplificata ed in altri ridotta rispetto ai due singoli contributi. Si noti altresì come, per la sola posizione B, sia stato messo in evidenza l’effetto di un fattore di potenza non unitario. Lungo la linea di indagine considerata i livelli di densità di corrente indotta sono risultati inferiori al limite stabilito dalla Direttiva 2004/40/EC, pari a 10 mA/m2. Figura 3 | Densità di corrente indotta all’altezza della fronte del modello umano ESPOSIZIONE IN PROSSIMITA’ DI UN TOMOGRAFO MRI In questo paragrafo si illustrano alcuni esempi di valutazione dell’esposizione di un corpo che si muove all’interno di un campo magnetico stazionario. Lo scenario scelto riguarda un tomografo a risonanza magnetica nucleare di tipo tradizionale (tubolare), con un’induzione magnetica nominale di 1.5 T, costituito da un sistema di 13 bobine che occupano approssimativamente un volume cubico con lato di 1.6 m. Come spesso previsto dai costruttori, alcune bobine sono contravvolte per limitare l’entità del campo magnetico al di fuori del dispositivo. I risultati sono espressi in termini di evoluzione temporale del campo elettrico e della densità di corrente in corrispondenza di due punti, indicati con A e B, rispettivamente localizzati in prossimità della tempia sinistra e del cuore. Nel primo caso (fig. 4) si esamina l’esposizione di un paziente che viene introdotto all’interno del tomografo con una velocità di 0.1 m/s, partendo da una posizione iniziale tale per cui la testa si trova allineata con l’apertura della macchina. Data l’elevata uniformità dell’induzione magnetica all’interno del dispositivo MRI, l’evoluzione temporale del campo indotto nei punti A e B tende a smorzarsi se si limita l’analisi ad uno spostamento di 1 m. 109 Figura 4 | Valutazione dell’esposizione di un paziente introdotto nel tomografo La seconda situazione esaminata prevede un movimento di traslazione del modello umano posto in posizione eretta, con l’asse inizialmente collocato a 0.5 m dalla macchina. Lo spostamento avviene lungo l’asse del tomografo, con velocità uniforme di 1 m/s. Il campo indotto assume qui un tipico andamento monotono decrescente, giustificato dal decadimento del campo magnetico allontanandosi dal tomografo (fig. 5). Figura 5 | Valutazione dell’esposizione di una persona che si allontana longitudinalmente dal tomografo Infine, l’ultimo caso proposto è perfettamente analogo al precedente, ma questa volta lo spostamento avviene in direzione radiale e, a causa della particolare distribuzione spaziale dell’induzione magnetica, il campo indotto manifesta un’evoluzione più articolata (fig. 6). Figura 6 | Valutazione dell’esposizione di una persona che si allontana radialmente dal tomografo 110 Gli esempi presentati in questo paragrafo illustrano l’insorgere di campi elettrici dall’andamento temporale aperiodico e relativamente complesso. Data la modesta velocità di movimento, un’analisi armonica applicata alle singole componenti spaziali del campo indotto condurrebbe all’identificazione di segnali armonici di frequenza prossima ad 1 Hz, a cui, in generale, si sovrappone un segnale unidirezionale non nullo. A titolo di riferimento, le restrizioni di base stabilite dall’ICNIRP per frequenze inferiori a 1 Hz sono pari a 8 mA/m2 (per la popolazione) e 40 mA/m2 (per i lavoratori). CONCLUSIONI Gli approcci computazionali proposti rappresentano uno strumento affidabile ed efficiente per la dosimetria elettromagnetica di fenomeni lentamente variabili. Pur mantenendo caratteristiche di semplicità, essi si svincolano da talune ipotesi restrittive spesso presenti nelle procedure normative (ad esempio di bidimensionalità) e consentono di analizzare innumerevoli scenari d’esposizione plausibili. La stima delle grandezze indotte ottenibile grazie ad essi costituisce un valido elemento d’indagine, da affiancare alle campagne di misurazione sperimentali per la verifica di conformità ai limiti vigenti. BIBLIOGRAFIA 1. Bottauscio O., Chiampi M., Zilberti L., Boundary Element Approaches for the Evaluation of Human Exposure to Low Frequency Electromagnetic Fields, IEEE Trans. Mag., Vol. 45, 2009. 2. Chiampi M., Zilberti L., Induction of Electric Field in Human Bodies Moving Near MRI: An Efficient BEM Computational Procedure, IEEE Trans. Biomed. Eng., Vol. 58, 2011. 3. CENELEC, Exposure to electric or magnetic fields in the low and intermediate frequency range Methods for calculating the current density and internal electric field induced in the human body Part 1: General, EN 62226-1, 2005. 4. CENELEC, Exposure to electric or magnetic fields in the low and intermediate frequency range Methods for calculating the current density and internal electric field induced in the human body Part 2-1: Exposure to magnetic fields - 2D models, EN 62226-2-1, 2005. 5. CENELEC, Exposure to electric or magnetic fields in the low and intermediate frequency range Methods for calculating the current density and internal electric field induced in the human body Part 3-1: Exposure to electric fields - Analytical and 2D numerical models, EN 62226-3-1, 2007. 6. ICNIRP, Guidelines for limiting exposure to time-varying electric, magnetic, and electromagnetic fields (up to 300 GHz), Health Physics, Vol. 74, 1998. 7. ICNIRP, Guidelines on limits of exposure to static magnetic fields, Health Physics, Vol. 96, 2009. 8. ICNIRP, Guidelines for limiting exposure to time-varying electric and magnetic fields (1 Hz to 100 kHz), Health Physics, Vol. 99, 2010. 9. Parlamento Europeo, Council recommendation of 12 July 1999 on the limitation of exposure of the general public to electromagnetic fields (0 Hz to 300 GHz) (1999/519/EC), 1999. 10. Parlamento Europeo, Directive 2004/40/EC of the European Parliament and of the Council of 29 April 2004 on the minimum health and safety requirements regarding the exposure of workers to the risks arising from physical agents (electromagnetic fields) (18th individual Directive within the meaning of Article 16(1) of Directive 89/391/EEC), 2004. 111 Articoli Il fattore di rischio ambientale da radiazione solare UV-A Petkov B. H.1, Lanconelli C.2, Vitale V.3, Tomasi C.4, Gadaleta E.5, Mazzola M.6, Lupi A. 7, Busetto M.8 Istituto di Scienze dell’Atmosfera e del Clima (ISAC), Consiglio Nazionale delle Ricerche (CNR), Via P. Gobetti 101, I-40129 Bologna, Italia, [email protected] ISAC-CNR, via P. Gobetti 101, I-40129 Bologna, Italia, [email protected] ISAC-CNR, via P. Gobetti 101, I-40129 Bologna, Italia, [email protected] ISAC-CNR, via P. Gobetti 101, I-40129 Bologna, Italia, [email protected] Centre for Molecular Oncology and Imaging, Institute of Cancer and CR-UK Clinical Centre, Barts and The London School of Medicine (QMUL), London, UK ISAC-CNR, via P. Gobetti 101, I-40129 Bologna, Italia, [email protected] ISAC-CNR, via P. Gobetti 101, I-40129 Bologna, Italia, [email protected] ISAC-CNR, via P. Gobetti 101, I-40129 Bologna, Italia, [email protected] RIASSUNTO Viene proposto un metodo per stimare i periodi dell’esposizione alla radiazione solare UV-A (315 – 400 nm) in grado di fornire le dosi ritenute sufficienti a provocare cancro alla pelle negli sperimenti di laboratorio. Lo spettro solare è stato pesato con adeguate funzioni, create per permettere un confronto corretto tra la dose solare ambientale e quella applicata in laboratorio. Il metodo tiene conto anche dello spessore dello strato corneo sul periodo dell’esposizione. I risultati, validi alle medie latitudini, mostrano che le dosi critiche sono già raggiunte con un’esposizione alla radiazione ambientale UV-A, in un periodo della durata inferiore ad un mese. INTRODUZIONE Negli ultimi anni è stato registrato un notevole aumento dei casi di cancro alla cute (Boukamp, 2005) che si considera possa risultare dall’accrescimento della esposizione alla radiazione solare ultravioletta (UV, da circa 295 – 400 nm). I primi studi dei danni che la radiazione UV è in grado di provocare alla molecola di acido desossiribonucleico (DNA), inducendo il processo di carcenogenesi, hanno evidenziato che la parte UV-B (295 – 315 nm) è diretta responsabile delle mutazioni del DNA (Setlow, 1974; Freeman et al., 1989). Infatti, il DNA assorbe direttamente l’irradianza UV-B e può essere danneggiato dai fotoni che a questo range di energie penetrano nelle cellule della pelle. Oggi invece, numerose ricerche dimostrano che il ruolo della parte ultravioletta UV-A (315 – 400 nm) per la carcenogenesi non può essere trascurato (Agar et al., 2004). L’impatto dell’UV-A non è diretto sulle molecole di DNA (He et al., 2006; Wischermann et al., 2008) come quello dell’UV-B, ma la radiazione UV-A è 20 – 30 volte più intesa della UV-B nello spettro solare e viene assorbita con minore efficienza dagli strati esterni della cute. Anche se non esiste, ad oggi, uno spettro d’azione che permetta le valutazioni del rischio dall’esposizione alla radiazione solare UV-A, gli esperimenti di laboratorio danno una stima delle dosi in grado di indurre il processo di carcinogenesi. Il presente studio si propone di produrre un algoritmo per valutare tempi dell’esposizione alla radiazione ambientale UV-A, tali da fornire dosi sufficienti a provocare tumori squamocellulari come indicato da precedenti esperimenti di laboratorio. Un’analisi dettagliata dei risultati è presentata in Petkov et al. (2011). METODOLOGIA La dose biologica D(ΔT), o l’energia, fornita dalla radiazione spettrale F(λ, t) biologicamente attiva, emessa alla lunghezza d’onda λ nel momento t e che viene assorbita da un unità di superficie orizzontale per un intervallo di tempo ΔT è definita dalla seguente equazione (1) 113 La funzione peso A(λ), che compare nella equazione (1), è chiamata spettro d’azione, e rappresenta l’efficienza che l’irradianza di lunghezza d’onda λ, ha nel produrre l’effetto biologico analizzato, Δλ e ΔT indicano l’intervallo spettrale e di tempo sui quali eseguire l’integrale. Le curve dello spettro d’azione A(λ) sono caratteristiche per ogni effetto biologico e vengono costruite analizzando i risultati sperimentali: così ad esempio esiste uno specifico spettro d’azione per i danni da eritema (McKinlay and Diffey, 1987), quelli da danni alla molecola di DNA (Setlow, 1974), e così via. L’equazione (1) fornisce un metodo per valutare il tempo di esposizione a una sorgente di radiazione sufficiente a causare danni all’organismo umano quando (i) la funzione peso A(λ) dell’effetto biologico corrispondente è conosciuta e (ii) il limite della dose DL(ΔT) al di sopra della quale i danni diventano molto probabili è definito. Le sottosezioni seguenti discutono brevemente una metodologia atta a definire adeguate funzioni peso per esposizione ad irradianza UV-A delle cellule della pelle umana, ed una stima della dose DL(ΔT), basate sugli sperimenti di laboratorio. LA COSTRUZIONE DELLA FUNZIONE PESO E CALCOLO DELLA DOSE AMBIENTALE He et al. (2006) e Wischermann et al. (2008) hanno effettuato uno studio sull’effetto della radiazione UV-A sulle cellule di cute in laboratorio irradiando i cheratinociti umani HaCaT (Boukamp et al., 1988) con lampade del tipo F20T12/BL/HO PUV-A e Mutzhas UV-ASUN 3000, rispettivamente. In entrambi i casi le cellule HaCaT sono state irradiate in vitro e successivamente impiantate nei topi. Per tener conto della differenza tra lo spettro di radiazione solare e quello delle lampade, è necessario introdurre una funzione peso L(λ) tramite la quale la dose prodotta dalla radiazione solare F0(λ, t) possa essere confrontata con quella applicata in laboratorio. Assumiamo che una tale funzione L(λ) inserita nell’equazione (1), insieme con F0(λ, t) porterebbe alla stessa dose prodotta da una lampada con potenza W(t) e spettro relativo FR(λ). In questo caso otterremmo (2) Generalmente, l’uguaglianza delle due dosi, espressa dall’equazione (2) non implica l’uguaglianza degli effetti prodotti dalle radiazioni F0(λ, t) e W(t) FR(λ), dato che gli effetti biologici sono sensibili alle caratteristiche spettrali delle due radiazioni. Per raggiungere una parità sia delle dosi sia degli effetti prodotti dalle dosi si deve assumere anche che (3) Quindi, per poter confrontare correttamente la dose prodotta dalla radiazione solare con quella ottenuta da una sorgente artificiale in laboratorio, lo spettro solare và pesato in modo tale da essere “trasformato” nello spettro della sorgente di laboratorio. La fig. 1(a) mostra i due spettri relativi alle due lampade, identificati come FRF (λ) per F20T12/BL/HO PUV-A e FMR(λ, t) per Mutzhas UV-ASUN 3000 usate per l’irradiamento nei due esperimenti descritti precedentemente. La fig. 1(b) mostra lo spettro solare F0(λ, t) misurato a mezzogiorno del 22 giugno a Bologna. Tale curva, normalizzata rispetto al valore massimo di irradianza spettrale, puo’ essere considerata rappresentativa delle caratteristiche tipiche della radiazione solare UV alle medie latitudini. Essa è utile al fine di ottenere, applicando l’equazione (3), le due funzioni peso LF(λ) e LM(λ), presentate nella fig. 1(c). Nei calcoli della dose ambientale UV-A, oltre alle funzioni peso opportune, va considerato anche l’effetto dell’assorbimento dello strato corneo della cute, che negli esperimenti in laboratorio non è considerato essendo sono stati svolti irradiando le cellule HaCaT in vitro. Quindi, la dose solare UV-A nelle presenti analisi si calcola utilizzando la seguente equazione (4) dove HSC è lo spessore dello strato corneo e τ(λ, HSC) è la sua trasmittanza presentata nella fig. 2 (Bruls et al., 1984). Nell’equazione (4) le dosi DF(ΔT, HSC) e DM(ΔT, HSC), sono ottenute usando le due funzioni peso corrispondenti LF(λ) e LM(λ). 114 Figura 1 | Caratteristiche spettrali dei parametri usati nello studio. Il panello (a) mostra gli spettri relativi delle sorgente usate negli sperimenti di laboratorio, (b) esibisce lo spettro solare nell’intervallo delle lunghezze d’onda 300 – 420 nm, normalizzato a 1, e (c) presenta le funzioni peso calcolate dividendo ogni spettro dal panello (a) con i valori dalla curva esibita nel panello (b), secondo l’equazione (3) Figura 2 | La trasmittanza dello strato corneo Le diverse curve mostrano la trasmittanza per spessore variabile dello strato corneo da 10 μm a 30 μm. RISULTATI DEGLI ESPERIMENTI DI LABORATORIO E LIMITI DELLE DOSI AMBIENTALI UV-A Come è stato già detto precedentemente, per poter valutare i rischi collegati all’esposizione della radiazione solare UV-A si devono definire i limiti oltre i quali l’effetto dell’irraggiamento potrebbe indurre un processo di carcenogenesi. Le dosi applicate negli sperimenti di laboratorio fatti da He et al. (2006) e Wischermann et al. (2008) possono dare una stima approssimativa di questi limiti. 115 Tabella 1 | Risultati degli esperimenti di laboratorio. Dosi applicati (kJ m-2) Trattamento di 5 settimane Wischermann et al. (2008) Trattamento di 15 settimane Wischermann et al. (2008) 50 (4 per settimana) A: 0% B: 33% (2 di 6 casi) A: 0% B: 63% (5 di 8 casi) 200 (1 per settimana) A: 50% (3 di 6 casi) B: 17% (1 di 6 casi) A: — B: 63% (5 di 8 casi) 240 (1 per settimana) Trattamento di 18 settimane He et al. (2006) 64% (7 di 11 casi) La prima colonna mostra la dose applicata e le modalità di irraggiamento. Le altre colonne mostrano la frequenza percentuale dei tumori squamocellulari sviluppati nei topi successivamente all’impiantazione di cellule HaCaT irradiate in laboratorio con radiazione UV-A da lampada. In parentesi è mostrato il numero dei casi dove il tumore si sviluppa e il numero totale dei casi studiati nel trattamento indicato. La scheda dell’irraggiamento e le dosi usate dai due gruppi di ricercatori sono mostrate nella tab. 1. He et al. (2006) hanno fatto un trattamento con UV-A di 18 settimane usando un irradiamento di 240 kJ m-2 a settimana. Wischermann et al. (2008) lavorano su due diverse serie di cheratinociti (A e B) irradiati parallelamente, con un trattamento UV-A di 5 settimane ed uno di 15 settimane. Essi assumono due modalità di irradiamento: (i) 50 kJ m-2, quattro volte a settimana e (ii) 200 kJ m-2, una volta a settimana, al fine di studiare l’effetto di accumulo delle dosi. Come si vede dalla tab. 1, dove è presentata la frequenza dei casi di sviluppo del carcinoma squamocellulare, la probabilità della malattia nella serie B (con 15 settimane trattamento) per entrambi i modi di irradiamento è la stessa. Anche la frequenza dei tumori nella seria B (5 settimane, 4 volte a settimana) è molto simile alla percentuale media delle serie A e B nel caso di irradiamento effettuato una sola volta a settimana. Questo consente di concludere che il trattamento con piccoli dosi applicate più spesso in un periodo comparativamente corto, causa approssimativamente lo stesso effetto osservato per un trattamento con dosi più alte ma applicate meno frequentemente. Figura 3 | Le dose pesati ambientali della radiazione UV-A La figura mostra il comportamento annuale della dose pesata DM per diversi intervalli temporali di esposizione ΔT, calcolata con il modello radiativo TUV (Madronich et al., 1993) per medie latitudini e diversi spessori dello strato corneo HSC. 116 Negli sperimenti di laboratorio quindi, una dosa UV-A da lampada, di 1000 kJ m-2 (5 settimane per 200 kJ m-2 a settimana) porta ad una probabilità di sviluppo del cancro di circa il 25%, mentre per una dose di 3000 kJ m-2 una tale probabilità si alza a circa 42%, in accordo con Wischermann et al. (2008). He et al. (2006) riferiscono una percentuale del 64% per una dose di 4320 kJ m-2. Essendo l’organismo umano dotato di meccanismi di protezione, un trasferimento diretto e semplice di questi risultati ai casi reali ambientali non può essere fatto (Setlow 1974; Sutherland 1997). D’altra parte gli esperimenti di laboratorio avvalorano la relazione tra irradianza da UV-A e l’instaurarsi di fenomeni di carcenogenesi. Per questo motivo, non verranno qui quantificate le probabilità dell’eventuale sviluppo di carcinoma squamocellulare nella cute nei casi reali ambientali, ma si evidenzia come una dose DM(ΔT, HSC), calcolata usando la funzione LM(λ) ricostruita dai dati di Wischermann et al. (2008), di 1000 kJ m-2, sia già una dose critica. L’aumento della dose fino a DM(ΔT, HSC) = 3000 kJ m-2 aumenta significatamene la probabilità della corcinogenesi. Per le considerazioni precedenti, la dose valutata tenendo conto della funzione LF(λ) (He et al., 2006) DF(ΔT, HSC) va confrontata con il valore 4320 kJ m-2, per poter affermare che è raggiunto o superato un limite critico per l’induzione di carcinogenesi. RISULTATI E DISCUSSIONE La fig. 3 mostra la dose DM(ΔT, HSC) valutata, usando il modello radiattivo TUV (Madronich et al., 1993), per le medie latitudini e per diversi tempi di esposizione e spessore dello strato corneo HSC. Si vede che anche per un irradiamento di tutta la giornata la dose critica di 1000 o 3000 kJ m-2 non si raggiunge nemmeno durante l’estate, rimanendo i valori di DM(ΔT, HSC) ben al di sotto di tale soglia. La fig. 4 evidenzia il comportamento della dose giornaliera DM(ΔT, HSC) nel caso HSC=10 μm stimata usando le misure fatte a Bologna nella primavera – estate del 2008. Le notevoli variazioni delle dosi sono risultato dell’effetto delle nubi, che possono causarne la riduzione di circa un ordine di grandezza. Figura 4 | Le dosi ambientali pesate della radiazione UV-A La figura mostra la dose ambientale UV-A DM valutata per Bologna nel periodo aprile – agosto, 2008 sulla base delle misure dell’irradianza UV-A. La curva rossa corrisponde all’esposizione perdurante tutta la giornata, la curva verde all’esposizione tra le 10 e le 14 UTC di ogni giorno, mentre la curva blu si riferisce all’irradiamento tra l’alba e le 10 UTC da un lato, sommata a quella tra le 14 UTC e il tramonto, dall’altro. Infine, la fig. 5 mostra l’andamento della dose cumulativa D(n) (ΔT, HSC), definita come F/M (5) che rappresenta la crescita della dose D(n) (ΔT, HSC) o D(n) (ΔT, HSC) dopo n giorni di irradiamento durante F M i diversi intervalli temporali giornalieri ΔT, iniziando dal 14 giugno 2008 a Bologna. In fig. 5 si vede come, nel caso di esposizione perdurante per tutta la giornata, i valori critici di 1000 e 3000 kJ m-2 della dose D(n) (ΔT, HSC) si raggiungono dopo 5 e 11 giorni di irradiamento, mentre per un’esposizione dall’alba M fino alle 10 UTC e continuata dalle 14 UTC fino al tramonto, fornisce gli stessi valori dopo 7 e circa 20 giorni, respettivamente. E’ interessante anche a notare che la dose D(n) (ΔT, HSC) raggiunge il valore di M (n) -2 3000 kJ m per lo stesso periodo di trattamento n per quale la dose D F (ΔT, HSC) arriva al suo livello critico di 4320 kJ m-2. 117 Figura 5 | La dose UV-A accumulata. La crescita della dose ambientale UV-A accumulata su una superficie orizzontale a Bologna durante l’estate 2008. La dose è calcolata sulla base delle misure dell’irradianza per diversi periodi dell’esposizione giornaliera e HSC 10 μm. Le dose critiche sono indicate dalle linee orizzontali. Il tempo è in UTC. CONCLUSIONI Sulla base di risultati ottenuti in laboratorio è stata fatta una stima dei tempi di esposizione alla radiazione solare UV-A (315 – 400 nm) in grado di fornire le dosi sufficienti a danneggiare DNA. Usando misure della radiazione UV al suolo effettuate a Bologna, si valuta che un periodo di esposizione compreso tra 10 e 25 giorni, a seconda delle modalità di irradiamento giornaliero, potrebbe portare a rischi per la salute umana. Nella stima di tutte le dosi riportate sono state assunte le seguenti importanti approssimazioni: (i) La pelle irradiata è assunta essere una superficie orizzontale. Tuttavia, la reale inclinazione delle diversi parti del corpo rispetto all’orizzonte cambia continuamente durante la giornata e un cambiamento, a volte notevole, della radiazione UV-A che penetra nella pelle (Koepke and Mech, 2005) e quindi della dose, è verosimilmente atteso. (ii) Lo spessore dello strato corneo è assunto constante. Numerosi studi mostrano che esso si allarga, qualche volta in modo significativo con la crescita dell’idratazione della cute (Bouwstra et al., 2003; Egawa et al., 2007; Xiao et al., 2007), anche dopo l’irradiamento con UV (Bruls et al., 1984; Lavker et al., 1995; Gambichler et al., 2005). Ciò dovrebbe ridurre le dosi presentate nella fig. 5. BIBLIOGRAFIA 1. Agar, N.S. et al. The basal layer in human squamous tumors harbors more UVA than UVB fingerprint mutations: A role for UVA in human skin carcinogenesis. Proc. Natl. Acad. Sci. USA 101, 4954-4959, 2004. 2. Boukamp, P. UV-induced skin cancer: similarities-variations. J Dtsch Dermatol Ges 3, 493-503, 2005. 3. Bouwstra, J.A. et al. Water Distribution and Related Morphology in Human Stratum Corneum at Different Hydration Levels. The Journal of Investigative Dermatolgy 120, 750-758, 2003. 4. Bruls, W.A.G. et al. Transmission of human epidermis and stratum corneum as a function of thickness in the ultraviolet and visible wavelengths. Photochem. Photobiol. 40., 485-494, 1984. 5. Egawa, M. et al. In vivo estimation of stratum corneum thickness from water concentration profiles obtained with raman spectroscopy. Acta Derm.-Venereol. 87, 4-8, 2007. 118 6. Freeman, S.E. et al. Wavelength dependence of pyrimidine dimer formation in DNA of human skin irradiated in situ with ultraviolet light. Proc. Natl. Acad. Sci. USA 86, 5605-5609, 1989. 7. Gambichler, T. et al. UVA1 and UVB irradiated skin investigated by optical coherence tomography in vivo: a preliminary study. Clin. Exp. Dermato. 30, 79-82, 2005. 8. He, Y.Y. et al. Chronic UVA irradiation of human HaCaT keratinocytes induces malignant transformation associated with acquired apoptotic resistance. Oncogene 25, 3680-3688, 2006. 9. Koepke P and Mech M. UV irradiance on arbitrarily oriented surfaces: variation with atmospheric and ground properties. Theor. Appl. Climatol. 81, 25–32, 2005. 10. Lavker, R. M. et al. Cumulative effects from repeated exposures to suberythemal doses of UVB and UVA in human skin. J Am. Acad. Dermatol. 32, 53-62, 1995. 11. Madronich, S. UV radiation in the natural and perturbed atmosphere. In: Tevini M.(Ed.), Environmental Effects of UV (Ultraviolet) Radiation. Boca Raton, Lewis, pp. 17-69, 1993. 12. McKinlay, A.F. and Diffey, B.L. A reference action spectrum for ultraviolet induced erythema in human skin. CIE J. 6, 17 – 22, 1987. 13. Petkov B. et al. Preliminary assessment of the risk associated with solar ultraviolet-A exposure. Rad. Environ. Biophys. 50, 219–229, 2011. 14. Setlow, R.B. The wavelengths in sunlight effective in producing skin cancer: a theoretical analysis. Proc. Natl. Acad. Sci. USA 71, 3363 – 3366, 1974. 15. Wischermann, K. et al. UVA radiation causes DNA strand breaks, chromosomal aberrations and tumorigenic transformation in HaCaT skin keratinocytes. Oncogene 27, 4269-4280, 2008. 16. Xiao P. et al. Opto-thermal radiometry and condenser-chamber method for stratum corneum water concentration measurements. Appl. Phys. B 86, 715-719, 2007. 119 Articoli Esposizione occupazionale a campi magnetici con forma d’onda complessa: tre casi studio in ambito industriale e sanitario Nicola Zoppetti (1), Daniele Andreuccetti (1), Andrea Bogi (2), Iole Pinto (2) (1) IFAC-CNR, via Madonna del Piano 10 - 50019 Sesto Fiorentino (FI) [email protected] , [email protected] (2) Azienda U.S.L. 7 di Siena Laboratorio Agenti Fisici, Strada di Ruffolo 4 - 53100 Siena [email protected] , [email protected] RIASSUNTO In questo lavoro ci si è posti l’obbiettivo di verificare l’impatto di diverse norme e linee guida riguardanti l’esposizione umana a campi elettromagnetici, applicandole a casi concreti riscontrati in ambienti di lavoro. A questo fine, si sono sfruttati i risultati di alcune campagne di misuraorganizzate nell’ambito di una convenzione tra AUSL7 e IFAC-CNR, finalizzata allo sviluppo ed al popolamento della banca dati sui campi elettromagnetici del Portale Agenti Fisici (PAF, http://www.portaleagentifisici.it/). Gli esempi presentati riguardano sia l’ambito industriale (saldatura ad arco e macchine da cucire industriali), sia quello sanitario (stimolazione magnetica transcranica). Per ognuno di essi si descrivono le tecniche di verifica del rispetto dei limiti delle grandezze radiometriche, con particolare riferimento agli indici di esposizione che si applicano a campi con forma d’onda non sinusoidale. INTRODUZIONE La normativa internazionale sull’esposizione della popolazione e dei lavoratori ai campi elettrici e magnetici di bassa frequenza (fino a 100 kHz) ha subito negli ultimi anni un complesso processo di evoluzione. In ambito ICNIRP, alle storiche linee guida pubblicate nel 1998 (ICNIRP,1998), si è aggiunto nel 2003 uno statement specifico per i campi con forma d’onda non sinusoidale (ICNIRP 2003), per poi arrivare – nel 2010 – alla pubblicazione di nuove linee guida per la sola bassa frequenza (ICNIRP 2010). Queste ultime, oltre a modificare i limiti del 1998, hanno recepito parte delle procedure proposte nello statement del 2003. Parallelamente, anche la normativa tecnica si è evoluta, purtroppo non sempre in modo armonico con le linee guida ICNIRP, alle quali tuttavia spesso si riferisce. In questo lavoro si illustrano inizialmente le principali metodiche definite nelle linee guida ICNIRP, ponendo particolare attenzione alle problematiche che è necessario affrontare applicandole. In seguito, tali metodiche sono usate in tre casi concreti con lo scopo di verificare la coerenza dei risultati forniti, laddove questa sia auspicabile, e quantificare le discrepanze dovute, ad esempio, ai diversi livelli di riferimento di (ICNIRP,1998) e (ICNIRP,2010). La trattazione si limiterà al caso del campo magnetico a frequenza ‘bassa’ che coinvolge un gran numero di sorgenti di particolare interesse; coerentemente alla classificazione adottata dall’ICNIRP, per bassa si intende entro i 100 kHz. Ci riferiremo in particolare alla seguente espressione che rappresenta l’induzione magnetica in un generico punto le cui componenti cartesiane sono state espresse in serie di Fourier e dove si è trascurato il termine che rappresenta il valor medio. (1) La teoria ci insegna che f0 è l’inverso del periodo della forma d’onda considerata e che tanto più alto sarà il numero n di armoniche considerate, quanto più fedele sarà la rappresentazione in serie. Inoltre, il fatto di considerare una porzione limitata dello spettro (tra 0 e 100 kHz) fa sì che in questo contesto si possa considerare n come finito. 121 METODI DI VERIFICA Come è noto, i limiti delle grandezze radiometriche definiti nelle linee guida ICNIRP (livelli di riferimento), sia quelle attuali sia quelle passate, dipendono dalla frequenza. L’applicazione delle prescrizioni risulta quindi banale solo nel caso di esposizione a campi monocromatici per i quali si confronta semplicemente il valore efficace del campo con il livello di riferimento alla frequenza di interesse. Nel caso in cui il campo in oggetto non sia puramente sinusoidale esistono diversi metodi mediante i quali si può verificare il rispetto dei livelli di riferimento ICNIRP, alcuni definiti nel dominio del tempo alcuni nel dominio della frequenza. I principali tra questi saranno descritti nei seguenti paragrafi e saranno applicati ai casi studio presentati successivamente. Il metodo ICNIRP standard Il metodo, originariamente introdotto in (ICNIRP,1998), è definito nel dominio della frequenza e consiste nel rapportare l’ampiezza di ciascuna sinusoide con il relativo livello di riferimento ICNIRP per il picco e di sommare linearmente tali rapporti ottenendo un indice numerico che, se superiore a 1 indica il superamento dei limiti. L’espressione (2) piuttosto che riferirsi ai valori di picco utilizza i valori efficaci ed in particolare Brms(kf0) è il valore efficace della componente spettrale alla frequenza kf0 e BL(kf0) è il relativo livello di riferimento ICNIRP (che è espresso in termini di valore efficace). (2) Secondo tale metodo si suppone che tutte le componenti spettrali siano in fase tra loro e che pertanto assumano simultaneamente il relativo massimo. Il metodo ‘weighted peak’ nel dominio della frequenza Per offrire una alternativa che fornisse risultati meno cautelativi rispetto al metodo standard, in (ICNIRP,2003) è stato introdotto il cosiddetto metodo weighted peak (WP nel seguito). Esso prevede che si tenga conto sia delle ampiezze delle componenti spettrali del campo sia delle relative fasi. Per fare ciò è possibile operare sia nel dominio della frequenza sia nel dominio del tempo. Per applicare il metodo nel dominio della frequenza ci si riferisce alla espressione (3), riportata anche in (ICNIRP,2003). Operativamente, una volta determinato lo spettro delle forme d’onda (fdo) si pesano le ampiezze delle componenti spettrali con i livelli di riferimento per il picco. Inoltre si considerano anche le rispettive fasi θk ma a queste si deve aggiungere un ulteriore contributo φk di cui sarà più chiaro il significato quando si descriveranno le modalità di applicazione del metodo WP nel dominio del tempo. (3) Per finalizzare la valutazione secondo l’espressione (3), è quindi necessario un ulteriore passaggio. Infatti, a partire dalle ampiezze e dalle fasi modificate come si è descritto, è necessario tornare nel dominio del tempo e determinare il massimo della fdo sintetizzata a partire dallo spettro elaborato. Anche in questo caso un indice WP complessivo superiore ad 1 comporta il superamento dei livelli di riferimento. I documenti ICNIRP non danno indicazioni sul passo temporale da utilizzare per ricostruire la fdo sintetizzata. Un riferimento a tal proposito è costituito dalla norma EN50444 (CENELEC,2008), in cui si prescrive di e cioè all’inverso di dieci volte la più alta frequenza che impiegare un passo temporale pari a compare nello spettro di partenza. Lo spirito di tale scelta è quello di utilizzare un passo temporale che garantisca di individuare il massimo assoluto delle fdo sintetizzate che rappresentano gli indici WP. Il metodo ‘weighted peak’ nel dominio del tempo Il calcolo degli indici WP può essere effettuato nel dominio del tempo. Per fare ciò si elaborano le fdo che rappresentano le componenti cartesiane del campo con dei filtri la cui risposta in ampiezza ha un andamento con la frequenza che ricalca quello dell’inverso dei livelli di riferimento. L’ICNIRP indica di realizzare tali filtri come serie di filtri del primo ordine, tollerando quindi che la risposta in ampiezza si discosti sensibilmente da quella lineare a tratti che caratterizza l’andamento dei livelli di riferimento (tale scostamento è pari a circa 3 dB presso i cambi di pendenza). Inoltre si tollera l’effetto della risposta in fase di tali filtri che è tutt’altro che piatta come si può notare in figura 1 (in (ICNIRP,2003) si prova a giustificare tale effetto limitandosi al solo polo a 800/820 Hz). A questo punto è possibile spiegare l’origine del termine φk in espressione (3), che è proprio lo sfasamento introdotto dal filtro analogico alla frequenza fk. 122 Figura 1 | Confronto inverso reference levels ICNIRP Figura 2 | Confronto risposte in ampiezza dei filtri IC2010 per i lavoratori con risposta del relativo filtro del pri- NIRP considerati nel seguito dell’articolo mo ordine Nota all’applicazione del metodo ‘weighted peak’ In generale il metodo WP può essere applicato nel dominio del tempo solo se si è in grado di realizzare, in hardware o in software, il filtro con le risposte in ampiezza ed in fase desiderate. In (ICNIRP,2003) si propongono due casi di cui solo uno fa riferimento ad un filtro realizzabile. È il caso del filtro passa alto (per il campo) del primo ordine con polo a 800 Hz (popolazione) o 820 Hz (lavoratori). L’altro caso invece fa riferimento ad un passa basso del primo ordine ‘ideale’, cioé con risposta in ampiezza con cambio di pendenza ‘a spigolo’ presso il polo e risposta in fase a gradino ampio 90 gradi. In tal caso l’unica applicazione possibile è quella nel dominio della frequenza. In (ICNIRP,2010) il metodo WP viene esteso indicando l’utilizzo di serie di filtri del primo ordine che rappresentano l’inverso dei livelli di riferimento su tutto l’intervallo di frequenze di applicazione. STRUMENTAZIONE DI MISURA E PROCEDURE DI ELABORAZIONE DATI Prima di passare alla trattazione dei casi studio è opportuno descrivere brevemente la strumentazione di misura utilizzata e gli strumenti software realizzati per effettuare le analisi dei dati. Per le misure di campo magnetico è stata utilizzata la sonda Narda ELT400 dotata di sensore isotropico con banda da pochi Hz fino a 400 kHz. Questo strumento, tramite le cosiddette uscite analogiche, rende disponibili delle fdo in tensione direttamente proporzionali alle componenti cartesiane del campo misurato. Tali fdo sono state acquisite e campionate mediante una scheda di acquisizione Agilent modello U2531A collegata con un personal computer. Le fdo acquisite sono state quindi elaborate con apposite applicazioni realizzate in linguaggio C++ o Python che implementano i vari metodi di verifica presi in considerazione. CASO STUDIO IN AMBITO INDUSTRIALE: SALDATRICI AD ARCO Il primo caso studio presentato si riferisce a misure effettuate presso una azienda siderurgica in cui si impiegano saldatrici ad arco. La presentazione di questo esempio e dei successivi non è mirata ad una vera e propria valutazione dell’esposizione del lavoratore, ma piuttosto al confronto dei metodi precedentemente descritti. Pertanto ci si riferirà a misure effettuate in un singolo punto e si approfondirà l’analisi delle fdo acquisite. Si rimanda a (Zoppetti 2012) per approfondimenti sugli effetti della effettiva distribuzione dell’induzione magnetica e dei relativi indici di esposizione nello spazio. Nel caso delle saldatrici ad arco, oltre alla normativa generica esistono una specifica norma di base, la EN50444 (CENELEC, 2008), ed una di prodotto, la EN50445 (CENELEC, 2008), riguardanti l’esposizione umana ai CEM. Ciò assume particolare rilevanza considerando che nella norma EN50499 (CENELEC, 2011) si indicano tutte le apparecchiature certificate secondo specifiche norme armonizzate come conformi a priori. Al fine di semplificare le analisi nel dominio della frequenza, la norma di prodotto prescrive di considerare solo le armoniche che superano il 3% della componente fondamentale. In questo paragrafo considereremo due fdo, corrispondenti a due modalità di utilizzo dello stesso apparato e confronteremo i risultati ottenuti nel dominio del tempo con quelli ottenuti nel dominio della frequenza, sia elaborando gli spettri completi, sia considerando solo le armoniche che superano il 3% della fondamentale. Le fdo misurate denominate fdo A e fdo B sono mostrate nelle figure 3 e 4; come si può notare la prima 123 è relativa ad un evento isolato, che dura circa 1 secondo mentre la seconda ad una lavorazione più lunga del tempo di osservazione del fenomeno. Entrambe le misure si riferiscono a punti posti in prossimità dei cavi, come prescritto nella norma EN50444 (CENELEC, 2008). Figura 3 | Componenti e modulo di fdo A nel dominio del tempo Figura 4 | Componenti e modulo di fdo B nel dominio del tempo In tabella 1 sono riportati i risultati delle analisi eseguite nel dominio del tempo che comprendono l’applicazione del metodo WP utilizzando filtri del primo ordine. In particolare si usano sia un filtro passa alto come prescritto in (ICNIRP,2003) sia un filtro completo che considera tutti i cambi di pendenza delle (ICNIRP,1998).1 Tabella 1 | Sintesi risultati analisi misure saldatrice nel dominio del tempo fdo A fdo B Brms [μT] 52.5 21.3 |B|max [μT] 408 60 WP2003 lavoratori (passa alto del primo ordine) 0.762 0.611 WP1998 lavoratori (cascata filtri primo ordine) 0.705 0.611 WP2010 lavoratori (cascata filtri primo ordine) 0.161 0.181 In tabella 2 sono invece riportati i risultati delle analisi eseguite nel dominio della frequenza. In questo caso, per ogni fdo si considera sia lo spettro completo, sia quello in cui sono state scartate tutte le armoniche inferiori al 3% di quella più ampia. Per quanto riguarda gli spettri completi si osserva come per fdo A il rapporto tra II1998 (in cui non si tiene conto delle fasi) e l’indice WP1998 (che si riferisce alla stessa pesatura delle ampiezze ma tiene conto anche delle fasi) è circa pari a 7. L’analogo rapporto per fdo B è invece pari a oltre 18. Ciò, oltre alle diverse caratteristiche del segnale è dovuto anche alla maggior risoluzione spettrale che caratterizza lo spettro della fdo B. Si osservi quanto gli indici WP calcolati con gli spettri ‘alleggeriti’ risultino meno cautelativi rispetto agli stessi indici riferiti agli spettri completi. Questi invece risultano ben allineati ai valori calcolati operando nel dominio del tempo. Tuttavia, non è semplice prevedere fino a che punto l’approccio suggerito dalla norma CENELEC porti a sottostimare gli indici di esposizione. Questo dipende infatti sia dall’andamento dello spettro della forma d’onda coinvolta, sia dagli effetti del filtraggio sulle fasi originali (figura 1). In tabella 2 si può notare come in generale gli indici che si riferiscono agli spettri ‘alleggeriti’ sono sempre marcatamente più bassi di quelli che si riferiscono agli spettri completi, tranne che nel caso della fdo A e dell’indice WP2010. 1 In realtà si trascura il cambio di pendenza a 65 kHz sia perché le fdo analizzate hanno spettri contenuti entro tale limite sia perché questo è l’indicazione che emerge in (ICNIRP1998) e in (ICNIRP2003) 124 Tabella 2 | Sintesi risultati analisi misure saldatrice nel dominio della frequenza fdo A Spettro completo Risoluzione spettrale [Hz] Brms [μT] fdo B 3% Spettro completo 52.3 21.3 0.5 52.5 |B(f)|max [μT] 0.33 21.2 19.5 f @|B(f)|max [Hz] 3% 3.25 11.0 299.7 II1998 4.991 0.736 12.367 0.491 WP2003 lavoratori (passa alto ideale) 0.796 0.281 0.611 0.153 WP2003 lavoratori (passa alto del primo ordine) 0.763 0.279 0.611 0.145 WP1998 lavoratori (cascata filtri primo ordine) 0.710 0.227 0.669 0.140 WP2010 lavoratori (cascata filtri primo ordine) 0.161 0.150 0.181 0.029 Questa osservazione offre lo spunto per una critica di fondo al criterio introdotto dal CENELEC. Infatti, l’aver fissato una soglia (arbitraria) in termini di ampiezza rapportata a quella della componente fondamentale del campo non tiene in alcun conto del fatto che i limiti ICNIRP variano con la frequenza. Non è detto, cioè, che una riga che conta per meno del 3% della fondamentale nello spettro del campo, continui a contare meno del 3% della fondamentale anche nello spettro dell’indice di esposizione. Altrettanto arbitrario - ma forse più sensato dal punto di vista protezionistico - sarebbe stato introdurre una soglia in termini di percentuale sul livello di riferimento ICNIRP, come peraltro accade nella norma CENELEC EN50500 (CENELEC,2008) che riguarda le esposizioni a bordo di materiale rotabile. AMBITO INDUSTRIALE: MACCHINE DA CUCIRE INDUSTRIALI Il secondo caso studio considerato è relativo all’esposizione ai campi generati dalle macchine da cucire operanti in una piccola impresa tessile. In questo caso si è verificato che la sorgente propriamente detta era il motore elettrico trifase che equipaggia la macchina, che in genere è installato subito sotto il piano di lavoro, poco più avanti rispetto alle ginocchia dell’operatore. In questa particolare circostanza la possibilità che tali apparati fossero usati da lavoratrici incinta ha fatto sì che si sia adottato un approccio cautelativo, considerando i limiti validi per la popolazione. In questo caso non c’è una norma tecnica specifica, pertanto oltre allo spettro completo (derivante da un’acquisizione di 50000 campioni con tempo di campionamento di 20 microsecondi, pari ad una durata di 1 secondo), al fine della riduzione del numero di armoniche degli spettri sono state considerate delle porzioni della forma d’onda originaria. Tali porzioni sono lunghe 40 ms e 20 ms (rispettivamente 2 ed 1 periodo a 50Hz) e sono centrate sull’istante in cui si verifica il massimo del modulo del campo. Nelle figure 5 e 6 sono rappresentate rispettivamente la forma d’onda originaria e quella lunga 40 ms. Figura 5 | Componenti e modulo di fdo nel dominio del Figura 6 | Componenti e modulo di fdo nel dominio del temtempo (1s di acquisizione) po (40 ms di acquisizione centrati sul massimo modulo) 125 I risultati delle analisi svolte sia nel dominio del tempo sia nel dominio della frequenza sono riassunti in tabella 3. Ancora una volta si può osservare come l’indice II1998 sia più cautelativo del corrispondente indice WP1998 che tiene in conto delle fasi e come ciò sia tanto più vero quanto più sono numerose le righe dello spettro che si elabora. Un fenomeno molto interessante è inoltre quello che si osserva per gli indici WP calcolati nel dominio della frequenza relativi allo spettro con risoluzione pari ad 1 Hz. Questi infatti, pur tenendo conto delle fasi, sono molto maggiori degli stessi indici calcolati nel dominio del tempo. Tabella 3 | Sintesi risultati analisi misure macchina da cucire nel dominio del tempo e della frequenza Dominio del tempo Risoluzione spettrale [Hz] Dominio della frequenza 1 25 50 1 (+ finestra) Bmax [μT] 174.6 - - - Brms [μT] 126.6 126.6 127.4 127.5 125.1 - 176.7 178.1 178.2 173.2 |B(f)|max [μT] f @|B(f)|max [Hz] - II1998 popolazione - 10.251 2.540 50 2.366 6.457 WP2003 popolazione (passa alto ideale) - 5.811 1.627 1.628 1.637 WP2003 popolazione (passa alto del primo ordine) 1.616 6.307 1.609 1.608 1.616 WP1998 popolazione (cascata filtri primo ordine) 1.658 6.384 1.655 1.655 1.660 WP2010 popolazione (cascata filtri primo ordine) 0.474 1.104 0.480 0.479 0.480 Questo fenomeno è ben descritto in letteratura e prende il nome di spectral leakage (Grandke1983). L’origine di questo fenomeno è da imputarsi al fatto che, quando si esegue la DFT di una fdo misurata in un certo periodo di tempo ∆T, in realtà stiamo considerando lo spettro di una fdo indefinita nel tempo ottenuta ripetendo indefinitamente la fdo osservata. Ora, il ∆T di 1 secondo della fdo originaria è un multiplo di 20 ms e quindi ci si sarebbe potuti aspettare che la fdo ripetuta indefinitamente non presentasse discontinuità. Per qualche motivo (ce ne possono essere molti ma non approfondiamo qui la questione) ciò non accade ed è questo ‘gradino’, che si manifesta una volta al secondo, che origina degli indici WP relativamente più alti rispetto a quelli determinati nel dominio del tempo. Quando si considerano solo 20 o 40 ms tali discontinuità non si manifestano e gli indici WP sono allineati con quelli calcolati nel dominio del tempo. Come ulteriore riprova di ciò, in tabella 3 si riportano anche i risultati di una fdo alla quale si è applicata nel dominio del tempo una opportuna ‘finestratura’. Tale operazione rende la fdo periodica con periodo pari ad 1 secondo, annullandone ‘dolcemente’ le componenti cartesiane, all’inizio ed alla fine del ∆T. Come si nota in tabella questa operazione è sufficiente a riportare gli indici WP in linea con quelli determinati nel dominio del tempo. Queste ultime considerazioni, nate come commento di un caso particolare, possono essere generalizzate dicendo che l’applicazione dell’approccio WP nel dominio del tempo è meno critica rispetto a quella nel dominio della frequenza che spesso richiede interventi correttivi mirati e specifici alla particolare situazione affrontata e che in ogni caso risulta più laboriosa. AMBITO SANITARIO: STIMOLAZIONE MAGNETICA TRANSCRANICA Un interessante caso riscontrato in ambito sanitario è quello degli apparati per stimolazione magnetica transcranica (SMT). Si tratta di un’apparecchiatura il cui funzionamento è basato sull’applicazione di intensi impulsi di campo magnetico rilasciati da un applicatore a bobina che viene posizionato dall’operatore (a volte tenendolo in mano, a volte mediante un supporto) in prossimità della testa del paziente. Le misure a cui si riferiscono le figure 7 e 8 e la tabella 4 sono state effettuate a soli 8 centimentri dall’applicatore ed evidenziano campi superiori al millitesla. In particolare in figura 8 si impiega il cosiddetto metodo della frequenza equivalente, definito in [7] e diffusamente spiegato in (Andreuccetti,2010). Tale metodo, applicabile a campi con caratteristiche impulsive, permette di determinare un indice, denominato qui RETT, ottenuto come rapporto tra l’ampiezza dell’impulso ed il limite ICNIRP per il picco ad una opportuna frequenza equivalente. Tale frequenza si determina come 1/2tp dove tp è la durata di un impulso 126 Figura 7 | Campo generato da apparati per SMT (domi- Figura 8| Applicazione del metodo RETT al campo genio del tempo) nerato da SMT rettangolare che ‘copre’ la fdo impulsiva. In figura si è determinato la frequenza equivalente basandosi sull’istante nel quale il campo supera la percentuale del massimo riportata in legenda. Tabella 4 | Sintesi risultati misure SMT nel dominio del tempo e della frequenza Dominio del tempo Dominio della frequenza Risoluzione spettrale [Hz] - 400 Bmax [μT] 1365.2 - Brms [μT] (*su 2.5 ms) 349.4 - |B(f)|max [μT] - 276.2 f @|B(f)|max [Hz] - 400 II1998 popolazione - 32.5 WP2003 lavoratori (passa alto ideale) - 21.6 WP2003 lavoratori (passa alto del primo ordine) 23.9 23.9 WP1998 lavoratori (cascata filtri primo ordine) 23.8 23.9 WP2010 lavoratori (cascata filtri primo ordine) 4.8 4.8 Come si può notare mentre l’inizio dell’impulso in corrispondenza del ripido fronte di salita è praticamente coincidente per tutte le percentuali adottate non così è per il più lento fronte di discesa e ciò introduce un grosso margine di discrezionalità nella scelta di tp, specialmente nel caso di fronti di salita/discesa relativamente lenti. Confrontando gli indici RETT riportati nella legenda di figura 8 con gli indici WP1998 di tabella 4 si può notare come si ottenga una buona corrispondenza considerando le frequenze equivalenti più basse. Come si può notare in tabella 4 c’è un’ottima corrispondenza tra indici calcolati nel dominio del tempo e della frequenza. Siamo infatti in condizioni ideali per l’applicazione delle procedure software essendo il fenomeno osservato ben definito nel tempo ed interamente rappresentato dalla fdo campionata cosicché i primi e gli ultimi campioni memorizzati corrispondono al solo rumore. DISCUSSIONE E CONCLUSIONI Il processo di sviluppo del Portale Agenti Fisici ha fornito l’occasione per affrontare varie situazioni di esposizione a campi di bassa frequenza in ambito occupazionale, in un contesto normativo assai articolato a causa delle sempre più numerose tecnologie ed applicazioni che impiegano frequenze sotto i 100 kHz. Gli esempi selezionati si sono prestati a discutere sia l’impatto dell’evoluzione normativa, sia alcune criticità in termini di applicabilità delle procedure definite nelle linee guida e nelle norme tecniche. Le misure sono state eseguite campionando e memorizzando su supporto informatico le tre componenti cartesiane del campo. Questo approccio non solo ha reso possibile l’applicazione di diversi metodi di verifica agli stessi dati ma è anche risultato particolarmente indicato anche ai fini di archiviazione (PAF) ad esempio per poter poter far fronte a evoluzioni della normativa o anche alla necessità di misurarsi con 127 standard inizialmente non previsti. Entrando nel merito dei risultati ottenuti è interessante osservare come, fissato l’andamento del limite con la frequenza, il metodo standard fornisca indici che sono tra le 5 e le 10 volte più grandi di quelli forniti dal metodo WP. In generale, si è visto che i metodi che operano nel dominio della frequenza sono soggetti alle problematiche associate al cosiddetto ‘spectral leakage’, per correggere il quale devono essere utilizzati specifici accorgimenti computazionali non sempre efficaci. L’applicazione del metodo ‘weighted peak’ nel dominio del tempo, pur non essendo esente da problemi (legati ad esempio all’implementazione dei filtri e alla gestione del loro transitorio), presenta in generale meno criticità sia rispetto agli altri metodi, sia rispetto allo stesso metodo WP se applicato nel dominio della frequenza. Nel caso delle saldatrici ad arco infine è stato evidenziato come le analisi eseguite secondo una specifica norma di prodotto possano potenzialmente fornire risultati non coerenti con l’impianto ICNIRP. Tale problema è discusso anche in (Andreuccetti, 2012) che tratta di misure effettuate a bordo di materiale rotabile ed in generale si può ripresentare laddove nella normativa tecnica si introducano dei criteri di semplificazione che non trovano riscontro nelle linee guida internazionali. BIBLIOGRAFIA 1. Andreuccetti, Bogi, Zoppetti, Procedura di verifica del rispetto dei livelli di riferimento dell’induzione magnetica in presenza di forme d’onda complesse con frequenze fino a 100 khz - parte I: aspetti generali Collana Technical, Scientific And Research Reports Vol.2 n.65-1 report n. CNR-IFAC-TR-02010 ISSN 2035-5831, febbraio 2010 (http://puma.isti.cnr.it/dfdownload.php?ident=/cnr.ifac.fi/2010IS-001) 2. Andreuccetti, Zoppetti, Pieri, Del Nord, Neri, Un caso di esposizione occupazionale al campo magnetico a bordo treno. Atti (su supporto elettronico) del Quinto Convegno Nazionale “Il controllo degli agenti fisici: ambiente, salute e qualità della vita” 6-7-8 giugno 2012, Novara, ISBN 978-88-7479-118-7. 3. CENELEC EN 50444, Norma di base per la valutazione dell’esposizione umana ai campi elettromagnetici prodotti dalle apparecchiature per la saldatura ad arco e processi affini. Prima edizione, maggio 2008. 4. CENELEC EN 50445, Norma per famiglia di prodotti per dimostrare la conformità delle apparecchiature per la saldatura a resistenza, saldatura ad arco e processi affini ai limiti di base relativi all’esposizione umana ai campi elettromagnetici (0 Hz – 300 GHz). Prima edizione, maggio 2008. 5. CENELEC EN 50499, Procedura per la valutazione dell’esposizione dei lavoratori ai campi elettromagnetici. Prima edizione, novembre 2011. 6. CENELEC EN 50500, Measurement procedures of magnetic field levels generated by electronic and electrical apparatus in the railway environment with respect to human exposure. July 2008. 7. Grandke Interpolation Algorithms for Discrete Fourier Transforms of Weighted Signals. IEEE Transaction on instrumentation and Measurements. Vol IM-32, N. 2 June 1983 8. ICNIRP Guidelines, Guidelines for limiting exposure to time-varying electric, magnetic, and electromagnetic fields (up to 300 GHz). Health Physics, Vol.74, N.4, April 1998, pp.494-522, April 1998. 9. ICNIRP Statement, Guidance on determining compliance of exposure to pulsed and complex nonsinusoidal waveforms below 100 kHz with ICNIRP guidelines. Health Physics, Vol.84, N.3, March 2003, pp.383-387, March 2003. 10. ICNIRP. Guidelines for limiting exposure to time-varying electric and magnetic fields (1 Hz to 100 kHz). Health Physics, Vol.99, N.6, pp.818-836, December 2010. 11. Zoppetti, Andreuccetti, Bogi, Pinto, Norme CENELEC relative all’esposizione umana ai campi magnetici generati da saldatrici ad arco: una ricognizione critica basata su interventi in situazioni reali. Atti (su supporto elettronico) del XXXV Congresso Nazionale AIRP di Radioprotezione, 17•19 ottobre 2012 Venezia ISBN 978-88-88648-35-4. 128 Articoli Intervento di mitigazione su una linea a 132 kV nella città di Pisa e riduzione dell’esposizione della popolazione Colonna N.(1), Licitra G.(2) (1) Dipartimento Provinciale ARPAT di Pisa, Via Vittorio Veneto 27, 56127 Pisa (PI), [email protected] (2) Dipartimento Provinciale ARPAT di Lucca, Via Vallisneri 6, 55100 Lucca (LU), [email protected] Figura 1 | Foto aerea della zona in esame. In rosso il tracciato della linea a 132 kV che attraversa il quartiere di Barbaricina a Pisa. PREMESSA Il quartiere di Barbaricina nel Comune di Pisa è attraversato dalle prime 12 campate di una linea a 132 kV (vedi Figura 1); numerose abitazioni e due scuole si trovano molto vicino all’elettrodotto, alla distanza dai conduttori allora consentita dal D.P.C.M. 23/04/1992, ora abrogato. Tale linea ha inoltre la particolarità di avere un significativo carico di corrente. L’Agenzia Regionale per la Protezione Ambientale della Toscana (ARPAT) fin dal 1997 esegue misure e monitoraggi dell’induzione magnetica a 50 Hz presso tali recettori. Nel 2003, su specifica richiesta del Comune di Pisa, ARPAT ha inoltre modellizzato in 3D l’impatto elettromagnetico della linea sul quartiere, evidenziando che, pur essendo rispettati i limiti di legge, tuttavia, i livelli presenti sia all’interno delle abitazioni, che delle due scuole non sono trascurabili. Nella situazione di maggiore esposizione con la massima mediana giornaliera della corrente si è raggiunto il valore di 3 μT. A seguito dello studio prodotto da ARPAT l’Amministrazione comunale ha promosso nel tempo varie iniziative volte a risolvere tale problema, non incontrando però la disponibilità del precedente gestore della linea ad avviare un confronto ed a cercare delle soluzioni. Dopo questa fase di stallo, nel 2009 la linea è diventata di proprietà di Terna S.p.A. e a fine 2010 sono iniziati i contatti del Comune di Pisa col nuovo gestore per trovare una soluzione al problema, sempre col supporto tecnico di ARPAT. Intanto sull’edificio scolastico il Comune ha deciso di intervenire sul recettore progettando la schermatura; per attenuare anche l’esposizione dei residenti del quartiere si è iniziato un percorso per intervenire sulla linea. OBIETTIVI Nel luglio 2011, su richiesta del Comune, ARPAT ha formulato una proposta tecnica di intervento di mitigazione da effettuarsi sulla linea elettrica, che riducesse significativamente i livelli di esposizione dei recettori presenti lungo il tracciato. Tale proposta consiste nell’ottimizzazione delle fasi per le tre campate in doppia terna (di lunghezza complessiva pari a 540 m) e sulla compattazione dei conduttori per le nove campate in terna singola (di lunghezza complessiva pari a 1600 m); non intervenendo,quindi, sulla modifica del tracciato, per contenere i costi di realizzazione. La proposta tecnica di ARPAT è stata ritenuta valida dal gestore ed è stata presa in esame dallo stesso, in primo luogo per valutarne la specifica fattibilità tecnica sulle campate in esame e, successivamente, per redigere un progetto esecutivo. Il gestore della linea elettrica ed il Comune di Pisa si sono accordati sul fatto che l’intervento di mitigazione dovesse essere a carico dell’Amministrazione. 129 MATERIALI E METODI STIMA DELL’ESPOSIZONE DELLA POPOLAZIONE Al fine di stimare il livello medio di esposizione a lungo termine all’induzione magnetica a 50 Hz della popolazione residente in prossimità dell’elettrodotto di Barbaricina, ARPAT ha acquisito negli anni, a partire dal 1999, i dati sulle correnti circolanti, misurate dal gestore (ogni quarto d’ora) all’estremo della linea. L’analisi statistica su base annua di tali valori di corrente ha evidenziato che i parametri: media, mediana, 5° e 95° percentile sono rimasti stabili nel tempo. Le variazioni della corrente media di anno in anno sono comprese entro il ±5%. Ciò è dovuto al fatto che il carico di corrente della linea, nell’assetto di rete tipico, è legato alla produzione di energia da parte di un impianto industriale a ciclo continuo. Per tale linea è stato inoltre riscontrato che la media e la mediana su base annua sono sovrapponibili entro il ±3%. Esaminando nel dettaglio la distribuzione temporale tipica della corrente durante l’arco delle 24 ore, si è ottenuto che per tale linea la corrente media nel periodo diurno (6:00 - 22:00) è del 5-6% superiore rispetto alla media nelle 24 ore e, quindi, la corrente media nel periodo notturno (22:00 - 6:00) è del 10-12% inferiore rispetto alla corrente media nelle 24 ore. Per la modellizzazione tridimensionale dell’impatto delle dodici campate che interessano il quartiere è stata utilizzata, come dato di input, la corrente media nel periodo 1999 - 2011. La scelta della media come parametro rappresentativo è in linea con i protocolli metodologici adottati negli studi epidemiologici di coorte sulla popolazione esposta all’induzione magnetica a 50 Hz, realizzati sia in Italia [2] che negli altri paesi. Per tali calcoli è stato utilizzato il software previsionale PLEIA-EMF ver. 1.6, realizzato per ARPAT dall’IFACCNR di Firenze [1]. Per ottenere una buona accuratezza dei risultati del calcolo ed un ottimo accordo con i valori di induzione magnetica misurati, sono stati effettuati numerosi sopralluoghi, in cui sono state misurate tutte le distanze e le altezze utili ai fini della modellizzazione. In un corridoio largo 70 m con al centro il tracciato della linea ARPAT ha individuato 104 abitazioni (numeri civici), disposte su varie altezze (in gran parte composte da piano terra e primo piano, ma anche con qualche secondo piano), per le quali è stato calcolato il livello medio dell’induzione magnetica al centro dell’abitazione ed agli estremi (punto più vicino alla linea e punto più lontano). Tali livelli sono stati poi confrontati con quelli attesi dopo la mitigazione della linea per stimarne la riduzione. TRATTO IN DOPPIA TERNA Per ottimizzare le fasi delle prime tre campate in doppia terna (ammazzettata sia all’estremo della linea che sul quarto sostegno, vedi Figura 2 a sinistra) occorre realizzare la disposizione antisimmetrica, con le fasi identiche disposte sulle mensole centrali dei sostegni. Tale disposizione, in questo caso specifico, si ottiene spostando sul quarto sostegno la fase “4” in basso e la fase “8” in alto e, sugli altri 3 sostegni, rimuovendo i raccordi orizzontali che collegano i conduttori con la stessa fase (sulle mensole alte e su quelle basse), lasciando inalterati i conduttori centrali (fase “12”) e collegando tra loro le altre fasi con nuovi raccordi in diagonale (vedi Figura 2 a destra). Figura 2 | Sostegni in doppia terna Sostegno in doppia terna sul quale avviene l’ammazzet- Sostegno in doppia terna sul quale avviene l’ammazzettamento, prima dell’intervento. tamento, dopo l’ottimizzazione delle fasi. 130 TRATTO IN TERNA SINGOLA Per il tratto in terna singola la compattazione dei conduttori si ottiene inserendo, in uno o due punti lungo la campata, tre compattatori in materiale composito, disposti a triangolo, che riducono la distanza reciproca dei conduttori da circa 6 m a soli 2 m (vedi Figura 3). Per le due campate con i conduttori disposti “a bandiera” tali compattatori possono essere inseriti verticalmente. Per agevolare l’installazione dei compattatori, su alcuni sostegni, si passerà dall’armamento dei conduttori in sospensione a quello in amarro, agganciando il conduttore più basso al fusto del sostegno. L’inserimento dei compattatori, inoltre, comporta di fatto anche un innalzamento da terra del baricentro dei conduttori. ARPAT, sempre mediante il codice di calcolo PLEIA-EMF ver 1.6, ha modellizzato preventivamente tali modifiche da apportare alla linea, stimando la riduzione attesa dei livelli presso i recettori più vicini al tracciato e fornendo, quindi, al Comune di Pisa tutte le informazioni necessarie per una corretta valutazione costi – benefici, per poi poter decidere sull’impegno di spesa da affrontare. Figura 3 | Linea a 132 kV in terna singola con i conduttori compattati. Esempi, su due campate, dell’inserimento dei compattatori a triangolo realizzato. RISULTATI I valori di induzione magnetica di seguito riportati corrispondono, in ogni punto, al livello medio di esposizione a lungo termine, calcolato con la corrente media nel periodo 1999 - 2011. TRATTO IN DOPPIA TERNA Le simulazioni, effettuate a varie altezze su una griglia di punti con passo di 0.5 m e sovrapposte alla Cartografia Tecnica Regionale in scala 1:2000, indicano che presso i recettori più vicini al tracciato nel tratto in doppia terna si ottiene, a parità di corrente circolante, una riduzione del 66% dei livelli di induzione magnetica. In tale tratto al piano terra dell’abitazione più vicina al tracciato si passa da un livello di induzione magnetica di 0.69 μT ad un livello di 0.22 μT; nell’abitazione al primo piano più vicina al tracciato si passa da un livello di induzione magnetica di 0.66 μT ad un livello di 0.20 μT (vedi Figura 4 alla pagina seguente). TRATTO IN TERNA SINGOLA Nel tratto in terna singola, a parità di corrente circolante, si ottiene una riduzione dei livelli che varia da un minimo del 25% ad un massimo del 55%, a seconda della posizione del recettore e della sua distanza dalla sorgente. I recettori più vicini ai compattatori installati risentono di una maggiore riduzione dei livelli, mentre quelli che si trovano in prossimità dei sostegni della linea risentono, a parità di distanza dalla sorgente, di una riduzione minore. Nel tratto in terna singola, infatti, l’inserimento dei compattatori disposti a triangolo comporta una deformazione delle curve isolivello dell’induzione magnetica che, invece, non avviene per l’ottimizzazione delle fasi per il tratto in doppia terna. In conduttori che, in presenza dei compattatori, in un punto si avvicinano significativamente tra loro, modificano l’andamento dei livelli di induzione magnetica all’interno della campata. 131 Figura 4 | mappatura dei livelli di induzione magnetica al primo piano, prima e dopo la mitigazione. Livelli di induzione magnetica nelle abitazioni vicine al tratto in doppia terna: a sinistra i livelli attuali e destra i livelli attesi dopo l’ottimizzazione delle fasi. Ad esempio nella campata, descritta nelle Figure 5 e 6, in cui saranno inseriti i compattatori disposti a triangolo, allo stato attuale, ad un’altezza da terra di 7.5 m (corrispondente al secondo piano) i livelli di induzione magnetica raggiungono il valore massimo di 2.2 μT e dentro le abitazioni il valore massimo di 1.5 μT. Tali valori dopo la compattazione dei conduttori si riducono a 1.1 μT all’esterno e a 0.9 μT dentro le abitazioni (vedi Tabella 1). Tabella 1 | Riduzione dei livelli di induzione magnetica al secondo piano. Intervalli di variazione (min e max) dei livelli di induzione magnetica all’interno degli edifici al secondo piano, allo stato attuale e dopo la compattazione dei conduttori. Edificio n. Livelli di induzione magnetica – B (μT) Riduzione percentuale dei livelli massimi (%) Prima della compattazione Dopo la compattazione 1 0.7 < B < 1.3 0.6 < B < 0.9 31 2 0.5 < B < 1.5 0.3 < B < 0.8 47 3 0.2 < B < 0.4 0.2 < B < 0.3 25 Sempre per la campata, descritta nelle Figure 5 e 6, allo stato attuale, ad un’altezza da terra di 4.5 m (corrispondente al primo piano) i livelli di induzione magnetica raggiungono il valore massimo di 1.4 μT all’esterno e il valore massimo di 1.1 μT dentro le abitazioni. Tali valori dopo la compattazione dei conduttori si riducono a 0.8 μT all’esterno e a 0.7 μT dentro le abitazioni. Nella campata, descritta nelle Figure 7 e 8 (alla pagina seguente), con conduttori disposti a “bandiera”, in cui saranno inseriti i compattatori disposti verticalmente, allo stato attuale, ad un’altezza da terra di 7.5 m (corrispondente al secondo piano) i livelli di induzione magnetica raggiungono il valore massimo di 3.1 μT e dentro le abitazioni il valore massimo di 1.9 μT. Tali valori dopo la compattazione dei conduttori si riducono a 1.0 μT all’esterno e a 0.8 μT dentro le abitazioni (vedi Tabella 2). 132 Figura 5 | Mappatura dei livelli di induzione magnetica al secondo piano, prima e dopo la mitigazione. Livelli di induzione magnetica nelle abitazioni vicine al tratto in terna singola: a sinistra i livelli attuali e a destra i livelli attesi dopo l’inserimento dei compattatori a centro campata. I numeri in blu indicano i 3 edifici con il secondo piano. Figura 6 | Mappatura dei livelli di induzione magnetica al primo piano, prima e dopo la mitigazione. Livelli di induzione magnetica nelle abitazioni vicine al tratto in terna singola: a sinistra i livelli attuali e a destra i livelli attesi dopo l’inserimento dei compattatori a centro campata. Tabella 2 | riduzione dei livelli di induzione magnetica al secondo piano Intervalli di variazione (min e max) dei livelli di induzione magnetica all’interno degli edifici al secondo piano, allo stato attuale e dopo la compattazione dei conduttori. Edificio n. Livelli di induzione magnetica – B (μT) Riduzione percentuale dei livelli massimi (%) Prima della compattazione Dopo la compattazione 4 0.3 < B < 0.9 0.2 < B < 0.6 33 5 0.5 < B < 1.6 0.3 < B < 0.7 55 6 0.5 < B < 1.9 0.3 < B < 0.8 55 133 Figura 7 | mappatura dei livelli di induzione magnetica al secondo piano, prima e dopo la mitigazione. Livelli di induzione magnetica nelle abitazioni vicine al tratto in terna singola a bandiera: a sinistra i livelli attuali e a destra i livelli attesi dopo l’inserimento in due punti dei compattatori disposti verticalmente. I numeri in blu indicano i 3 edifici con il secondo piano. Figura 8 | mappatura dei livelli di induzione magnetica al primo piano, prima e dopo la mitigazione. Livelli di induzione magnetica nelle abitazioni vicine al tratto in terna singola a bandiera: a sinistra i livelli attuali e a destra i livelli attesi dopo l’inserimento in due punti dei compattatori disposti verticalmente. 134 Per la stessa campata, allo stato attuale, ad un’altezza da terra di 4.5 m (corrispondente al primo piano) i livelli di induzione magnetica raggiungono il valore massimo di 1.8 μT e dentro le abitazioni il valore massimo di 1.3 μT. Tali valori dopo l’inserimento dei compattatori si riducono a 0.7 μT all’esterno e a 0.6 μT dentro le abitazioni (vedi Figura 8 alla pagina precedente). DISCUSSIONE E CONCLUSIONI L’intervento di mitigazione, proposto da ARPAT e realizzato da Terna Rete Italia S.p.A. sulle 12 campate dell’elettrodotto che attraversano il quartiere di Barbaricina a Pisa, ha comportato una significativa riduzione dei livelli di esposizione a lungo termine dei circa 350 residenti, presenti, lungo il tratto in esame di 2.1 km, in un corridoio di 70 m di larghezza con al centro il tracciato della linea. Al fine di verificare la riduzione dei livelli ottenuta, ARPAT ha effettuato una serie di monitoraggi in continua, prima e dopo l’intervento di mitigazione, nei 2 edifici scolastici e in 16 abitazioni rappresentative dei diversi tratti di linea. La percentuale di riduzione dei livelli di induzione magnetica è stata, quindi, calcolata a parità di corrente circolante, utilizzando per ogni sito la correlazione corrente-campo, ricavata sia prima, che dopo la modifica della linea. L’ottimizzazione delle fasi nel tratto in doppia terna ha determinato una riduzione percentuale dei livelli di induzione magnetica che va dal 40% al 70% al diminuire della distanza degli edifici dall’asse della linea. Tale riduzione è uniforme lungo la campata a parità di distanza dal tracciato. Con la compattazione dei conduttori si sono ottenute riduzioni percentuali che vanno dal 15% al 55% al diminuire della distanza tra la singola abitazione e i compattatori inseriti nella campata. Le abitazioni più vicine ai compattatori hanno beneficiato maggiormente della mitigazione. In particolare per le situazioni più critiche, caratterizzate da livelli medi di esposizione a lungo termine superiori a 1 μT, si è ottenuto una riduzione dei livelli di esposizione del 30%-40%. Non essendo tecnicamente possibile inserire i compattatori molto vicino ai sostegni della linea, i due edifici in corrispondenza dei sostegni esistenti hanno beneficiato di una minore riduzione dei livelli. Tale intervento nella città di Pisa, dimostra che è possibile ridurre significativamente i livelli di esposizione della popolazione, qualora si ritenga di intervenire, anche laddove sono rispettati i limiti di legge, puntando su soluzioni tecniche relativamente semplici da realizzare e che abbiano soprattutto costi sostenibili per il bilancio di un Comune. Indispensabile inoltre per raggiungere l’obiettivo la concreta disponibilità dei vari soggetti interessati ad interagire in maniera sinergica. L’intervento si è caratterizzato inoltre per un rapporto costo – benefici molto favorevole. Il caso studio illustrato mostra inoltre come sia fondamentale una corretta pianificazione urbanistica per la costruzione di nuovi edifici, per evitare che poi ci si trovi a dover cercare di intervenire, con vincoli tecnici ed economici, su una linea elettrica già esistente. Nei casi in cui comunque è necessario, o opportuno, intervenire è possibile evitare di ricondursi necessariamente all’interramento delle linee, essendo questo intervento tale da determinare difficoltà spesso insormontabili. BIBLIOGRAFIA 1. D. Andreuccetti, N. Zoppetti, Magnetic fields dispersed by high-voltage power lines: an advanced evaluation method based on 3d models of electrical lines and the territory. Radiation Protection Dosimetry, volume 111 N.4 2004 pp.343-347. 2. L. Fazzo, V. Tancioni, A.Polichetti, I.Iavarone, N. Vanacore, P. Papini, S. Farchi, C. Bruno, R. Pasetto, P. Borgia, P. Comba, Morbidity experience in populations residentially exposed to 50 Hz magnetic field. Methodology and preliminary findings of a cohort study. International Journal of Occupational and Environmental Health, volume 15 N.2 Apr/Jun 2009 pp.132-141. 135 Articoli Metodi e procedure per l’analisi di emissioni elettromagnetiche generate da impianti HVDC Borsero M.*, Bottauscio O.*, Chiampi M.+, Crotti G.*, Zilberti L.* *Istituto Nazionale di Ricerca Metrologica, Strada delle Cacce 91, 10135 Torino, [email protected] +Politecnico di Torino, Corso Duca degli Abruzzi 24, 10129 Torino RIASSUNTO Il lavoro illustra metodi e risultati relativi alla valutazione preventiva delle emissioni elettromagnetiche di un sistema di collegamento tra Italia e Francia in alta tensione continua (HVDC), costituito da due cavi interrati, posizionato prevalentemente al di sotto del manto autostradale. La valutazione è stata effettuata facendo uso sia di modelli numerici per la previsione del campo generato dai cavi interrati in relazione a diverse modalità di posa, sia di rilievi sperimentali delle emissioni in stazioni di conversione AC/DC. L’attività descritta è stata svolta nell’ambito del progetto TIPE “Transmission Infrastructure for Power Exchange”, finanziato dalla Regione Piemonte. INTRODUZIONE Le connessioni in alta tensione continua (high voltage direct current - HVDC), utilizzate nel passato quasi esclusivamente per connessioni sottomarine, si stanno diffondendo in alternativa alle tradizionali linee di trasmissione a tensione alternata. Queste connessioni presentano infatti significativi vantaggi sia nella trasmissione di elevate potenze su distanze considerevoli, per le minori perdite in linea che compensano i maggiori costi di installazione, sia nell’interconnessione di sistemi asincroni (generazione distribuita e offshore). La posa della linea in cavo interrato, eventualmente utilizzando infrastrutture pre-esistenti (autostrade e gallerie), fornisce inoltre una possibile soluzione a situazioni in cui il tracciato interessi aree a forte densità abitativa. In sede di progetto la scelta del tracciato del cavo non può prescindere da una valutazione preventiva delle emissioni elettromagnetiche in relazione all’esposizione umana, in tutti i tratti in cui si attraversino zone con infrastrutture pre-esistenti o aree abitative. Tale valutazione dovrebbe includere anche le stazioni di conversione AC/DC di interesse per la molteplicità di sorgenti di campo presenti e l’eventuale contiguità ad aree accessibili alla popolazione e/o ai lavoratori e per la sovrapposizione ad altre sorgenti di campo. La valutazione preventiva delle emissioni e la conseguente stima dell’esposizione possono essere effettuate numericamente, quando siano note tutte le caratteristiche della sorgente e dell’ambiente circostante. Laddove tutti questi elementi non siano noti a priori o l’ambiente sia particolarmente complesso per numero e caratteristiche delle sorgenti e delle apparecchiature circostanti, l’analisi si deve basare su rilievi sperimentali eseguiti su strutture analoghe. Nel seguito si illustrano metodologie e risultati ottenuti dall’Istituto Nazionale di Ricerca Metrologica (INRIM), in collaborazione con il Politecnico di Torino, nella valutazione preventiva delle emissioni elettromagnetiche prodotte da un sistema in alta tensione continua, costituito prevalentemente da cavi posizionati al di sotto del manto autostradale. L’attività è stata svolta nell’ambito del progetto TIPE Transmission Infrastructure for Power Exchange, che la Regione Piemonte ha finanziato nel triennio 2008-2010 in vista di un possibile futuro collegamento tra Italia e Francia. Dopo un richiamo delle caratteristiche progettuali delle linee considerate, vengono discusse le diverse procedure utilizzate ed i risultati ottenuti con riferimento alle emissioni delle linee in cavo e delle stazioni di conversione AC/DC. La valutazione è effettuata facendo uso sia di tecniche numeriche, per la previsione del campo generato dalle linee in relazione a diverse modalità di posa, sia di rilievi sperimentali, per la stima delle emissioni all’interno e in prossimità della stazioni di conversione. Lo studio è completato da misure ante-opera dei livelli di campo statico, a bassa frequenza e a radiofrequenza lungo il percorso ipotizzato per i cavi. 137 CARATTERISTICHE DELLE LINEE IN CAVO Il sistema di trasmissione considerato è formato da due linee (denominate A e B), che costituiscono un sistema bipolare HVDC, le cui caratteristiche sono riportate in Tabella 1. Le linee possono essere gestite indipendentemente, con l’unico vincolo che i flussi di potenza nelle due linee abbiano lo stesso verso. Ciascuna linea è alimentata da trasformatori, collegati in parallelo alla rete trifase, e da unità di conversione, ciascuna delle quali è composta da due convertitori AC/DC a 12 impulsi. Le due linee possono essere posate secondo tre configurazioni (corsia di emergenza, viadotto, galleria), a seconda delle caratteristiche del tratto autostradale, come descritto qui di seguito. #1 Posa lungo la corsia di emergenza: i conduttori sono disposti su un piano orizzontale al di sotto di una lastra ferromagnetica (lunghezza 70 cm, spessore 0.6 cm) inserita per motivi di protezione meccanica. I cavi sono posti a una profondità di 130 cm e spaziati di 21 cm. #2 Posa in viadotto: le due linee sono sovrapposte e appoggiate a sostegni metallici la cui presenza non altera in misura significativa la distribuzione del campo magnetico. Le profondità di posa sono rispettivamente di 70 cm (linea A) e di 120 cm (linea B). #3 Posa in galleria: i conduttori, disposti su un piano orizzontale all’interno di un tubo in cemento, sono distanziati di 40 cm. Per ciascuna posa si analizzano le disposizioni delle polarità dei conduttori illustrate in Tabella 2, a cui corrispondono diversi valori dei parametri elettrici (auto e mutue induttanze) della linea. Tabella 1 | Caratteristiche di una singola linea HVDC Tensione nominale Un 800 kV Potenza nominale Pn 500 MW Corrente d.c. nominale In 625 A Lunghezza nominale Ln 184 km Tabella 2 | Disposizione dei conduttori Disposizione 1 Pose #1 e #3 Disposizione 2 Pose #1 e #3 Disposizione 1 Posa #2 Disposizione 2 Posa #2 CAMPO MAGNETICO GENERATO DALLA LINEA IN CAVO Per valutare le emissioni generate dalle linee HVDC si è fatto uso del codice di calcolo Powerfield [1], sviluppato e commercializzato dall’INRIM. Tale codice, basato su un metodo ibrido FEM/BEM (elementi finiti ed elementi al contorno) e sulla tecnica delle “lastre sottili” [2, 3], fornisce la distribuzione del campo magnetico ambientale quando siano noti i dati di progetto delle linee (forma, dimensioni e posizione dei conduttori), le condizioni di alimentazione (componente continua e armoniche della corrente) e le caratteristiche di eventuali schermi magnetici. Il campo elettrico prodotto dalla linea nell’ambiente circostante è considerato trascurabile, in quanto la presenza di guaine metalliche connesse a terra lo confina all’interno del cavo stesso. ANALISI DEL CAMPO MAGNETICO STATICO Al fine di individuare la configurazione che, a parità di corrente in linea, produce i massimi livelli di campo, si è analizzata la distribuzione del campo magnetico a livello del terreno facendo riferimento ad una corrente unitaria. I valori ottenuti per le tre configurazioni di posa sono sintetizzati in Figura 1, nei casi in cui sono alimentate sia entrambe le linee, sia una sola di esse. I risultati mostrano che i livelli del campo per la posa #1 sono significativamente inferiori rispetto quelli delle pose in viadotti e gallerie, che rappresentano le condizioni più critiche. Si è inoltre verificato che la disposizione dei conduttori (+ - + -) genera livelli di campo superiori e dovrebbe pertanto essere sostituita dalla disposizione (+ - - +). A titolo di esempio, la Figura 2 mostra la distribuzione spaziale del campo magnetico statico relativo alla posa in galleria, nella disposizione (+ - + -), ipotizzando, per entrambe le linee, una corrente pari a quella nominale In (625 A). 138 Figura 1 | Distribuzione del campo magnetico lungo una linea orizzontale a livello del terreno, riferita ad una corrente di valore unitario. L’origine del sistema di riferimento è coincidente col centro del sistema di conduttori. a) Posa #1, b) Posa #2, c) Posa #3. Figura 2 | Distribuzione spaziale del campo magnetico statico per la posa in galleria (#3), con disposizione dei conduttori (+ - + -). Le linee isolivello del campo magnetico relative a 5 A/m, 10 A/m, 50 A/m e 100 A/m sono evidenziate. I valori di campo magnetico statico prodotti dalla componente DC della corrente di linea (il valore massimo è circa 57 A/m per In= 625 A) a livello del terreno risultano sempre notevolmente inferiori rispetto ai livelli di riferimento indicati dall’International Commission on Non-Ionising Radiation Protection (ICNIRP) per la popolazione (3.2·105 A/m) e per i lavoratori (1.6·106 A/m) rispettivamente [4]. CAMPO MAGNETICO VARIABILE NEL TEMPO Il sistema di conversione AC/DC genera componenti armoniche delle correnti che si propagano lungo la linea, dando origine a campi magnetici periodici [5]. Le componenti armoniche della corrente sono valutate attraverso un modello circuitale che include convertitori e linea. In Figura 3 sono riportate, per la posa #3, le distribuzioni lungo la linea delle armoniche prevalenti con tensioni AC nominali a inizio e fine linea, in assenza di sequenza inversa, e con una potenza trasmessa pari all’80% della potenza nominale. In queste condizioni, sono presenti solo le armoniche multiple di 12 rispetto alla frequenza fondamentale di 50 Hz del sistema AC; in particolare l’armonica 12esima (600 Hz) risulta essere quella prevalente. Figura 3 | Distribuzione dell’ampiezza delle componenti armoniche della corrente lungo la linea: a) disposizione dei conduttori (+ - + -), b) disposizione dei conduttori (+ - - +), c) solo una linea alimentata. 139 Si rileva inoltre un forte incremento dell’armonica 24esima (1200 Hz) nel caso della disposizione (+ - + -), a causa di fenomeni di risonanza, legati alle caratteristiche geometriche delle linee e alla disposizione dei conduttori. Per un’analisi sistematica delle diverse situazioni che si presentano si introduce la funzione Kp che rappresenta la distribuzione del campo magnetico generato da una corrente unitaria in direzione verticale. La funzione Kp, determinata con simulazioni numeriche, dipende dalla configurazione di posa e dalla disposizione dei conduttori. Al fine di verificare il rispetto dei livelli di riferimento per l’esposizione umana, deve essere soddisfatto il seguente criterio: (1) dove n è l’ordine dell’armonica di frequenza fn, In è il valore efficace della corrispondente corrente armonica e rappresenta il livello di riferimento indicato dall’ICNIRP [6], che nella gamma di frequenze da 400 Hz a 3 kHz è pari a 64000/fn A/m. Poiché il valore di Kp a livello del terreno è, per ogni configurazione analizzata, inferiore a 0.08 m-1, la condizione (1) risulta sempre ampiamente verificata per tutte le armoniche considerate. VALUTAZIONE DELLE EMISSIONI ELETTROMAGNETICHE DELLA STAZIONE DI CONVERSIONE AC/DC Il rilievo sperimentale delle emissioni elettromagnetiche generate da una sottostazione di conversione AC/ DC in alternativa all’uso di modelli numerici è dettato dalla complessità e dalla quantità delle sorgenti di campo, che riducono drasticamente i vantaggi di una simulazione numerica. Si è fatto quindi riferimento alla sottostazione di proprietà di Terna SpA, che alimenta la connessione HVDC sottomarina (500 MW, 400 kV) tra Italia e Grecia. L’interconnessione (di lunghezza pari a 167 km) è realizzata mediante un sistema monopolare, utilizzando il mare come conduttore di ritorno. Sul lato italiano la sottostazione è connessa alla linea sottomarina tramite un cavo interrato di lunghezza pari a 43 km, mentre sul lato greco la connessione con la sottostazione di conversione avviene mediante una linea aerea di lunghezza pari a 110 km [7]. L’analisi delle emissioni elettromagnetiche della sottostazione di conversione è stata condotta distinguendo i diversi contributi dovuti alle sorgenti presenti. Si sono misurati il campo magnetico statico e a bassa frequenza e il campo elettromagnetico a radiofrequenza, individuandone le principali sorgenti nelle aree accessibili esterne all’edificio dei convertitori, sintetizzate in Tabella 3. Le misure di campo magnetico statico sono state limitate al lato DC e lungo il percorso del cavo HVDC. Le misure a bassa frequenza e a radiofrequenza sono state effettuate sia sul lato AC, sia su quello DC. In tutte le misure la sonda di campo è stata posizionata a 1.1 m dal suolo. Tabella 3 | Sorgenti di campo e aree di misura Sorgenti Aree di misura A Sotto il conduttore DC in uscita dall’edificio dei convertitori, tra l’edificio e l’induttore di spianamento B A lato dell’induttore di spianamento C Discesa cavo verso l’interramento D Sopra il cavo interrato E Cavi di ritorno Campo magnetico statico Convertitori AC/DC Conduttore HVDC aereo Cavo interrato Conduttori di ritorno Campo magnetico a bassa frequenza Linee trifase HV AC 380 kV Trasformatori Convertitori AC/DC Campo elettromagnetico a radiofrequenza Convertitori AC/DC Conduttori aerei (effetto corona) F Sotto la linea 380 kV, ingresso edificio convertitori G Sotto la linea 380 kV, vicino ai filtri AC C Discesa cavo verso l’interramento B A lato dell’induttore di spianamento A Sotto il conduttore DC in uscita dall’edificio dei convertitori, tra l’edificio e l’induttore di spianamento B A lato dell’induttore di spianamento C Discesa cavo verso l’interramento F Sotto la linea 380 kV, ingresso edificio convertitori G Sotto la linea 380 kV, vicino ai filtri AC Durante la campagna di misure [8] la potenza P erogata dalla sottostazione è risultata variabile tra 200 MW e 500 MW (valore nominale PN della sottostazione). Il massimo carico è stato riscontrato nelle ore centrali 140 della giornata. I dati sono stati rilevati in stazione con i sistemi di misura presenti sull’impianto e sono stati forniti dal gestore i valori medi orari di carico. L’incertezza associata ai valori di carico indicati nel seguito è stata stimata pari al 15%, includendo nella valutazione il contributo legato alla variazione tra due valori medi orari consecutivi. Il corrispondente contributo di incertezza che può essere associato ai valori di induzione misurati è quindi pari al 7.5%. Le caratteristiche principali della strumentazione di misura utilizzata sono riassunte in Tabella 4. Tutti i misuratori sono stati preliminarmente tarati presso l’Istituto Nazionale di Ricerca Metrologica (INRIM) mediante i sistemi di generazione di campi magnetici ed elettromagnetici di riferimento [9, 10]. L’incertezza relativa (livello di fiducia 95%) associata ai valori di misura riscontrati, valutata tenendo conto dei contributi dovuti a taratura e condizioni di misura on-site (non uniformità spaziale della distribuzione di campo in relazione alle dimensioni della sonda utilizzata, incertezza di posizionamento, variabilità del carico,..) è risultata contenuta tra il 10% e il 20%. Tabella 4 | Strumentazione di misura Campo Misuratore/sonda Banda passante Intervallo di misura Campo magnetico statico NARDA – mod. ETM-1 Sonda Hall 3D DC 0.010 mT-2 T Campo magnetico a bassa frequenza 1) NARDA mod. EFA300 Sonda esterna 3D 100 mm2 2) NARDA mod. ELT 400 Sonda esterna 3D 100 mm2 Uscita analogica tre componenti di campo. Oscil. digitale Yokogawa (8 bit, 10 MS/s) 5 Hz-32 kHz 10 Hz-400 kHz 10 nT-32 mT 50 nT-80 mT Campo elettromagnetico a radiofrequenza Holaday mod. HI-4422 10 kHz-1GHz 1 V/m-300 V/m RISULTATI DI MISURA E CONFRONTO CON I LIVELLI DI RIFERIMENTO Campo magnetico statico I valori di induzione magnetica misurati sotto l’uscita del conduttore DC e in prossimità dell’induttore di spianamento variano da 0.13 a 0.21 mT, che corrispondono a 0.19 mT e 0.31 mT se riportati alla potenza nominale PN. Valori più elevati, fino a 0.65 mT (riferiti a PN) sono stati riscontrati in prossimità del cavo HVDC (area di misura C), posizionando la sonda all’interno della griglia di protezione. Campo magnetico variabile nel tempo Misure di campo magnetico variabile nel tempo sono state effettuate sul lato AC della stazione di conversione. La Figura 4 mostra gli andamenti temporali delle tre componenti di campo misurate sotto i conduttori di fase ad una distanza di circa 7.7 m dal trasformatore posto in ingresso alla stazione di conversione. La potenza P erogata durante la misura era pari a 43% PN. L’ampiezza (valori di picco) delle componenti armoniche (Figura 4b) mostra che, come atteso, sono presenti le sole componenti di 11esima e 13esima armonica (fisiologiche per la strategia di conversione adottata). Il campo magnetico risultante sotto i conduttori e in prossimità dei filtri AC è dello stesso ordine di grandezza. Misure di campo variabile nel tempo sono state effettuate anche sul lato DC della stazione, allo scopo di rilevare le sole componenti armoniche. La Figura 5a mostra le forme d’onda dell’induzione magnetica registrate posizionando la sonda di campo a 0.6 m di distanza dal cavo HVDC (area di misura C, a una distanza di circa 10 m dall’edificio dei convertitori), all’interno della griglia metallica di protezione intorno al percorso discendente del cavo. L’ampiezza delle componenti armoniche dell’induzione magnetica è riportata nel grafico in Figura 5b. Oltre all’armonica a 600 Hz e ai suoi multipli, si evidenziano una componente a 300 Hz (attribuibile a un imperfetto coordinamento dei due ponti AC/DC) e una a 100 Hz (presumibilmente dovuta a uno squilibrio delle tensioni AC). 141 a) b) Figura 4 | Induzione magnetica misurata sul lato AC: a) forma d’onda delle componenti di induzione; b) componenti armoniche. a) b) Figura 5 | Induzione magnetica misurata in prossimità del cavo DC (0.6 m): a) forme d’onda delle componenti di induzione; b) ampiezza delle componenti armoniche. Andamenti analoghi si riscontrano in prossimità dell’edificio dei convertitori (aree di misura A e B). Si sottolinea che l’ambiente in esame è caratterizzato dalla presenza di numerose sorgenti di campo magnetico e di parti metalliche conduttrici e/o ferromagnetiche che possono perturbare la distribuzione del campo. Infine, sorgenti di campo magnetico a 50 Hz (ad esempio linee HVAC e alimentazioni dei servizi ausiliari) giustificano la presenza, sul lato DC di campi magnetici a 50 Hz di ridotta intensità. I rilievi a radiofrequenza, effettuati sia sul lato AC in prossimità dell’edificio dei convertitori (area di misura F), sia sul lato DC in prossimità del cavo HVDC (aree di misure C e D), sono risultati sempre inferiori a 6 V/m. VALUTAZIONE DELL’ESPOSIZIONE E CONFORMITÀ AI LIVELLI DI RIFERIMENTO. Per quanto riguarda i livelli di campo magnetico statico, la conformità ai limiti ICNIRP [4] è stata riscontrata, in tutte le situazioni considerate, per diretto confronto con il limite indicato sia per i lavoratori (2 T), sia per la popolazione (400 mT), facendo riferimento ai valori di induzione riportati alla potenza nominale PN. Nel caso del campo magnetico a bassa frequenza, si è valutata la conformità alle prescrizioni valutando l’indice di esposizione T mediante la relazione che implementa l’approccio più cautelativo [6]: (2) dove B(fn) è l’ampiezza dell’armonica di ordine n e Blim(fn) è il corrispondente livello di riferimento. La 142 conformità ai limiti è stata largamente verificata (T<0.1) in tutte le zone esaminate. A causa delle armoniche generate dal convertitore, gli indici massimi si riscontrano sul lato DC, sebbene i valori di campo più elevati siano stati misurati sul lato AC. Il contributo delle componenti armoniche di ordine elevato, sebbene di entità limitata, è il più significativo in quanto i livelli di riferimento si riducono con la frequenza. Con riferimento infine al campo elettromagnetico RF, i valori rilevati presso l’edificio di conversione lato DC e AC (A, B, F e G) e in prossimità del cavo (C, E), sono risultati di alcune unità di volt al metro, inferiori di almeno un ordine di grandezza rispetto al livello di riferimento più restrittivo (61 V/m) nella gamma di frequenza di interesse. VALUTAZIONE ANTE OPERA DELL’AMBIENTE ELETTROMAGNETICO I livelli di campo pre-esistenti all’installazione sono stati stimati con una campagna di misure lungo l’autostrada A32 e nell’area circostante la stazione elettrica di Piossasco (TO), identificando nove postazioni ritenute rappresentative sia per il tracciato stradale (barriera tunnel, barriera autostradale, gallerie, piazzole di sosta), sia per la presenza di sorgenti di campo (linee di trazione ferroviaria, cabine, linee di trasmissione dell’energia elettrica, alimentazione dei servizi autostradali, trasmettitori per telefonia mobile, radio-TV e per comunicazioni di servizio). Le misure sono state eseguite con la strumentazione sopra descritta (Tabella 4) per il campo magnetico a bassa frequenza. Per i rilievi di campo statico si è fatto uso di un misuratore triassiale “flux-gate” mentre, per la gamma di frequenze compresa tra 10 kHz e 2.5 GHz, sono state effettuate anche misure a banda stretta mediante l’uso di un analizzatore di spettro e di antenne tarate di campo elettrico e magnetico. Il campo magnetico statico misurato è risultato compreso tra 35 μT e 60 μT. I valori di induzione per il campo magnetico BF sono risultati non superiori a qualche centinaio di nanotesla. I campi RF misurati, di cui un esempio è riportato in Figura 6, sono rappresentativi di livelli e frequenze riscontrabili in ambienti suburbani: i valori massimi, in relazione alla gamma di frequenza esplorata, sono risultati sempre inferiori a 1 V/m (telefonia mobile, comunicazioni di servizio). Per quanto riguarda infine i rilievi in prossimità della sottostazione elettrica di Piossasco, lungo il percorso ipotizzato per il cavo HVDC sino all’ingresso della stazione, si sono riscontrati i valori tipici attesi in prossimità di linee di trasmissione AC. Figura 6 | Intensità del campo elettrico e magnetico a radiofrequenza, rilevate nell’area di una piazzola autostradale. CONCLUSIONI La valutazione preventiva delle emissioni elettromagnetiche di un sistema di trasmissione in alta tensione continua (HVDC) ha richiesto la messa a punto di specifici strumenti numerici sia di carattere circuitale, per la previsione della distribuzione delle componenti armoniche della corrente lungo la linea, sia basati sulla soluzione di problemi di campo, per la successiva valutazione della distribuzione dell’induzione magnetica prodotta dalle condutture. Per quanto riguarda i rilievi sperimentali, è stata inoltre evidenziata l’importanza della scelta della strumentazione di misura e dell’adozione di specifiche procedure, in funzione delle tipologie di sorgenti e delle condizioni ambientali riscontrabili nelle diverse situazioni operative. L’applicazione degli strumenti sviluppati per lo studio dell’impatto elettromagnetico di una linea HVDC di collegamento tra Italia e Francia, effettuato nell’ambito del progetto TIPE finanziato dalla Regione Piemonte, ha evidenziato, con riferimento alle soluzioni di progetto considerato (posa del cavo prevalentemente al disotto del manto autostradale), la compatibilità delle emissioni con i limiti attualmente indicati per l’esposizione della popolazione. 143 RINGRAZIAMENTI Gli autori ringraziano il Prof. M. Pastorelli e l’Ing. E. Pons del Politecnico di Torino per gli indispensabili contributi forniti e la Terna S.p.A. per aver consentito l’effettuazione delle misure “in situ”. BIBLIOGRAFIA 1. Software PowerfieldTM, www.powerfield.it 2. O. Bottauscio, M. Chiampi, A. Manzin, “Numerical analysis of magnetic shielding efficiency of multilayered screens,” IEEE Trans. Mag., Vol. 40, pp. 726-729, 2004. 3. O. Bottauscio, M. Chiampi, A. Manzin, ”Nonlinear ferromagnetic shield modeling by the thin-shell approximation”, IEEE Trans. Mag., Vol. 42, pp. 3144-3146, 2006. 4. ICNIRP “Guidelines on Limits of Exposure to Static Magnetic Fields”, Health Physics 96 (4) (2009). 5. L. Zilberti, E. Pons, O. Bottauscio, M. Chiampi, M. Pastorelli. “Evaluation of the Electromagnetic Environment Around Underground HVDC Lines”, IEEE Trans. Power Delivery, Vol. 25, no. 4, pp. 30853094 (2010).[ 6. ICNIRP “Guidelines for limiting exposure to time-varying electric and magnetic fields (1 Hz to 100 kHz)”, Health Physics, vol. 99, n. 6, pp. 818-836 (2010). 7. A. Giorgi et al. ““The Italy-Greece HVDC link”, CIGRE Session, 2002, Paper 14-116. 8. Borsero, G. Crotti, G. Vizio, L. Zilberti, “Measurement of magnetic and electromagnetic fields in a HV AC/DC conversion substation”. Proceedings of the 16th International Symposium on High Voltage Engineering - ISH2009, pp. 368-373, Cape Town (South Africa), August 2009. 9. M. Borsero, G. Crotti, L. Anglesio, G. D’Amore., “Calibration and evaluation of uncertainty in the measurement of environmental electromagnetic fields”, Rad. Prot. Dos., Vol. 97, no. 4, pp. 363-368 (2001). 10. M. Chiampi, G. Crotti, D. Giordano: “Set up and characterization of a system for the generation of reference magnetic fields from 1 to 100 kHz”, IEEE Trans. IM, Vol. 564, no. 2, pp. 300-304 (2007). 144 Articoli Metodi di indagine per studi epidemiologici di coorte di popolazioni esposte a livelli elevati di campo magnetico a 50 Hz Fazzo L., Polichetti A., Comba P. Istituto Superiore di Sanità, viale Regina Elena 299, 00161 Roma, [email protected], [email protected], [email protected] RIASSUNTO In questo contributo si presentano le metodologie utilizzate in due indagini epidemiologiche su una coorte di soggetti esposti nelle proprie abitazioni a livelli di campo magnetico a 50 Hz al di sopra dei 0.4 microtesla, con l’obiettivo di applicarle in contesti analoghi per una successiva analisi “pooled” delle stime prodotte.. BACKGROUND Nel 2002 la IARC pubblica la Monografia sui campi elettrici e magnetici statici e a frequenze estremamente basse (ELF, comprendenti i 50/60 Hz) (IARC, 2002), in cui i campi magnetici ELF vengono classificati come “possibilmente cancerogeni per l’uomo” (Gruppo 2B), in base ai risultati di due analisi pooled dei dati di studi epidemiologici sulle leucemie infantili precedentemente pubblicati (Ahlbom et al, 2000; Greenland et al, 2000). L’evidenza dell’associazione tra i campi magnetici e la leucemia infantile viene definita “limitata” e “inadeguata” per tutte le altre patologie tumorali. L’anno successivo, l’International Commission on Non-Ionizing Radiation Protection in un proprio documento raccomanda che studi futuri abbiano un’alta qualità metodologica, siano su campioni sufficientemente numerosi e con un numero sufficiente di soggetti altamente esposti (ICNIRP, 2003). La necessità di concentrare gli studi su un numero sufficiente di soggetti esposti a livelli di campo magnetico al di sopra dei 0.3-0.4 microtesla era stata menzionata anche dagli autori delle analisi pooled su menzionate. Più recentemente, il WHO confermando la valutazione della IARC, evidenzia alcune questioni ancora aperte riguardo effetti sanitari diversi dalle patologie oncologiche, come i disordini neurodegenerativi, differenze nei tempi di rilascio della melatonina, alterazioni nel controllo autonomico del cuore e variazioni nel numero delle cellule Natural Killer. Tra i possibili effetti sanitari da indagare segnala con un livello di priorità medioalta i disordini neurodegenerativi, lo sviluppo dei sistemi immunitario ed ematologico, gli esiti riproduttivi e dello sviluppo. Il documento sottolinea la mancanza di un chiaro contrasto tra le categorie di alta e bassa esposizione come punto critico negli studi epidemiologici e la necessità di indagare i gruppi con più alti livelli di esposizione (WHO, 2007). Studi pubblicati successivamente ai documenti su citati, in particolare sulle leucemie infantili, disordini neurologici e risposte immunitarie, i cui risultati indicano possibili effetti avversi a livelli di esposizione simili a quelli suggeriti per le leucemie infantili, supportano l’esigenza di studiare popolazioni altamente esposte. Per una trattazione esaustiva, si riinvia al Comba e Fazzo (2009) nelle fonti bibliografiche ivi citate. Il concetto di studi su gruppi ad alto rischio non è nuovo nelle indagini di epidemiologia (Terracini e Segnan, 1977; Fazzo e Comba, 2004). Tipicamente la distribuzione dell’esposizione a sostanze inquinanti è descritta come log-normale, con un numero decrescente di soggetti esposti ai livelli più elevati. Questa distribuzione può quindi determinare una assenza di rischio o un rischio moderato per la maggior parte della popolazione, con una piccola proporzione di soggetti esposti ad elevati livelli. E’ in questa “coda” della distribuzione che occorre concentrare l’attività di indagine, al fine di poter individuare eventuali impatti sulla salute. Ciò può comportare un miglioramento delle conoscenze su effetti di esposizioni altrimenti non rilevabili, nonché all’individuazione delle priorità nei risanamenti ambientali, per il perseguimento di una equità ambientale. L’esposizione a campi magnetici nella popolazione generale si caratterizza per avere una piccola porzione di soggetti con valori elevati di campo magnetico che si discostano in modo marcato dal valore medio. Secondo il WHO la media geometrica della densità di flusso magnetico nelle abitazioni è tra 0.0025 e 0.07 microtesla in Europa e tra 0.055 e 0.11 negli Stati Uniti (WHO, 2007). Per l’Italia secondo Anversa et al. 145 (1995) e Petrini et al. (2001) la porzione della popolazione con una esposizione media nel tempo maggiore di 0.4 microtesla è tra 0.20 e 0.30%, tenendo conto solo dei campi magnetici generati dalle linee elettriche ad alta tensione. In questo quadro l’Istituto Superiore di Sanità ha messo a punto un protocollo di indagini da effettuare su popolazioni altamente esposte nelle proprie abitazioni, prevedendo indagini su diversi esiti sanitari (Vanacore et al, 2001). E’ stato così individuato un quartiere del comune di Roma, denominato Longarina, parte del quale costruito intorno al 1950 sotto un elettrodotto a 60 kV con valori di campo magnetico dell’ordine di unità di microtesla nelle abitazioni più vicine alla linea. Due studi epidemiologici sulla coorte di tutti i soggetti residenti dal 1954 al 2003, per un qualsiasi periodo di tempo, nel corridoio di 100 metri ai due lati dalla linea elettrica hanno evidenziato eccessi di mortalità e di morbosità per alcune cause specifiche nei soggetti esposti ai livelli più elevati di campo magnetico e residenti nell’area per un più lungo periodo di tempo (Fazzo et al, 2005; Fazzo et al, 2009). OBIETTIVI Sulla base dei risultati di queste indagini e tenendo conto di alcuni studi successivi ai documenti precedentemente citati, appare opportuno replicare il protocollo applicato negli studi epidemiologici nel Progetto su Longarina in aree con caratteristiche comparabili, in particolare con una quota consistente di soggetti esposti nelle proprie abitazioni a livelli di campo magnetico generati da linee elettriche che possono essere considerati “elevati” (compresi cioè tra qualche decimo e qualche unità di microtesla). L’obiettivo è quello di pervenire ad analisi pooled di dati prodotti con protocolli e metodi replicabili, in indagini epidemiologiche su popolazioni che esperiscono gli stessi livelli di esposizione. Le stime pooled, grazie al maggiore numero dei soggetti indagati, risulteranno avere una maggiore precisione, permettendo quindi una maggiore confidenza nella interpretazione dei risultati ottenuti. MATERIALI E METODI Qui di seguito vengono descritti i metodi utilizzati nel progetto Longarina, dei quali si propone la replicazione. Tipo di studio epidemiologico Lo studio epidemiologico è quello di coorte residenziale, al fine di indagare diverse patologie per le quali esistono in letteratura segnalazioni di possibile associazione con l’esposizione in studio. Individuazione dell’area in studio e valutazione dell’esposizione L’area di Longarina è stata individuata per la sua vicinanza ad una linea elettrica a 60 kV e perché ben delimitata rispetto al centro urbano prospiciente. La valutazione dell’esposizione ha permesso l’identificazione delle abitazioni interessate dai maggiori livelli di campo magnetico generato dalla linea, individuando quale area di interesse un corridoio di 100 metri da entrambi i lati della linea (fig.1). La valutazione dei livelli di campo magnetico generati dalla linea elettrica nelle abitazioni si è basata su un modello previsionale, corroborato da misurazioni spot e prolungate nel tempo negli edifici a diversa distanza dalla linea. Il modello ha permesso la ricostruzione dell’esposizione pregressa e attuale, basandosi sui dati storici di funzionamento della linea forniti dal gestore, le caratteristiche dell’impianto e la distanza degli edifici dalla linea. Per il Progetto Longarina è stato applicato il programma di calcolo «Campi» messo a punto dall’Istituto di fisica applicata «Nello Carrara» del Consiglio nazionale delle ricerche (Andreuccetti, 2002). Misurazioni spot e prolungate nel tempo nelle abitazioni, effettuate con rilevatori Emdex LightTM, sono state utilizzate per corroborare i risultati del modello. Una lettura dei dati delle misurazioni dirette eseguite in abitazioni a diversa distanza dalla linea elettrica ha indicato la linea elettrica quale maggiore sorgente di campo magnetico presente nelle abitazioni (fig.2). L’area in studio è stata suddivisa in sub-aree. L’area più vicina alla linea (abitazioni distanti meno di 28 metri dalla linea) è caratterizzata dai più elevati livelli di induzione magnetica, da un minimo di 0.19 μT (calcolato ai margini dell’area assumendo una corrente elettrica trasportata dalla linea pari a 167.5 A, valore medio dei dati storici di carico) fino ad un massimo misurato sperimentalmente di circa 3 μT. L’area più lontana dalla linea (abitazioni distanti più di 33 metri dalla linea) è invece caratterizzata da livelli di induzione magnetica generati dalla linea inferiori a 0.17μT (calcolati per una corrente elettrica di 167.5 A). 146 Figura 1 | area in studio Figura 2 | densità del flusso magnetico misurata in abitazioni a diversa distanza dalla linea elettrica STIMA DELLO STATO DI SALUTE DELLA POPOLAZIONE La coorte in studio è costituita dai soggetti che hanno risieduto nell’area dall’anno di costruzione delle prime abitazioni (1954) alla data di inizio dell’indagine (2003), per un qualsiasi periodo di tempo. Per la enumerazione della coorte nel caso del Progetto Longarina ci si è avvalsi della collaborazione con il comitato locale, le cui informazioni sono state corroborate dai dati dell’Anagrafe comunale. Negli studi di coorti residenziali è necessaria la collaborazione con le Anagrafi comunali per l’individuazione dei soggetti da indagare (Fazzo et al, 2010). Per la stima del possibile impatto dell’esposizione ai campi magnetici sullo stato di salute della popolazione si è proceduto prima all’analisi della mortalità e, successivamente, della morbosità. Per ogni soggetto della coorte è stato accertato lo stato in vita e per i deceduti, utilizzando il Registro Nominativo della Cause di Morte, la causa di decesso. Sono state indagate le cause per le quali in 147 letteratura erano presenti indicazioni di una possibile associazione con l’esposizione a campi magnetici e quelle indicative dello stato di salute generale della popolazione: in tabella 1 sono riportate le cause di decesso indagate e i rispettivi codici della IX revisione della Classificazione Internazionale delle malattie (International Classification Diseases: ICD). Tabella 1 | Cause di mortalità indagate Elenco cause ICD* 9 revisione TUTTE LE CAUSE 0001-9999 Tutti i tumori maligni 1400-2089 T.m. apparato digerente e peritoneo 1500-1599 T.m. stomaco 1510-1519 T.m. intestino e retto 1520-1548 T.m. intestino tenue 1520-1529 T.m. colon e sigma 1530-1539 T.m. pancreas 1570-1579 T.m. apparato respiratorio 1600-1659 T.m. trachea, bronchi e polmoni 1620-1629 T.m. organi genitourinari 1790-1899 T.m. vescica 1880-1889 T.m. rene e di altri e non specificati organi urinari 1890-1899 T.m. sistema nervoso centrale 1900-1929 T.m. encefalo 1910-1919 T.m. sistema linfoematopoietico 2000-2089 Leucemie 2040-2089 Leucemia linfoide 20740-2049 Leucemia mieloide 2050-2059 Diabete 2500-2509 AIDS 2790-2799 Malattie cardiovascolari 3900-4599 Cardiopatie ischemiche 4100-4149 Disturbi circolatori dell’encefalo 4300-4389 Malattie dell’apparato respiratorio 4600-5199 Bronchite, enfisema, asma 4900-4939 Malattie dell’apparato digerente 5200-5799 Cirrosi 5710-5719 Cirrosi epatica senza menzione di alcool 5715 Cause violente 8000-9999 * ICD: International Classification Diseases Sono stati quindi calcolati con metodo indiretto i Rapporti di Mortalità Standardizzati per età per ciascuna causa dell’intera coorte e per subfasce di esposizione, rispetto ai tassi della popolazione della Regione. Per la stima della morbosità sono state utilizzate le Schede di Dimissione Ospedaliera, disponibili presso l’Osservatorio della Regione. Attraverso un record linkare con il Sistema Informativo Ospedaliero sono stati identificati i ricoveri dei soggetti della coorte e identificate per ogni soggetto la prima ospedalizzazione con una delle cause di interesse riportata in diagnosi principale. In Tabella 2 sono descritte le patologie selezionate e i rispettivi codici della IX revisione della Classificazione Internazionale delle malattie (International Classification Diseases: ICD). Sono quindi stati calcolati i Rapporti di Morbosità Standardizzati per età rispetto alla popolazione della regione Lazio, per l’intera coorte e per le subfasce di esposizione. Per un maggiore approfondimento dei metodi utilizzati nelle diverse fasi dell’indagine si rimanda agli articoli pubblicati (Fazzo et al, 2005; Fazzo et al, 2009). 148 Tabella 2 | Patologie selezionate per l’analisi delle Schede di Dimissione Ospedaliera Patologia ICD* 9 revisione Tumori totali 140-239 Tumori maligni primitivi 140-208 (escl.196-198) T.m. app. digerente e peritoneo 150-159 T.m. del pancreas 157 T.m. dell’encefalo e di altre parti sist. nervoso 191-192 T.m. della gh. tiroidea e altre gh. endocrine e str. connesse 193-194 T.m. del sist. linfoematopoietico 200-208 Leucemie totali 204-208 Tumori maligni secondari e natura non specificata 196-198 e 239 Tumori benigni 210-229 T.b. app. digerente e peritoneo 211 T.b. del pancreas 211.6-211.7 T.b. dell’encefalo e di altre parti sistema nervoso 225 T.b. della ghiandola tiroidea e altre gh. endocrine e str. connesse 226-227 Disturbi della ghiandola tiroide 240-246 Malattie ematologiche 280-289 Malattie sistema nervoso e organi di senso 320-389 Malattie sistema circolatorio 390-459 Malattie ischemiche 410-414 Complicanze della gravidanza 630-639 Malattie perinatali 760-779 * ICD: International Classification Diseases Meta-analisi delle stime Le stime elaborate nelle singole aree, suddivise per livelli di esposizione, saranno utilizzate per il calcolo di stime pooled applicando un metodo ad effetti random, che non implica necessariamente una omogeneità tra le singole stime (Blettner et al, 1999). RISULTATI E DISCUSSIONE L’analisi di mortalità della coorte di Longarina ha evidenziato un eccesso di mortalità per tutti i tumori maligni, in particolare del pancreas; l’eccesso interessa maggiormente i soggetti che hanno risieduto per un periodo maggiore di 30 anni nell’intera area e in quelli che hanno risieduto nella subarea più vicina alla linea, per un qualsiasi periodo di tempo. Lo studio delle Schede di Dimissione Ospedaliera ha confermato i risultati emersi dallo studio precedente. Sono stati evidenziati eccessi dei tumori maligni primitivi, in particolare del pancreas, e dei tumori secondari; tra le patologie non oncologiche sono risultate in eccesso quelle ematologiche e ischemiche. Gli eccessi anche in questo caso sono risultati essere concentrati tra i soggetti con una permanenza nell’area di più di 30 anni e più vicino alla linea. Indicazioni di una alterazione del quadro ematologico nei soggetti con queste caratteristiche sono state evidenziate anche dall’indagine clinica, i cui risultati preliminari sono stati presentati al Convegno della Società Internazionale di Epidemiologia Ambientale del 2011 (Bruno et al, 2011). Entrambi gli studi epidemiologici di coorte, pur risentendo della bassa numerosità degli attesi che determina una bassa precisione delle stime, hanno evidenziato eccessi di alcune patologie nelle popolazioni maggiormente esposte. Tali risultati, se riconfermati da successivi studi, potrebbero fornire indicazioni di un impatto sulla salute dell’esposizione residenziale ad elevati livelli di campo magnetico a 50 Hz anche per patologie diverse dalla leucemia infantile. I risultati dell’analisi pooled grazie ad una maggiore potenza statistica, saranno caratterizzati da una maggiore precisione delle stime. 149 CONCLUSIONI I risultati degli studi epidemiologici sulla coorte di Longarina sono di particolare interesse in quanto relativi a patologie diverse dalla leucemia infantile e per le quali la IARC prima e il WHO dopo hanno definito l’evidenza di associazione con esposizione a campi magnetici a 50 Hz “inadeguata”. Future indagini in contesti simili, su popolazioni altamente esposte potranno fornire utili elementi per individuare le priorità di risanamento ambientale, in termini di sanità pubblica. Inoltre, un’analisi pooled delle stime, permetterebbe una maggiore confidenza nei risultati e un avanzamento nelle conoscenze del possibile impatto sulla salute dell’esposizione a campi magnetici a 50 Hz. BIBLIOGRAFIA 1. Ahlbom A, Day N, Feychting M, et al. 2000. A pooled analysis of magnetic fields and childhood leukemia. Br J Cancer ;83:692-8 2. Andreuccetti D. 2002. Campi. Un programma per il calcolo del campo elettrico e dell’induzione magnetica generati da linee elettriche. Versione 4.1. Istituto di Fisica Applicata «Nello Carrara», CNR, Firenze, maggio 2002. 3. Anversa A, Battisti S, Carreri V, et al. 1995.Power frequency fields, buildings and the general public: exposure levels and risk assessment. In: M.Maroni, editor. Proceedings of the International Conference “Healthy Buildings ‘95”. Milano;1995. p. 113-126. 4. Blettner, M., Sauerbrei, W., Schlehofer, B. et al.1999. Traditional Review, Meta-analyses and Pooled Analyses in Epidemiology. Int. J. Epidemiol.; 28:1-9 5. Bruno C, Vanacore N, Del Giudice I. et al. 2011. A cross sectional investigation on the health status in a population exposed to 50 Hz magnetic fields in a district of Rome: haematological and immunological parameters. 2011. 23th Congress of the International Society fro Environmental Epidemiology. 13-16th Sept. 2011. Abstract Book. 6. Comba P, Fazzo L. 2009. Health effects of magnetic fields generated from power lines: new clues for an old puzzle. Ann Ist Super Sanità; 45, (3): 233-237 7. Fazzo L, Comba P. 2004. Il ruolo dei gruppi ad alto rischio nello studio delle relazioni tra ambiente e salute. Ann Ist Super Sanità;40(4):417-426 8. Fazzo L, Grignoli M, Iavarone I, et al. 2005. Studio preliminare di mortalità per causa di una popolazione con esposizione residenziale a campi magnetici a 50 Hz, in un quartiere del comune di Roma. Epid Prev; 29:243-52. 9. Fazzo L, Tancioni V, Polichetti A, et al. 2009. Morbidity experience in populations residentially exposed to 50 Hz magnetic fields: methodology and preliminary findings of a cohort study. Int J Occup Environ Health; 15:133-42. 10. Fazzo L, Puglisi F, Pellegrino A. et al. 2010. Studio di mortalità e morbosità di una coorte di residenti in prossimità dell’area industriale di Milazzo, nel Comune di Pace del Mela (Messina). Epidemiol Prev; 34(3): 80-86 11. Greenland S, Sheppard AR, Kaune WT, et al. 2000. A pooled analysis of magnetic fields, wire codes, and childhood leukemia. Epidemiol;11:624-34 12. International Agency for Research on Cancer (IARC). 2002. IARC Monographs on the Evaluation of Carcinogenic Risks to Humans. Non-ionizing radiation, part 1: static and extremely low-frequency (ELF) electric and magnetic fields. IARC, Lyon, 2002. Vol. 80. 13. International Commission on Non-Ionizing Radiation Protection (ICNIRP). 2003. Exposure to Static and Low Frequency Electromagnetic Fields, Biological Effects and Health Consequences (0-100 kHz). ICNIRP, Munich, 2003. 14. Petrini C, Polichetti A, Vecchia P, Lagorio S. 2001. Assessment of exposure to 50 Hz magnetic fields from power lines in Italy. In: M. Hietanen, K. Jokela, J. Juutilainen, editors. Proceedings of EBEA 2001. 5th International Congress of the European BioEle 15. Terracini B, Segnan N. 1977. Identificazione dei gruppi ad alto rischio. Epidemiol Prev;0:17-23. 16. Vanacore N, Benedetti M, Conte D, et al.2001. Approccio metodologico multidisciplinare allo studio degli effetti neurocomportamentali associati all’esposizione ai campi magnetici a 50 Hz. Rapporti ISTISAN 04/01, http://www.iss.it/publ/rapp/2001/0401.pdf 17. World Health Organization (WHO). 2007. Extremely low frequency fields. Environmental Health Criteria, Vol. 238. WHO, Geneva, 2007. 150 Articoli Circuito d’Interconfronto ISPRA IC015 Misure selettive di campi elettromagnetici ad alta frequenza: Analisi dei fattori d’influenza attraverso l’elaborazione statistica dei risultati Ardoino L.1, Barbieri E.1, Barbizzi S.1, Anglesio L.2, d’Amore G.2, Silvi A.M.3 1 2 3 ISPRA - Servizio di Metrologia Ambientale – via Vitaliano Brancati, 48 – Roma Arpa Piemonte, Dipartimento Tematico Radiazioni, Via Jervis 30, Ivrea (TO) ARPA Toscana – Dip. provinciale di Pisa, via V. Veneto, 27 - Pisa RIASSUNTO L’interconfronto ISPRA IC015, organizzato da ISPRA in collaborazione con ARPA Piemonte, è stato pianificato e attuato cercando di coniugare i “dettami” degli Standard sui Proficiency testing e sugli interconfronti (ISO Guide 43-1, 17043, etc), con le problematiche e le specificità delle misure radioprotezionistiche di campi elettromagnetici. L’interconfronto ha riguardato la misura ambientale del campo elettromagnetico prodotto da sorgenti di trasmissioni e telecomunicazioni.e si è focalizzato, in particolare, sulla misura del campo elettrico associato a segnali GSM, UMTS e FM, in due distinti siti nella provincia di Torino; il protocollo richiedeva di fornire, come risultati, il valore dei singoli contributi in frequenza di alcune portanti delle tipologie suddette, anziché il valore del campo elettrico totale come normalmente viene fatto quando si effettuano misure in campo per verifiche di conformità. Ai partecipanti, 25 laboratori provinciali e un laboratorio straniero, è stato chiesto di utilizzare le proprie procedure consolidate fornendo il dettaglio delle impostazioni (parametri di acquisizione) degli strumenti. Questo lavoro consiste nell’analisi dei risultati delle misure del Circuito d’Interconfronto ISPRA IC015 combinati con le informazioni sui parametri di acquisizione utilizzati e forniti dai partecipanti. INTRODUZIONE Nell’ambito delle misure ambientali di campi elettromagnetici, le procedure di misura sono, ad oggi, abbastanza uniformate tramite le Norme Tecniche CEI 211-7 e CEI 211-10 App H per le trasmissioni radiotelevisive e le telecomunicazioni (alte frequenze) e la CEI 211-6 per la frequenza di rete (ELF). Come è noto, però, le procedure definite nelle suddette norme lasciano una certa arbitrarietà nell’impostazione dei parametri di misura, la cui scelta, alle alte frequenze soprattutto, è demandata a chi effettua la misura in campo e può influire sul risultato stesso della misura. Alle alte frequenze, infatti, il campo totale è generalmente dovuto all’insieme dei contributi del campo emesso da sorgenti diverse e associato a segnali (prevalentemente trasmissioni radiotelevisive e telecomunicazioni) che differiscono per frequenza, modulazione, ampiezza. Ne consegue che la sola misura del campo elettrico totale (banda larga), non fornisce adeguate informazioni sul sito e sulle sorgenti ed in particolare, qualora il sito risulti non conforme (superamento del livello di esposizione o del valore di attenzione secondo il DPCM 8/07/2003), si rende necessario il ricorso a misure selettive che permettano l’identificazione di tutti i singoli contributi, effettuate con una catena strumentale costituita da un’antenna selettiva, un cavo schermato lungo e un analizzatore di spettro. Queste misure presentano degli elementi di complessità legati principalmente alle impostazioni dei parametri di acquisizione (e alla taratura degli strumenti) e degli elementi di criticità dovuti, invece, soprattutto, alla variabilità temporale intrinseca ai segnali stessi e alla variabilità spaziale dei livelli di campo legata alle caratteristiche delle sorgenti. Le procedure definite nelle Norme Tecniche hanno solo parzialmente fornito una soluzione a questi elementi di complessità e criticità fornendo indicazioni sulla taratura degli strumenti, sul posizionamento dei sensori e sui tempi di acquisizione e sull’impostazione di alcuni parametri di acquisizione del segnale (modalità, span e filtri dell’analizzatore di spettro), lasciando però, come innanzi detto, una certa arbitrarietà nella 151 scelta di diversi fattori. Valutazioni specifiche dell’influenza di questi fattori sono state effettuate in laboratorio e in condizioni controllate (Barellini et al., 2006), ma raramente è stato possibile effettuare valutazioni statistiche a causa della mancanza di campioni adeguati. L’insieme dei risultati delle misure dei partecipanti all’interconfronto IC015 e delle informazioni sulle impostazioni usate da ciascuno, ha consentito di effettuare proprio questo tipo di valutazioni. Lo scopo di queste valutazioni è quello di verificare la significatività delle variazioni all’interno di un campione, dovute all’influenza di questi fattori. E’ chiaro comunque, in questo caso, che affinché il campione in questione fosse idoneo a un’analisi di questo tipo, è stato necessario tenere attentamente sotto controllo le criticità dovute alla variabilità temporale e spaziale dei segnali misurati, che è stato fatto attraverso un’accurata caratterizzazione del sito e la scelta di aree aventi un buon grado di omogeneità spaziale dei livelli di campo. L’obiettivo più ampio di questo lavoro è quello di stimolare la revisione delle attuali Norme Tecniche (2001) rendendole più adeguate ai segnali oggi maggiormente diffusi, tenendo conto dell’evoluzione della strumentazione disponibile, e introducendo indicazioni più specifiche sulle impostazioni dei parametri di misura in modo da rendere confrontabili i risultati delle stesse. MATERIALI E METODI Il lavoro si basa sull’analisi dei risultati delle misure del Circuito d’Interconfronto ISPRA IC015 combinati con le informazioni sui parametri di acquisizione utilizzati e forniti dai partecipanti congiuntamente ai risultati stessi. Organizzazione del circuito d’interconfronto ISPRA IC015 Lo svolgimento del Circuito d’Interconfronto ISPRA IC015 si è articolato nelle seguenti fasi: • raccolta delle adesioni sulla base di un protocollo preliminare contenente informazioni sul target (tipo di misura e grandezze), località e date; al contempo si sono raccolte informazioni sulle dotazioni strumentali e sulle procedure usate dai partecipanti; • caratterizzazione dei siti individuati (valutazione della tipologia di campi elettromagnetici presenti in termini di frequenza, modulazione, intensità, stabilità temporale) con particolare attenzione ai livelli di omogeneità spaziale; stesura e invio del protocollo definitivo, • raccolta e taratura degli strumenti, organizzazione del supporto logistico, invio degli schemi per posizioni e turni, • misure in campo dei partecipanti, • assegnazione di un codice identificativo ad ogni partecipante (i dati sono trattati in maniera assolutamente anonima), • raccolta dei risultati e analisi dei dati secondo le ISO Guide 43-1 e ISO 13528. L’interconfronto ha avuto come oggetto misure selettive di campo elettrico associato a segnali GSM, UMTS e FM ed è stato articolato in due giornate, in due siti distinti: in prossimità di una stazione radiobase Vodafone sul terrazzo di un parcheggio in area urbana e in prossimità di un complesso di trasmittenti radiotelevisive alla sommità di una collina residenziale. Come risultati sono stati richiesti i contributi di campo elettrico ad alcune frequenze nelle bande suddette. I campioni oggetto di questa analisi, pertanto, sono costituiti dai valori forniti dai partecipanti alla medesima frequenza, nell’ambito di una misura. Il valore assegnato per ciascuna frequenza/campione è stato determinato come valore di consenso ottenuto mediante la statistica robusta. Anche lo scarto tipo e l’incertezza attribuita al valore assegnato sono quelli ottenuti dalla statistica robusta (ISO 13528:2005 – Appendice C, Algoritmo A). All’interconfronto hanno partecipato 27 dipartimenti provinciali (incluso un partecipante estero); tutti hanno fornito i risultati e le informazioni richieste; due partecipanti, però, hanno contribuito ad una sola delle giornate di misura. Per la raccolta dei risultati delle misure è stato creato un format protetto in Excel in cui i partecipanti, oltre ai risultati, hanno riportato i dati di orario e posizione della misura, e, per ogni banda, le modalità e i parametri utilizzati per l’acquisizione del segnale. L’analisi dei risultati dei partecipanti, finalizzata alla valutazione dell’accettabilità attraverso l’assegnazione 152 di z-scores, è stata preceduta da un’accurata fase di verifica dell’attendibilità dei dati (procedura di Validazione) e seguita da un’approfondita fase di valutazioni del tipo suddetto. La validazione dei dati forniti dai partecipanti, necessaria per la scelta del valore di consenso come valore di riferimento, si è basata principalmente sul confronto qualitativo coi dati di caratterizzazione dei siti, sul confronto fra i dati dei diversi partecipanti che hanno effettuato le misure nello stesso punto e nello stesso intervallo di tempo e, per ogni partecipante, sul confronto coi dati preliminari riportati sulle schede cartacee e nelle relazioni tecniche. In questo tipo d’interconfronti la scelta del valore di consenso come valore assegnato è pressoché obbligata, a meno di non poter effettuare un elevato numero di misure e monitoraggi e di non intervenire sulla sorgente. Inoltre, un valore assegnato ottenuto con un metodo diverso dal valore di consenso richiederebbe la definizione di una procedura di misura che tenga conto della riferibilità metrologica e garantisca un’incertezza ampiamente inferiore a quella ammessa dalla Norma Tecnica. Ciò comporterebbe poi l’imposizione, ai partecipanti, degli stessi parametri di acquisizione utilizzati per la determinazione del valore assegnato, venendo meno, quindi, l’intento di lasciare che ognuno utilizzi le proprie procedure consolidate e obbligandoli a effettuare le misure con una procedura diversa da quella usata abitualmente. Nel sito 1, dalle misure di caratterizzazione sono state identificate due aree distinte per livelli di campo elettrico in cui sono stati definiti 15 punti di misura totali: 9 nell’area avente il livello più elevato (EBCCH_ ≈ 2 ± 0,25 V/m) e 6 in quella al livello più basso (EBCCH_Vodafone_952 ≈ 1,2 ± 0,08 V/m). Per la misura Vodafone_952 del segnale UMTS, invece, è stato necessario effettuare delle misure aggiuntive per determinare un fattore di pesatura da utilizzarsi per rendere i risultati delle misure dei partecipanti indipendenti dalla posizione. Nel sito 2, nonostante l’elevata omogeneità spaziale di E, sono stati fissati solo quattro punti di misura (effettuando quindi sette turni per un totale di circa 8 ore) data la necessità di impiegare i laboratori schermati per garantire l’immunità degli strumenti (normalmente garantita fino a 10 V/m), essendo, nei punti selezionati, E>12 V/m. Elaborazione dei dati Per entrambi i siti i dati sono stati organizzati e analizzati “per frequenza”. Sono stati elaborati prima i dati del sito 2 (emittenti FM) in quanto tutti i partecipanti hanno fornito il contributo di 7 specifiche frequenze richieste: sono stati creati 8 insiemi di dati (campioni) di ugual numero di elementi (le 7 frequenze richieste più un campione con la somma dei contributi come rappresentativo del contributo al campo totale della banda FM). Per quanto riguarda il sito 1, ove ogni partecipante ha effettuato due misure in due aree distinte (per livello di campo) e vi sono state misurate le due tipologie di segnale GSM e UMTS, l’elaborazione dei dati è stata più articolata e complessa. Inoltre, a differenza del sito 2, non sono stati richiesti i contributi a specifiche frequenze ma solo di identificare le portanti BCCH fra tutte le frequenze rilevate da ciascun partecipante. Per il segnale GSM, per ciascuna delle due misure, sono state identificate tutte le frequenze misurate da un numero congruo di partecipanti, fissato arbitrariamente in 8. Si sono ottenuti 14 campioni per ciascuna delle due misure. Le frequenze sono quasi tutte le stesse. Per l’elaborazione dei risultati delle misure del segnale UMTS è stato necessario “manipolare” ripetutamente i dati riportando, innanzitutto, tutti i risultati sotto forma di misura Channel Power (alcuni partecipanti avevano fornito la sola misura del canale_pilota e/o il valore estrapolato); si è dovuto poi effettuare un’operazione di “pesatura”, in funzione della posizione, dei risultati delle due misure ed infine la media delle due, ottenendo così un unico risultato per partecipante. Alle frequenze dell’UMTS, nell’area delle misure, il grado di uniformità spaziale del campo elettrico non era sufficiente a classificare direttamente i campioni in uno o due gruppi ed è stato necessario utilizzare il fattore di pesatura ottenuto dalle misure di caratterizzazione. L’elaborazione statistica dei dati è stata effettuata mediante l’utilizzo di Excel mentre, per alcuni test statistici è stato utilizzato il programma free Dataplot. In generale, ogni campione è stato sottoposto a: test di Huber e Normal Probability Plot, per individuare eventuali outliers e per verificare la normalità delle distribuzioni dei dati, requisito essenziale per i test effettuati, test statistici a una via (test della mediana e t-Student per dati disaccoppiato) e ANOVA a più fattori per la verifica delle ipotesi di influenza, applicazione del metodo della statistica robusta (Algoritmo A) per la determinazione del valore di consenso come media robusta con scarto tipo robusto e incertezza. Valutazione dell’accettabilità dei risultati prodotti fatta mediante z-scores. Il riepilogo dei test effettuati con i relativi risultati è riportato nelle seguenti Tabelle 1 (dati GSM) e 2 (dati FM). 153 Tabella 1 | Riepilogo dei Test effettuati su alcuni campioni della mis1 (segnale GSM) TCH SDCCH TCH BCCH BCCH BCCH SDCCH 947,2 948,2 948,8 951,4 952,0 952,8 953,8 Media robusta 1,90 1,68 1,77 0,15 2,13 0,14 2,25 Incertezza (95%) 0,28 0,30 0,22 0,02 0,22 0,02 0,16 21 21 21 17 25 19 21 Outliers (Test Huber) 0 0 2 1 1 0 5 (*) Distribuzione (NPPlot) Norm Norm Norm Norm Norm Norm Norm Differenza livelli E per Aree di misura (*2) signif signif signif signif signif signif signif Non signif Non signif Non signif - Non signif - Non signif Fattore: Modalità acquisizione, Avg vs MaxHold [t-Student] signif signif signif signif - Non signif Non signif Non signif Non signif - Fattore: filtro VBW (solo su dati Avg) [t-Student] signif Fattori: RBW, VBW e Modalità [ANOVA] signif signif signif Non signif Non signif Non signif Non applic Portanti Numero campioni totali Test Differenza livelli E fra turni (*3) (*2) (*3) la differenza riguarda solo l’AREA di mis1 (E=2,13 ± 0,22 V/m) confrontata con quella di mis2 (E=1,52 ± 0,18 V/m), non le posizioni all’interno della stessa area. la valutazione è fatta solo fra i turni “completi”, ovvero quelli in cui tutte le postazioni erano occupate. Tabella 2 | Riepilogo dei Test effettuati sui dati delle emittenti FM (sito2) Portanti 89,7 91,3 93,9 94,4 96,4 98,5 101 Media robusta 1,83 1,24 3,09 8,09 1,89 0,66 1,65 Incertezza (95%) 0,19 0,18 0,39 0,99 0,16 0,08 0,13 25 25 25 25 25 25 25 Numero campioni totali Test Outliers (Test Huber) 0 0 0 0 1 0 1 Distribuzione (NPPlot) Norm Norm Norm Norm Norm Norm Norm Differenza livelli E fra turni, (1-4 vs 5-7) [t-Student] Non Sign Non Sign Non Sign Non Sign Non Sign Non Sign Non Sign Fattore: antenna (isotropa vs monoassiale) [t-Student] Non Sign Non Sign Non Sign Non Sign Non Sign Non Sign Non Sign Fattore: Modalità acquisizione, Avg vs MaxHold [t-Student] Non applicabile Fattore: detector (RMS vs Peak) [t-Student] Non applicabile Prima di introdurre l’analisi vera e propria dei (possibili) fattori d’influenza, riportiamo alcuni grafici dei risultati dei partecipanti rapportati al valore di consenso e all’incertezza attribuitagli (statistica), che sono stati utilizzati per la determinazione degli z-scores e la valutazione dell’accettabilità. L’osservazione di questi grafici accompagnata ad un rapido commento può essere utili anche ai fini di una migliore comprensione della successiva analisi. 154 Figura 1 | Valori dei partecipanti, rapportati al valore di consenso, per alcune portanti GSM. I due grafici in alto mostrano le distribuzioni ordinate dei valori dei partecipanti rapportati al valore di consenso, per due portanti traffico della mis_1 (del settore corrispondente all’area di misura); i due grafici in basso, invece, mostrano le distribuzioni dei valori per le BCCH (952,0 MHz) di entrambe le misure. Gli asterischi che affiancano i codici in ascisse indicano i risultati ottenuti utilizzando la modalità Avg. La presenza di questi ultimi fortemente concentrata verso i valori più bassi nelle portanti TCH rappresenta, già di per sé, un’evidenza dell’influenza del fattore modalità (Avg/MaxHold) limitatamente, però, al caso di segnali altamente variabili, dato che tale “concentrazione” si annulla completamente nella misura delle portanti BCCH (molto più stabili). In realtà, osservando attentamente i dati delle portanti TCH, questa “sottoclasse” (tratteggio rosso) sembra essere affetta anche da un altro fattore di differenziazione che viene approfondito, per quanto possibile, in seno all’analisi successiva. Questa distribuzione dei valori si ritrova per tutte le portanti traffico di entrambe le misure. RISULTATI E CONCLUSIONI Misura del segnale GSM In un primo momento, il test t di Student è stato utilizzato sui risultati (un campione per ogni area) delle misure di caratterizzazione per verificare le ipotesi di: - esistenza di due aree distinte per livello di campo, - omogeneità dei valori all’interno di ciascuna area. Lo stesso criterio è stato poi applicato su diversi campioni di dati dei partecipanti confermando l’ipotesi delle due aree distinte, ciascuna con un buon livello di omogeneità spaziale. Il test è stato applicato su due campioni della medesima frequenza (per esempio, BCCH_mis1 e BCCH_mis2)1 fornendo un p<0,012, e poi su sottoclassi, create in base alle posizioni, all’interno di ciascuna campione (p>0,12, differenze non significative). La verifica delle due suddette ipotesi sui dati dei partecipanti si è resa necessaria a causa della dispersione 1 Il campione di dati alla FREQ_misX (X=1,2), rappresenta l’insieme dei risultati delle misure di tutti i partecipanti in tutti i punti dell’area X. 2 valore p. E’ una stima della probabilità che un certo risultato, o uno ancora più estremo, si sia verificato per caso, in caso di validità dell’ipotesi nulla. Un valore piccolo di p significa che l’ipotesi nulla è difficile da sostenere e che l’effetto misurato è significativo. Piccolo significa usualmente <0.05 o, con la condizione più restrittiva <0.01. 155 dei dati che presentavano (per ciascuna frequenza), una Deviazione Standard maggiore di quella del campione delle misure di caratterizzazione rendendo, quindi, meno evidente la differenza tra i due livelli medi. Considerato che il campione di dimensioni maggiori è costituito da 25 elementi, queste valutazioni hanno indotto a verificare che tali numerosità3 fossero sufficienti a rilevare le differenze in gioco. La verifica della numerosità dei campioni, fatta sotto le ipotesi di un livello di significatività di 0,05 per rilevare variazioni entro il 15-20% (potenza 0,8), ha confermato l’adeguatezza di parte dei campioni. In realtà, comunque, sono stati presi in considerazione solo alcuni dei campioni, scelti sulla base delle caratteristiche di stabilità/variabilità del segnale (TCH e BCCH appunto), del livello medio misurato e del numero di elementi del campione, corrispondente al fatto che tutti o quasi i partecipanti hanno fornito il dato a quella frequenza. In particolare sono stati considerati i campioni di quattro portanti traffico e della BCCH del settore che puntava sull’area delle misure e delle altre due BCCH. Il sommario dei test effettuati è riportato in Tabella 1. Come fattori4 d’influenza sono stati considerati, in generale: la tipologia dell’antenna (monoassiale o isotropa), la modalità di misura (Averaging vs MaxHold), i filtri RBW e VBW. Lo studio della dipendenza dal tipo di rivelatore (detector RMS o PEAK), è stato escluso in quanto è risultato strettamente collegato alla modalità di misura. Infatti i partecipanti hanno utilizzato per tutte le misure in modalità Avg il detector RMS, mentre per quelle in modalità MaxHold, il detector PEAK. Lo SPAN e lo sweep-time non sono stati considerati in quanto, a differenza dei filtri, la moltitudine di valori utilizzati dai partecipanti non avrebbe permesso di ricondurli a fattori a due o tre livelli. Tutti i fattori sono stati considerati variabili qualitative. Per quanto riguarda la tipologia dell’antenna, isotrope o monoassiali (fattore a due livelli), l’effetto è stato valutato attraverso il test t-Student su diversi campioni, risultando sempre non significativo (p>0,1). Lo stesso test è stato utilizzato per la valutazione del solo effetto della modalità di acquisizione, confermando le ipotesi formulate in base ai grafici precedentemente commentati: il “fattore modalità” influenza fortemente la misura delle TCH (p<0,01) ma non la misura delle BCCH (p>0,3). Per valutare, invece, l’effetto dei diversi filtri RBW e VBW in possibile relazione con la modalità di acquisizione, si è ricorsi ad una ANOVA a tre fattori. Anche qui i fattori di studio, filtri (fattori a tre livelli) e modalità, sono trattati come variabili qualitative e codificati, mentre la variabile risposta (il file dei risultati delle misure dei partecipanti), è una variabile quantitativa. Nelle Tabelle seguenti è mostrato il trattamento dei dati (“disegno dello studio”) e il risultato fornito dall’ANOVA (F test) nel caso in cui la variabile risposta è costituita dal campione della BCCH e nel caso di una delle TCH: nel primo caso non vi è alcuna evidenza di significatività, ma i filtri (Fattori 1 e 2) mostrano di avere un peso maggiore rispetto alla modalità (Fattore 3), mentre, nel secondo caso viene confermata la significatività della modalità. Tabella 3-4 | Tavole del disegno dello studio: a sinistra la codifica delle variabili (fattori di studio), a destra la distribuzione dei livelli. RBW codifica RBW VBW 30 kHz 100 kHz 300 kHz 1 2 3 Livelli Fattori RBW VBW Avg/MaxH 30 kHz 100 kHz 3000 kHz 1 2 3 4 codifica VBW 1 2 4 2 20 19 20 Avg/MaxHold Avg MaxHold 3 2 - 1 2 4 - 2 codifica Avg/MH 3 Si è utilizzato la relazione approssimata con , corrispondente a un errore del tipo I del 5% e , corrispondente ad una sensibilità dell’80%. A seconda dei valori di σ e Δ (cioè dei campioni) si ottengono N tra 15 e 22. 4 Fattore: variabile utilizzata per differenziare un gruppo della popolazione (o del campione) da un altro Livello: uno dei possibili valori (o stati, o determinazioni) che il fattore può assumere Variabile Risposta: variabile quantitativa oggetto dello studio. 156 Tabella 5 | Risultati dell’ANOVA per due variabili risposta: una misura BCCH e una delle TCH. ANOVA Table BCCH 952 MHz Source DF Total (corrected) 23 Factor 1 Factor 2 Factor 3 Estimation Factor 1 Factor 2 Factor 3 F Statistic F CDF 2 3,0102 92,55% 2 2,5409 89,33% Signif 1 0,7163 59,15% Level-ID NI Mean Effect SD(Effect) 1 2 2,80999 0,78874 0,40964 2 20 1,8875 -0,13374 0,05523 3 2 2,57 0,54875 0,40964 1 3 2,56 0,53875 0,32678 2 19 1,87842 -0,14282 0,06336 4 2 2,57 0,54875 0,40964 1 4 1,7875 -0,23374 0,27618 2 20 2,068 0,04675 0,05523 F Statistic F CDF Signif ANOVA Table TCH 947,2 MHz Source DF Total (corrected) 20 Factor 1 2 1,3592 71,33% Factor 2 2 1,5061 74,65% Factor 3 1 8,7153 99,01% ** NI Mean Effect SD(Effect) Estimation Factor 1 Factor 2 Factor 3 Level-ID 1 2 2,39999 0,67333 0,62502 2 17 1,74705 0,02039 0,09836 3 2 0,88 -0,84666 0,62502 1 3 2,35 0,62333 0,49672 2 16 1,71562 -0,01104 0,11336 4 2 0,88 -0,84666 0,62502 1 4 0,4925 -1,23416 0,41805 2 17 2,01705 0,29039 0,09836 Misura del segnale UMTS L’esistenza di un unico campione di dati, dovuto all’operazione di pesatura e media delle due misure, non ha consentito alcun tipo di analisi. La presenza di solo quattro elementi con impostazioni diverse (modalità) rende il campione “fortemente sbilanciato” nell’unico fattore d’influenza individuabile. Misura del segnale FM A parte i test finalizzati a verificare l’omogeneità spaziale e la stabilità del segnale della sorgente, non è stato possibile effettuare test per valutare l’influenza dei parametri in quanto quasi tutti i partecipanti utilizzano le stesse impostazioni. In generale, i risultati delle valutazioni e dei test effettuati sui dati dell’IC015 hanno prevedibilmente confermato l’influenza di alcuni fattori limitatamente ad alcuni casi, confermando, quindi, solo in parte, i risultati ottenuti in condizioni controllate e ribadendo la necessità di fornire, a livello di norme tecniche, indicazioni più specifiche. RINGRAZIAMENTI Gli autori desiderano ringraziare lo staff tecnico del Dipartimento Tematico Radiazioni (Ivrea) di Arpa Piemonte per il considerevole contributo dato alla realizzazione di questo lavoro e, più in generale, alla buona riuscita del Circuito d’Interconfronto, per l’accurata caratterizzazione dei siti, per il supporto logistico 157 durante le giornate di misura, per la taratura degli strumenti e per i suggerimenti all’analisi e alla stesura di questo lavoro. Si ringrazia in particolare: Sara Adda, Mauro Mantovan, Massimiliano Polesel, Stefano Trinchero, Alberto Benedetto, Massimiliano Alviano, Giuseppe Tagliaro. BIBLIOGRAFIA 1. Barellini A, Bogi L, Licitra G, Silvi AM, “Dipendenza delle misure di segnali GSM dai parametri d’impostazione dell’Analizzatore di Spettro Digitale”, Atti del Terzo Convegno Nazionale ‘Controllo ambientale degli agenti fisici: dal monitoraggio alle azioni di risanamento e bonifica’, Biella, 7-9 giugno 2006. 2. Norma Italiana CEI 211-7 “Guida per la misura e per la valutazione dei campi elettromagnetici nell’intervallo di frequenza 10 kHz - 300 Ghz, con riferimento all’esposizione umana”, 2001. 3. Norma Italiana CEI 211-10;V1 “Guida alla realizzazione di una Stazione Radio Base per rispettare i limiti di esposizione ai campi elettromagnetici in alta frequenza Appendice H: Metodologie di misura per segnali UMTS”, 2004. 4. ISO/IEC Guide 43-1 Proficiency testing by interlaboratory comparison – Part 1: Development and operation of proficiency testing schemes. 5. ISO 13528:2005(E): “Statistical methods for use in proficiency testing by interlaboratory comparisons”. 6. ISO/IEC 17043:2010: “Conformity assessment -- General requirements for proficiency testing” 7. Orazio Rossi “Metodi statistici multivariati per l’analisi di dati ecologici ed ambientali”. (2009) Uni.Nova Editore. 158 Articoli Misure mediante dosimetria a polisolfone per la quantificazione dell’esposizione individuale alla radiazione solare ultravioletta Casale1 G. R., Siani1 A. M., Modesti1 S., Diémoz2 H., Agnesod2 G., Colosimo3 A. Sapienza Università di Roma, Dipartimento di Fisica, Piazzale Aldo Moro 5, 00185 Roma, giuseppe. [email protected] 2 Arpa Valle d’Aosta, Loc. Grande Charrière 44, 11020 Saint-Christophe (AO) [email protected] 3 Sapienza Università di Roma, Dipartimento di Scienze Anatomiche, Istologiche, Medico Legali e dell’Apparato Locomotore (SAIMLAL) Piazzale Aldo Moro 5, 00185 Roma [email protected] 1 RIASSUNTO Vengono presentati sinteticamente alcuni risultati di ricerche condotte a partire dal 2005 dal gruppo di ricerca di Sapienza Università di Roma ed Arpa Valle d’Aosta sulla quantificazione dell’esposizione personale alla radiazione solare ultravioletta mediante dosimetria a polisolfone. Dai nostri risultati si conclude che la dosimetria a polisolfone, combinata all’utilizzo dell’indice ultravioletto UVI, può fornire un valido aiuto per una valutazione più realistica del rischio da esposizione solare. INTRODUZIONE La radiazione solare ultravioletta (RSUV) ha profondamente influenzato l’evoluzione della vita sulla Terra. I cambiamenti nello stile di vita verificatisi nell’ultimo secolo ed il massiccio aumento dei flussi migratori tra nord e sud del mondo hanno prodotto importanti variazioni dell’esposizione alla RSUV di alcune categorie di persone rispetto al passato Oltre a ciò, l’aumento di temperatura attribuito ai cambiamenti climatici potrebbe indurre le popolazioni che vivono alle medie latitudini a spendere più tempo all’aperto e quindi al sole (Diffey, 2004). Le aree del corpo maggiormente esposte alla RSUV sono la pelle e l’occhio. Per la pelle, l’effetto deterministico più noto, risultante da un’eccessiva esposizione, è l’insorgenza di eritemi soprattutto nei fototipi chiari (Lucas et al., 2006). Esistono numerosi altri effetti a carico della pelle, spesso di natura stocastica e su scale temporali diverse, fra cui alcune neoplasie. Esse comprendono il melanoma cutaneo maligno (CMM) e altri tipi di cancri della pelle non melanomi (NMSC), fra cui i carcinomi a cellule squamose (SCC), che contribuiscono per circa il 20%, ed il carcinoma a cellule basali (BCC), per il restante 80%. Nel 2006 il WHO (World Health Organization) ha pubblicato una stima di 56.000 morti all’anno in tutto il mondo dovuti all’esposizione solare ultravioletta, con 100.000 nuovi casi all’anno (Lucas et al., 2006). Per l’Italia si stimano circa 7000 nuovi casi all’anno (www.epicentro.iss.it). Nel 2009 l’Agenzia Internazionale per la Ricerca sul Cancro (IARC) ha riconfermato la radiazione solare nel gruppo 1, “carcinogeno per l’uomo” (El Ghisassi et al., 2009). Recentemente la IARC ha pubblicato un rapporto aggiornato sulla carcinogenesi da radiazione UV solare ed artificiale (IARC, 2012) ed una serie di nuovi studi sono stati realizzati per l’esposizione a carico dell’occhio (Gao et al., 2012). Un effetto positivo noto dell’esposizione alla RSUV è l’innesco di processi che portano alla produzione di vitamina D, essenziale per fissare il calcio nelle ossa (Grant and Holick, 2005). La carenza di vitamina D viene sempre più spesso considerata un co-fattore importante anche per numerose patologie di organi interni. In alcuni studi si parla addirittura di carenza di vitamina D epidemica (Willis et al., 2012) anche se non mancano, in proposito, le controversie (Gilaberte et al., 2011). Gli strumenti di misura della RSUV (da terra o da satellite) forniscono informazioni sulla quantità di radiazione che raggiunge una superficie unitaria orizzontale nell’unità di tempo (irradianza) e, trattando opportunamente tale dato mediante la conoscenza dello spettro d’azione eritemale, si giunge alla formulazione dell’UVI (Ultra Violet Index) (WHO, 2002), comunemente usato come indicatore di rischio dell’esposizione ed adottato da alcune agenzie di servizio anche in Italia (vedi, ad esempio, www.arpa. 159 vda.it). Tuttavia, la complessità dei fattori ambientali che determinano l’UVI, accoppiata alla difficoltà di modellare la geometria, la postura e le attitudini degli esseri umani, rendono necessaria la messa a punto di metodi e di misure finalizzati alla quantificazione dell’esposizione personale, che costituisce il punto di partenza per ogni considerazione ulteriore sugli effetti biologici della RSUV. Gran parte degli studi di esposizione personale su gruppi di individui è stata condotta in Australia, dove la comunità scientifica da tempo si interessa degli effetti dannosi della RSUV (Parisi et al, 2000; Down and Parisi, 2008), ma in anche in Italia è stata di recente sollecitata più attenzione all’argomento da parte della comunità scientifica (www. uv-index.it). Il presente lavoro intende fornire una descrizione dell’impiego di una tecnica nota dalla fine degli anni ‘70 del secolo scorso e che tuttora costituisce il riferimento principale per la dosimetria personale UV. Essa è basata sul polisolfone (PS), un polimero con risposta spettrale simile a quella eritemale e quella della vitamina D, le cui caratteristiche di assorbimento nell’UV cambiano in seguito all’esposizione solare (Diffey, 1989). Gli autori illustrano il proprio contributo all’utilizzo e all’affinamento della dosimetria PS, mostrandone i principali limiti e vantaggi attraverso alcuni risultati di campagne di dosimetria condotte con gruppi di volontari sul territorio italiano a partire dal 2005. E’ da notare che alcuni degli autori hanno partecipato alla valutazione del prototipo di un dosimetro elettronico di nuova generazione (Seckmeyer et al., 2012). MATERIALI E METODI I dosimetri PS sono dei sensori chimici basati su speciali pellicole le cui proprietà strutturali si modificano quando irraggiati con fotoni UV. La variazione di assorbanza del polimero tra prima e dopo l’esposizione viene misurata in laboratorio a 330 nm (∆A330). Essa può essere utilizzata per stimare la dose di radiazione UV assorbita dal dosimetro in quanto esiste una relazione monotona fra la dose UV e ∆A330 (Diffey, 1989). Se collocati in specifiche parti del corpo, i dosimetri PS possono essere quindi rappresentativi dell’esposizione personale. I dosimetri, a causa della discrepanza tra la loro risposta e quella eritemale o della vitamina D, necessitano di calibrazione con uno strumento di riferimento in grado di misurare l’irradianza biologicamente efficace. La calibrazione deve essere eseguita in situ, nelle stesse condizioni di angolo zenitale solare (SZA) e di contenuto colonnare di ozono (O3) a cui si trovano i soggetti esposti. Per realizzarla, un numero appropriato di dosimetri (tra 10 e 20) viene posizionato sul piano orizzontale (lastra nera visibile nella fig.1) ed esposto alla radiazione solare all’inizio della calibrazione. I dosimetri vengono successivamente prelevati ad intervalli di tempo opportunamente scelti. Ad ogni intervallo di tempo è associata una dose ambientale pesata con uno spettro di efficacia biologica e misurata da uno strumento ben calibrato (in fig.1 lo spettrofotometro solare in bianco). La curva di calibrazione si ottiene attraverso una relazione tra la dose ambientale e la variazione di assorbanza e che ha la forma funzionale di un polinomio di terzo grado con un coefficiente moltiplicativo c che dipende dallo spessore del dosimetro e dalle condizioni ambientali locali, principalmente SZA ed O3. Figura 1 | Esempio di calibrazione con lo spettrofotometro Brewer (Sapienza Università di Roma – Dipartimento di Fisica) 160 Figura 2 | Esempio di curva di taratura ottenuta presso il Dipartimento di Fisica di Sapienza il 27 maggio 2011 Nel caso della curva di calibrazione mostrata in fig.2 il coefficiente c ottenuto con il metodo dei minimi quadrati è pari a (1.15±0.01) kJ m-2, con un coefficiente di determinazione pari a 0.996. La curva di calibrazione può, in casi particolari, essere stimata anche attraverso valori teorici, una volta noti l’intervallo di angoli zenitali durante il periodo di studio e il contenuto totale di ozono. Un contributo alla comprensione della curva di calibrazione è stato dato dagli autori (Casale et al., 2006). Contemporaneamente alla calibrazione, i dosimetri posti su parti del corpo di individui prescelti per lo studio (che seguono le normali abitudini di lavoro o svago) vengono esposti alla RSUV. Dalla curva di calibrazione è possibile valutare la dose assorbita dai dosimetri e quindi associare tale dose a quella ricevuta dalla parte del corpo vicina al dosimetro. Alcune cautele vanno adottate nella trasferibilità della calibrazione a dosimetri quasi verticali, come dimostrato dagli autori (Casale et al., 2012). Il rapporto di esposizione ER (Exposure Ratio) è un parametro adimensionale definito come rapporto tra la dose quantificata attraverso un dosimetro e la corrispondente dose ambientale misurata da uno strumento (ovvero la massima disponibile). ER è stato adottato dagli autori per sintetizzare i risultati delle misure sul campo, in quanto fornisce la percentuale della dose ambientale intercettata da una determinata zona del corpo. Occorre tenere conto del fatto che l’incertezza associata ai valori di ER è stimabile intorno al 20% e mostra buon accordo con altre tecniche dosimetriche (Casale et al., 2011). La stima del 20% si ottiene applicando la teoria della propagazione degli errori al rapporto che definisce ER e si trova che esso è determinato in larga parte dall’incertezza associata al radiometro ambientale ed a quella dello spettrometro di laboratorio con cui si eseguono le misure di assorbanza. Ad aumentare l’incertezza su ER possono contribuire, sebbene in misura minore, altri fattori di difficile quantificazione, come ad esempio il corretto posizionamento di un dosimetro sul corpo di un individuo per tutta la durata dell’esposizione. ER è meno dipendente dalle condizioni ambientali rispetto alle dosi assolute ma è fortemente correlato alle abitudini ed alla postura degli individui, risultando quindi molto utile per paragonare fra loro condizioni e periodi di esposizione differenti (Godar, 2005). In letteratura, si riscontra che in media l’esposizione del corpo alla radiazione UV è inferiore al 100% e varia fra il 5 e il 15% della corrispondente dose ambientale, con l’eccezione dei lavoratori all’aperto per i quali ER può raggiungere il 20-30% (Lucas, 2010). Tuttavia, in casi con elevata albedo nell’UV (ad esempio neve) è da attendersi che tale valore possa essere facilmente superato. RISULTATI Campagne di misura Nella tab.1 è riportata la tipologia di volontari (colonna 1: Gruppo) selezionati per le campagne di esposizione: bagnanti (Siani et al., 2009), viticoltori (Siani et al., 2011), sciatori (Siani et al., 2008) ed alunni di una scuola superiore (durante l’ora di educazione fisica). Per alcuni dati l’elaborazione e l’interpretazione sono tuttora in corso. Si tratta di gruppi di persone prescelte per il tipo di attività svolta durante il lavoro o il tempo libero al sole. La colonna 2 riporta la data degli esperimenti, alcuni dei quali si sono svolti su più giorni. In tal caso, i dati sono opportunamente mediati ed aggregati. La colonna 3 (Sito) indica le coordinate geografiche 161 (latitudine e longitudine) dei siti prescelti per le campagne e l’altitudine. Viene anche riportata la tipologia del sito ai fini di una corretta interpretazione delle misure in relazione ai parametri ambientali. Fregene è un sito marino sulla costa laziale a 50 chilometri da Roma; Siena si riferisce all’azienda vitivinicola Agricola S. Felice nei pressi di Castlenuovo Berardenga (SI); Les Suches e Plateau Rosà sono stazioni sciistiche (la seconda anche estiva) della Valle d’Aosta, rispettivamente sul confine francese e svizzero; per Roma ci si riferisce all’Istituto Tecnico Aeronautico De Pinedo nella zona sud della città. Tabella 1 | Elenco degli esperimenti con volontari (Gruppo) con indicazione della data della campagna di misura e del sito (I=inverno, P=primavera, E=estate, A=autunno) Gruppo Data (gg/mm/aaaa) Sito (lat, lon, alt) - tipologia Bagnanti P 27/05/2005 Fregene (41.8°N, 12.2°E, 0 m) - marino Viticoltori P 20-22/04/2005 Siena (43.3°N, 11.3°E, 300 m) - rurale Viticoltori E 12-13/07/2005 Siena (43.3°N, 11.3°E, 300 m) - rurale Viticoltori A 11-12/10/2005 Siena (43.3°N, 11.3°E, 300 m) - rurale Sciatori P 30/03-04/04/2006 Les Suches (45.7°N, 6.6°E, 2100 m) - alpino Sciatori I 29-30/01/2007 Les Suches (45.7°N, 6.6°E, 2100 m) - alpino Sciatori E 12/07/2011 Plateau Rosà (45.9°N, 7.7°E, 3488 m) -alpino Alunni P1 26-27/05/2011 Roma (41.9°N, 12.5°E, 70 m) - urbano Alunni P2 21/03/2012 Roma (41.9°N, 12.5°E, 70 m) - urbano Protocollo Per ogni studio è stato definito e seguito un protocollo per la raccolta dei dati e delle informazioni aggiuntive, così da garantire la ripetibilità dell’esperimento. All’inizio di ogni campagna di misura, sono stati registrati età, sesso e fototipo di ciascuno dei partecipanti (secondo la classificazione di Fitzpatrick et al., 1974, sulla base dell’osservazione del colore degli occhi, della pelle e dei capelli) e sono state poste domande per evidenziare specifiche problematiche (ad esempio sulla capacità di abbronzarsi o di scottarsi e sull’utilizzo abituale di crema protettiva). Al fine di valutare oggettivamente eventuali variazioni del colore della pelle dei volontari in seguito al’esposizione, è stata inserita nel protocollo l’esecuzione di misure di riflettanza della cute mediante lo spettrofotocolorimetro Minolta CM2600d-Minolta, Osaka, Japan (si veda ad esempio Siani et al., 2008). Si tratta di uno strumento in grado di fornire lo spettro di riflessione della pelle tra 400 e 700 nm, da cui ottenere informazioni aggregate mediante i parametri colorimetrici L*a*b* (Siani et al., 2008; Siani et al., 2009; Siani et al., 2011). Queste misure, presentate in lavori specifici, non fanno però parte della presente rassegna, che vuole invece evidenziare esclusivamente i risultati dosimetrici. Ai partecipanti, inoltre, è stato fornito un questionario da compilare durante l’esposizione con domande relative alle posture, alle soste in luoghi chiusi e all’uso della crema protettiva durante l’esposizione (nel caso dei viticoltori e degli alunni il questionario è stato compilato dai ricercatori stessi sulla base delle informazioni ricevute e del controllo visivo). I volontari hanno indossato un dosimetro nella posizione indicata dalla colonna 2 della tab.2, come mostrato in fig.3. La scelta della parte di corpo è derivata dal fatto che essa fosse la più rappresentativa della zona esposta per le categorie scelte per lo studio. Per ogni campagna di misura, è stata ottenuta una curva di calibrazione contemporaneamente all’esposizione dei volontari, da cui è stato possibile valutare la dose personale e quindi ricavare ER. Figura 3 | Posizione dei dosimetri durante le campagne di esposizione descritte in tab.1 e tab.2. Da sinistra a destra: bagnanti, viticoltori, sciatori ed alunni. 162 Analisi statistica I valori di ER non seguono una distribuzione normale e sono stati quindi descritti attraverso la mediana, il valore minimo e il valore massimo (colonna 3 della tab.2). Per ogni esposizione, è stato riportato il valore massimo di UVI raggiunto e determinato dal radiometro utilizzato per la calibrazione. Poiché molti esperimenti si sono svolti in condizioni di cielo sereno a cavallo del mezzogiorno locale, il valore di UVI max riportato in tab.2 corrisponde al massimo UVI del giorno. Per le campagne su più giorni, si è riportato il massimo assoluto del periodo. Tabella 2 | Rapporto di esposizione (ER) in relazione alla posizione del dosimetro PS. Per ogni esperimento sono riportati il massimo indice UV raggiunto (UVI max) e il tempo necessario al danno eritemale per un’esposizione di 1SED (1 SED= 100 Jm-2), assumendo UVI max costante, sia su una superficie orizzontale (tery_amb) sia sulla parte del corpo esposta (tery_pers) tery_amb (min) tery_pers (min) Gruppo Posizione dosimetro PS Mediana ER (%) [min,max] UVI max Bagnanti P petto 19 [9, 42] 7.7 8.7 45.6 Viticoltori P nuca; braccio 72 [53, 87]; 44 [30, 60] 6.1 10.9 24.8 Viticoltori E nuca; braccio 50 [36, 77]; 29 [19, 43] 8.7 7.7 26.4 Viticoltori A nuca; braccio 100 [72, 120]; 67 [42, 89] 2.8 23.8 35.5 Sciatori P fronte 102 [46, 172] 7.5 8.9 8.7 Sciatori I fronte 60 [29, 146] 2.0 33.3 55.6 Sciatori E fronte 66 [56, 86] 12.0 5.6 8.4 Alunni P1 fronte 22 [3, 72] 8.3 8.0 36.5 Alunni P2 fronte 12 [4, 49] 4.3 15.5 129.2 DISCUSSIONE A seconda delle esigenze, le campagne si sono svolte coprendo un ampio intervallo di valori UVI, fino a raggiungere il massimo di 12.0 a Plateau Rosà nel luglio 2011 al mezzogiorno locale. Tale valore costituisce un massimo di riferimento per il valore di radiazione UV in Europa alla superficie. I dati di ER, sebbene la loro incertezza del 20% vada considerata con attenzione in quanto influenzata da fattori non direttamente controllabili dai ricercatori (come il corretto mantenimento del dosimetro in posizione ed il suo utilizzo da parte del volontario), confermano una notevole variabilità. Essa è principalmente dovuta al tipo di postura ed alle attività personali, come si vede dalla forte separazione tra il minimo e il massimo. I valori più elevati tendono ad essere raggiunti quando il dosimetro è in posizione quasi orizzontale (ad esempio in corrispondenza della nuca dei viticoltori) ma anche quando il dosimetro, pur essendo in posizione quasi verticale, si trova in un ambiente con elevata albedo e conseguente radiazione riflessa dal suolo. La tab.2 mostra infatti come in alcuni casi (ad esempio gli sciatori) si possa anche superare il 100% della dose disponibile su un piano orizzontale. E’ richiesta però particolare attenzione nel trasferire la calibrazione orizzontale ai dosimetri collocati ad angoli di incidenza della radiazione solare maggiori di 70° e in condizioni di albedo elevata (Casale et al., 2012). Allo scopo di chiarire l’utilizzo di ER, dalla tab.2 è possibile apprendere come un elevato valore del rapporto di esposizione non necessariamente si traduca in un rischio maggiore. Infatti, le colonne 5 e 6 sono state ottenute utilizzando una relazione presentata in McKenzie et al. (2009) per determinare il tempo necessario al manifestarsi dell’eritema, assumendo costante l’UVI massimo e senza fattore di protezione. Per i fototipi mediterranei, vuol dire chiedersi dopo quanto tempo viene accumulata la dose di 1 SED (Standard Erythemal Dose pari a 100 J m-2 ) (Diffey et al., 1997). L’ICNIRP (International Commission on Non Ionizing Radiation Protection) ha infatti fissato la soglia di esposizione occupazionale a 30 Jm-2 per 8 ore di lavoro quando si usa lo spettro ACGIH (American Conference of Governmental Industrial Hygienists) (ACGIH, 2008), che combina gli effetti sulla pelle e sull’occhio. Tale limite equivale a circa 1.0-1.3 SED quando si usa lo spettro eritemale CIE (CIE, 1998). Tuttavia, poiché la pelle mostra una proprietà difensiva di ispessimento dopo prolungata esposizione, tale da garantire un fattore di protezione di almeno 5, si tende ad assumere che un valore di 10 SED sia più rappresentativo come soglia per la popolazione mediterranea quando si ragioni in termini di esposizione prolungata e cumulata (Schmalwieser et al., 2010). Il calcolo proposto è stato così effettuato sia per una superficie orizzontale (ER=1) sia per una superficie 163 inclinata di cui sia noto ER (in tal caso, è stato utilizzato il valore mediano per il gruppo considerato e la posizione del braccio per i viticoltori, così da avere ER riferito in tutti i casi a superfici quasi verticali). I risultati mostrano che il tempo necessario al manifestarsi dell’eritema tende a crescere, anche di molto, quando si passa dalla dose ambientale (colonna 5: tery_amb) a quella personale (colonna 6: tery_pers), ad eccezione del caso in cui ER>1 (Sciatori P). Inoltre, quando l’indice UVI è alto (ad esempio UVI=8.3 per gli Alunni P1), il tempo necessario all’eritema può essere comparabile a quello calcolato con indice basso ma per posture/attività diverse (ad esempio UVI=2.8 per i Viticoltori A). La tab.2 mostra altresì come gli sciatori, in condizioni di UVI alto, raggiungano valori di dose pari ad 1SED in pochi minuti (Sciatori P e Sciatori E). Nel caso degli Alunni P2, invece, i tempi lunghi per accumulare la dose eritemigena (oltre due ore) inducono ad approfondire il problema dell’adeguata produzione di vitamina D, per il quale gli stessi dosimetri PS sembrano essere adeguati indicatori. CONCLUSIONI La dosimetria PS è stata usata inizialmente in Gran Bretagna alla fine degli anni settanta del XX secolo per la misura di dosi artificiali di radiazione UV in pazienti affetti da psoriasi. Successivamente, soprattutto grazie all’attività dei ricercatori australiani, è stata molto utilizzata per determinare l’esposizione personale alla radiazione solare ultravioletta. Il gruppo congiunto Sapienza Università di Roma-ARPA Valle d’Aosta ha ottenuto interessanti risultati sulla quantificazione dell’esposizione alla RSUV della popolazione italiana, offrendo il proprio contributo alla discussione sull’utilizzo dell’UVI come indicatore del rischio ultravioletto. Questo studio ha sottolineato che: • pur essendo auspicabile la realizzazione di un dosimetro elettronico in grado di registrare i tassi dose e non solo la dose cumulata, la dosimetria PS costituisce tuttora un riferimento importante per gli studi di esposizione solare ed ha contributo a realizzare un database di confronto utile anche per i prossimi sviluppi nel settore; • gli autori hanno apportato alcuni contributi alla dosimetria PS riguardo la necessità di eseguire le calibrazioni in condizioni simili a quelle espositive e le attenzioni da avere nel trasferire la taratura a dosimetri non orizzontali, quando l’angolo di incidenza è superiore a 70° e l’albedo elevata; • i dati su gruppi di volontari raccolti a partire dal 2005 in Italia mostrano un’elevata variabilità dei risultati in termini di ER, determinata dalle differenti modalità espositive e dagli eterogenei scenari radiativi che si possono sperimentare sul territorio nazionale; • l’indice UVI non è del tutto rappresentativo del rischio di esposizione mentre la sua combinazione con il rapporto di esposizione consente di ottenere informazioni più realistiche. Questo approccio necessita però di una maggiore raccolta di dati, supportata anche da modelli di esposizione personale. A causa delle più scarse informazioni quantitative a riguardo, a maggior ragione è necessario approfondire l’utilizzo del dosimetro PS anche per la valutazione della dose pesata per la produzione di vitamina D. BIBLIOGRAFIA 1. ACGIH (American Congress of Governmental and Industrial Hygienists) Threshold Limit Values and Biological Exposure Indices p. 256. ACGIH, Cincinnati, OH (2008) 2. Casale G.R., Borra M., Colosimo A., Colucci M., Militello A., Siani A.M. and Sisto R. Variability among polysulphone calibration curves Phys. Med. Biol. 51, 4413–4427. (2006) 3. Casale G.R., Siani A.M. and Colosimo A. Occupational exposure to solar UV radiation Household and Personal Care Today, 4, 14-17 (2011) 4. Casale G.R., Siani A.M., Diemoz H., Kimlin M.G. and Colosimo A. Applicability of the Polysulphone Horizontal Calibration to Differently Inclined Dosimeters Photochemistry and Photobiology 88: 207– 214 (2012) 5. CIE (Commission Internationale de l’Eclairage) Erythema Reference Action Spectrum and Standard Erythema Dose CIE S007E-1998. CIE Central Bureau, Vienna, Austria (1998) 6. Diffey B.L. Ultraviolet Radiation dosimetry with polysulphone film In Radiation Measurement in Photobiology (Edited by B. L. Diffey), pp. 135–159. Academic Press, London, UK. (1989) 7. Diffey B.L., Jansen C.T., Urbach F., Wulf H.C. The standard erythema dose: a new photobiological concept Photodermatol. Photoimmunol. Photomed. 13(1, 2), 64–66 (1997) 164 8. Diffey, B. L. Climate change, ozone depletion and the impact on ultraviolet exposure of human skin Phys. Med. Biol. 49, R1–R11 (2004) 9. Downs N.J. and Parisi A.V. Patterns in the received facial ultraviolet exposure of school children measured at a sub-tropical latitude Photochem. Photobiol. 84, 90–100 (2008) 10. El Ghisassi F., Baan R., Straif K., Grosse Y., Secretan B., Bouvard V., Benbrahim-Tallaa L., Guha N., Freeman C., Galichet L. and Cogliano V. WHO International Agency for Research on Cancer Monograph Working Group, A review of human carcinogens-Part D: radiation Lancet Oncol. 10, 751–752 (2009) 11. Fitzpatrick T. B., Pathak M., Parrish J.A. Protection of human skin against the effects of the sunburn ultraviolet (290–320 nm) In Sunlight and Man: Normal and Abnormal Photobiologic Responses (Edited by M. A. Pathak, L. C. Harber, M. Seiji and A. Kukita), pp. 751. University of Tokyo Press, Tokyo (1974) 12. Gao N., Hu L.W., Gao Q., Ge T.T., Wang F., Chu C., Yang H. and Yang L. Diurnal Variation of Ocular Exposure to Solar Ultraviolet Radiation Based on Data from a Manikin Head Photochemistry and Photobiology 88: 736–743 (2012) 13. Gilaberte Y., Aguilera J., Carrascosa J.M., Figueroa F.L., Romaní de Gabriel J., Nagoreg E. Vitamin D: Evidence and Controversies Actas Dermosifiliogr.102(8), 572-588 (2011) 14. Godar D.E. UV doses worldwide Photochem. Photobiol. 81, 736–749 (2005) 15. Grant W.B. and Holick M.F. Benefits and requirements of vitamin D for optimal health: a review Altern. Med. Rev. 10(2), 94–104 (2005) 16. IARC A review of human carcinogens. Part D: Radiation. IARC Working Group on the Evaluation of Carcinogenic Risks to Humans (2009: Lyon, France) IARC monographs on the evaluation of carcinogenic risks to humans ; v. 100D (2012) 17. Lucas R., McMichael T., Smith W. and Armstrong B. Solar ultraviolet radiation. Global burden of disease from solar ultraviolet radiation World Health Organization, Environmental Burden of Disease Series, 13 (2006) 18. Lucas R. Solar ultraviolet radiation: assessing the environmental burden of disease at national and local levels In Environmental Burden of Disease, Series 17 (Edited by A. Pruss-Ustun and E. Perkins van Deventer) World Health Organization, Geneva (2010) 19. McKenzie R.L., Liley J.B., Bjorn L.O. UV Radiation: Balancing Risks and Benefits Photochem. Photobiol., 85, 88–98 (2009) 20. Parisi A.V., Meldrum L.R., Kimlin M.G., Wong J.C.F., Aitken J. and Mainstone J.S. Evaluation of differences in ultraviolet exposure during weekend and weekday activities Phys. Med. Biol. 45(8), 2253–2263 (2000) 21 .Schmalwieser A. W., Cabaj A., Schauberger G., Rohn H., Maier B., Maier H. Facial solar UV exposure of Austrian farmers during occupation Photochem. Photobiol. 86, 1404–1413 (2010) 22. Seckmeyer G., Klingebiel M., Riechelmann S., Lohse I., McKenzie R.L., Liley J.B., Allen M.W., Siani A.M., Casale G.R. A Critical Assessment of Two Types of Personal UV Dosimeters Photochemistry and Photobiology 88: 215–222 (2012) 23. Siani A. M., Casale G.R., Diemoz H., Agnesod G., Kimlin M.G., Lang C.A. and Colosimo A. Personal UV exposure in high albedo alpine sites Atmos. Chem. Phys. 8, 3749–3760 (2008) 24. Siani A. M., Casale G.R., Sisto R., Borra M., Kimlin M.G., Lang C.A. and Colosimo A. Short-term UV exposure of sunbathers at a Mediterranean Sea site Photochem. Photobiol. 85(1), 171–177 (2009) 25. Siani A.M., Casale G.R., Sisto R., Colosimo A., Lang C.A., Kimlin M.G. Occupational exposures to solar ultraviolet radiation of vineyard workers in Tuscany (Italy) Photochemistry and Photobiology 87, 925-934 (2011) 26. WHO Global Solar UV Index: A Practical Guide. World Health Organization (2002) 27. Willis K.S., Smith D.T., Broughton K.S., Larson-Meyer D.E. Vitamin D status and biomarkers of inflammation in runners Open Access Journal of Sports Medicine 3, 35–42 (2012) SITOGRAFIA www.epicentro.iss.it (portale dell’Istituto Superiore di Sanità) www.arpa.vda.it (sito dell’Arpa Valle d’Aosta) www.uv-index.it (sito del gruppo di lavoro italiano sulla radiazione UV) 165 Articoli Risultati della prima campagna di interconfronto italiana di strumentazione per la misura della radiazione ultravioletta solare Diémoz H.1, Siani A. M.2, Casale G. R.2, di Sarra A.3, Serpillo B.4, Petkov B.5, Scaglione S.3, Bonino A.6, Facta S.6, Fedele F.7, Grifoni D.8, Verdi L.9, Zipoli G.8 1 2 3 4 5 6 7 8 9 Arpa Valle d’Aosta, Loc. Grande Charrière 44, 11020 Saint-Christophe (AO), [email protected] Sapienza Università di Roma, Dipartimento di Fisica, Piazzale Aldo Moro 5, 00185 Roma, [email protected], [email protected] ENEA, Via Anguillarese 301, 00123 S. Maria di Galeria Roma, [email protected], [email protected] Arpa Basilicata, Via della fisica 18 C/D, 85100 Potenza, [email protected] ISAC-CNR, Via Gobetti 101, 40129 Bologna, [email protected] Arpa Piemonte, Via Jervis 30, 10015 Ivrea (TO), [email protected], [email protected] Arpa Puglia, Corso Trieste 27, 70126 Bari, [email protected] IBIMET-CNR/LaMMa, Via Giovanni Caproni 8, 50145 Firenze, [email protected], [email protected] APPA Bolzano, Via Amba Alagi 5, 39100 Bolzano, [email protected] RIASSUNTO L’Agenzia Regionale per la Protezione dell’Ambiente (ARPA) della Valle d’Aosta ha coordinato il primo interconfronto nazionale della strumentazione per la misura a terra della radiazione ultravioletta (UV) solare. La campagna si è svolta a Saint-Christophe (Valle d’Aosta) dall’8 al 23 giugno 2010 ed ha coinvolto 8 istituti e 14 strumenti, di cui 10 a banda larga, 2 a banda stretta e 2 spettroradiometri. Gli strumenti sono stati predisposti per eseguire misure sincronizzate di irradianza solare globale. I dati grezzi sono stati successivamente inviati ai rispettivi operatori, che li hanno elaborati, a partire dai certificati di taratura in loro possesso e secondo i metodi utilizzati presso le loro istituzioni, per ottenere serie di Indice UV e irradianza integrata nella banda UV-A. Tali serie sono poi state confrontate con le misure dello strumento di riferimento, uno spettroradiometro a doppio monocromatore tracciabile agli standard europei. Un modello di trasporto radiativo è stato, inoltre, incluso nel confronto. La campagna ha messo in evidenza deviazioni rispetto al riferimento fino a -16% e +20% da parte di alcuni strumenti – alcuni dei quali appena tarati presso le ditte costruttrici –, così come variazioni diurne fino al 15% anche nei giorni sereni. INTRODUZIONE I radiometri solari ultravioletti sono utilizzati da tempo in tutto il mondo per monitorare l’irradianza al suolo in funzione dei fattori atmosferici che la modulano (WMO, 2011) e al fine di valutare i rischi della radiazione solare per la salute umana e l’ambiente (UNEP, 2010). Ciononostante, l’impiego ottimale di tali strumenti per ottenere serie di misure di altissima accuratezza è ancora oggi una sfida impegnativa: i probabili trend di irradianza UV sono bassi e si confondono facilmente con le oscillazioni naturali (Seckmeyer et al. 2009). Inoltre, nell’ambito delle reti di monitoraggio, non è sempre semplice discriminare tra le differenze prettamente inter-strumentali e i reali pattern ambientali e geografici. Un grande sforzo è perciò richiesto agli operatori, in particolare nelle procedure di controllo di qualità, di rielaborazione dei dati, taratura e caratterizzazione degli strumenti (di Sarra, 2002). Benché in Italia alcuni istituti abbiano avviato misure di radiazione ultravioletta solare sin dall’inizio degli anni ‘90 (Casale et al., 2000) e partecipato a campagne internazionali, la strumentazione presente sul territorio nazionale non è operata nell’ambito di una rete organizzata e secondo un programma di ricerca comune. I risultati del presente interconfronto sono perciò fondamentali per valutare l’accuratezza globale della strumentazione italiana ed attuare i necessari provvedimenti per migliorarla. 167 STRUMENTAZIONE E MODELLI PARTECIPANTI Tutti gli strumenti e gli enti partecipanti alla campagna sono riportati, unitamente ad alcune informazioni, in tabella 1. Tabella 1 | Strumenti e agenzie partecipanti alla campagna Tracciabilità Data Taratura Id Ente Strumento Tipo di misura 00 Arpa Valle d’Aosta Bentham DTMc300F Irradianza spettrale PTB (QASUME) 2010 01 Arpa Valle d’Aosta Kipp&Zonen UV-S-AE-T Irradianza banda larga (UV-A, UV-E) PTB (Bentham 5541) 2010 02 Arpa Valle d’Aosta Kipp&Zonen UV-S-AE-T Irradianza banda larga (UV-A, UV-E) PTB (Bentham 5541) 2010 03 Arpa Valle d’Aosta Yankee Env. Syst. UVB-1 Irradianza banda larga (UV-E) PTB (Bentham 5541) 2010 04 Arpa Piemonte Kipp&Zonen UV-S-AE-T Irradianza banda larga (UV-A, UV-E) NIST (Kipp&Zonen) 2009 05 Arpa Puglia Kipp&Zonen UV-S-AE-T Irradianza banda larga (UV-A, UV-E) NIST (Kipp&Zonen) 2009 06 Sapienza Univ. Roma Yankee Env. Syst. UVB-1 Irradianza banda larga (UV-E) PTB (QASUME) 2006 07 IBIMET-CNR/ LaMMa Solar Light 501A Irradianza banda larga (UV-E) PTB (QASUME) 2008 08 ENEA e Arpa Lazio Solar Light 501A Irradianza banda larga (UV-E) NIST (Brewer #123) 2010 09 Appa Bolzano Solar Light digitale 501 Irradianza banda larga (UV-A) NIST (Solar Light) 2010 10 Appa Bolzano Solar Light digitale 501 Irradianza banda larga (UV-E) NIST (Solar Light) 2010 11 Arpa Valle d’Aosta Kipp&Zonen Brewer MKIV Irradianza spettrale PTB (QASUME) e ozono totale 2010 12 ISAC-CNR ISAC UV-RAD filter rad. Irradianza banda stretta (7 canali) PTB (Bentham 5541) 2006 13 ENEA e Arpa Lazio ENEA F-RAD 02 filter rad. Irradianza banda stretta (13 canali) NIST (Brewer #123) 2010 14 Arpa Valle d’Aosta LibRadtran 1.5 (modello) Irradianza spettrale PTB (Bentham 5541) 2010 E’ riportato l’istituto al quale le misure sono tracciabili e, tra parentesi, lo strumento o il laboratorio di riferimento. Lo strumento che ha costituito il riferimento della campagna di interconfronto è uno spettroradiometro Bentham DTMc300F a doppio monocromatore (numero identificativo 00, nel seguito; fig. 1), appartenente ad ARPA Valle d’Aosta e tracciabile a standard primari (Diémoz, 2012). L’incertezza totale (di calibrazione e di misura) è stata oggetto di approfondita caratterizzazione: essa varia dal 6% (K=2, lunghezze d’onda comprese tra 310 e 400 nm e angoli solari zenitali minori di 50 gradi) al 12% (K=2, lunghezze d’onda minori di 310 nm e angoli solari zenitali maggiori di 50 gradi). Tale strumento è regolarmente confrontato con il riferimento europeo, QASUME, del centro mondiale per la misura della radiazione solare di Davos (PMOD-WRC). L’ultimo interconfronto QASUME, svoltosi nel 2011, ha messo in evidenza una differenza sistematica dello 0.5% e una variazione diurna inferiore al 2%, entrambe minori dell’incertezza radiometrica e di misura, rispettivamente. Nel corso della campagna italiana, lo spettroradiometro Bentham ha acquisito con continuità spettri di irradianza nella banda elettromagnetica compresa tra 290 e 400 nm. In aggiunta, un ulteriore strumento in grado di misurare lo spettro di radiazione, uno spettrofotometro Brewer MKIV, anch’esso gestito da ARPA Valle d’Aosta (numero identificativo 11), ha partecipato all’interconfronto. Lo spettrofotometro è stato altresì impiegato per la misura del contenuto totale di ozono e per la caratterizzazione delle proprietà ottiche del particolato atmosferico durante la campagna. La maggior parte dei radiometri partecipanti era a banda larga (numeri identificativi da 01 a 10). Il loro dato non elaborato è stato raccolto in termini di tensione elettrica ai capi dei loro cavi di uscita ogni 10 secondi. Due degli strumenti (09 e 10) erano digitali, i rimanenti analogici. Quattro radiometri a banda larga (numeri identificativi 01, 02, 04 e 05) hanno misurato contemporaneamente l’irradianza UV-A integrata nella 168 banda 315-400 nm e l’Indice UV (d’ora in poi UVI; per la definizione di quest’ultimo, si veda Webb, 2011), i rimanenti acquisivano esclusivamente il canale relativo all’UVI. La relazione tra tensione in uscita dai radiometri a banda larga e l’irradianza (cioè la grandezza che si desidera normalmente misurare), è definita attraverso una funzione, piuttosto complessa, dei due parametri che maggiormente condizionano la forma dello spettro solare a terra: il contenuto totale di ozono in atmosfera e l’angolo zenitale solare. Non è, infatti, possibile determinare un’unica costante di taratura per il fatto che le risposte spettrali e angolari dei radiometri non coincidono perfettamente con quelle ideali. Alcuni operatori hanno dunque fatto uso, durante la campagna, di matrici di taratura, ottenute tramite modelli di trasporto radiativo. Altri, invece, hanno utilizzato un fattore di correzione costante, benché sia noto che tale procedimento non garantisce un risultato ottimale. Due radiometri a filtri (numeri identificativi 12 e 13) hanno acquisito misure a banda stretta, poi elaborate dai rispettivi operatori al fine di ottenere l’UVI e l’irradianza integrata nella banda UV-A. Infine, il modello di trasporto radiativo LibRadtran è stato incluso nel confronto alla pari degli altri strumenti (numero identificativo 14) ed è stato, inoltre, impiegato per il controllo di qualità delle misure spettrali. Figura 1 | Alcuni strumenti partecipanti. In primo piano, l’ottica dello spettroradiometro di riferimento e, sullo sfondo, alcuni radiometri a banda larga. CAMPAGNA DI INTERCONFRONTO La campagna si è svolta a cavallo del solstizio estivo, al fine di valutare il funzionamento degli strumenti partecipanti sulla gamma più vasta possibile di angoli solari. Il sole, infatti, sorgeva alle ore 6 solari circa e tramontava alle ore 19. Il minimo angolo solare zenitale del periodo è stato di 22.3° in occasione del solstizio. La stazione di Saint-Christophe (Aosta, quota 570 m s.l.m.) rappresenta un tipico sito di fondovalle alpino, benché con ampia visuale, ed è stato scelto per la presenza di uno strumento allo stato dell’arte e per il basso livello di inquinamento. La prima parte dell’interconfronto è stata caratterizzata da nuvolosità e, talvolta, pioggia (le misure ottenute durante le precipitazioni sono state escluse dall’analisi). Gli ultimi quattro giorni, invece, sono stati sereni ed hanno permesso di misurare un UVI di circa 8, un valore tipico a Saint-Christophe durante l’estate. METODI DI CONFRONTO Poiché gli strumenti che hanno partecipato alla campagna appartengono a classi differenti (spettrali, banda stretta e banda larga) ed operano con tempi di campionamento diversi, non è stato possibile confrontare tutte le serie di misure utilizzando un’unica metodologia. Il downscaling delle serie a banda larga, ottenute con un tempo di campionamento di 10 secondi, alla risoluzione dello strumento di riferimento, di circa 3 minuti, è stato effettuato con un nuovo algoritmo, appositamente creato per la campagna e facente uso di modelli di trasporto radiativo (Diémoz et al., 2011). Infatti, una semplice interpolazione temporale avrebbe creato, soprattutto nel caso di cielo nuvoloso, oscillazioni fittizie. 169 Le rimanenti serie, invece, sono state riscalate alla risoluzione temporale dello spettroradiometro Bentham attraverso una interpolazione lineare di misure quasi-simultanee (la massima differenza ammessa nel confronto tra riferimento e strumento in esame era di 1 minuto per i radiometri a banda stretta e di 3 minuti per lo spettrofotometro Brewer). Figura 2 | Boxplot dell’UVI per cielo sereno. Rapporto tra le misure di ogni strumento e il riferimento. I lati superiore e inferiore di ogni rettangolo rappresentano i quartili (superiore e inferiore). La linea interna al box, la mediana. I baffi descrivono i valori massimi e minimi, eccetto gli outliers, che sono invece rappresentati come cerchi. Figura 3 | Boxplot dell’UVI per cielo nuvoloso RISULTATI E DISCUSSIONE I risultati sono nel seguito espressi principalmente in termini di mediana e di distanza interquartile (IQR) – stimatori robusti rispettivamente della tendenza centrale e della dispersione – del rapporto tra le misure degli strumenti in prova e del riferimento. Il boxplot in fig. 2 rappresenta i risultati durante i giorni sereni, quello in fig. 3 i risultati nei giorni nuvolosi. Deviazioni medie Innanzi tutto, le misure degli strumenti in prova esibiscono notevoli deviazioni medie rispetto al riferimento: da -16% (strumenti 12 e 13) a +19% (strumento 04). Anche alcuni strumenti appena tarati dalle rispettive case costruttrici mostrano elevati errori sistematici (strumenti 04, 05, 09, 10). Un buon accordo si verifica, al contrario, per strumenti che condividono lo stesso standard di taratura, presso PMOD-WRC (numeri 01, 02, 03, 06, 07 e 11). I risultati ottenuti con il radiometro 08 sono compatibili con quanto già riportato in letteratura scientifica (Gröbner, 2006). Al contrario, l’elevata differenza tra riferimento e radiometro 12 ha permesso di scoprire un malfunzionamento dello strumento in prova dovuto al deterioramento di alcune componenti interne e di una deriva nella taratura. Un difetto di coibentazione è stato trovato anche per il radiometro 13 in seguito alla campagna. Infine, il modello, benché configurato con parametri semplici, mostra un accordo soddisfacente con il riferimento (in media, -0.3% per l’UVI e -1.2% per l’irradianza integrata UV-A). 170 Variabilità diurna in condizioni serene Al fine di esaminare in maggior dettaglio la variazione diurna delle misure degli strumenti in test rispetto al riferimento, il rapporto è stato graficato in funzione dell’angolo solare zenitale (fig. 4). Le serie elaborate tramite una matrice (strumenti da 01 a 06) mostrano una variabilità diurna inferiore alle serie processate con un’unica costante di taratura (strumenti 07, 09, 10) o con algoritmi empirici, come per il radiometro 08 (Bodhaine et al., 1998). La differenza tra modello e riferimento non mostra particolari andamenti in funzione dell’angolo zenitale. L’entità della variazione è confrontabile con l’incertezza totale del riferimento e del modello (quest’ultima dovuta, in primis, all’incertezza sui parametri di input). Figura 4 | Dipendenza dall’angolo zenitale solare Asimmetria tra mattino e pomeriggio Diversi strumenti presentano una asimmetria tra le misure del mattino e del pomeriggio. Le cause potrebbero essere un leggero deterioramento della livella a bolla (strumento 01) o una debole dipendenza azimutale (strumento 06) o ancora l’effetto della temperatura o dell’umidità interne (strumenti 05, 11). Figura 5 | Grafico riassuntivo dei risultati. Valore assoluto della differenza relativa tra strumenti in test e riferimento (asse delle ascisse) e distanza interquartile (asse delle ordinate). Nel testo, è riportata la spiegazione dettagliata dei simboli. I risultati sono relativi all’UVI. Effetto delle nubi Prendendo in esame l’intera durata della campagna, caratterizzata anche da periodi nuvolosi, e confrontandola con le giornate di cielo sereno, è possibile valutare l’effetto delle nubi sulla qualità delle misure dei radiometri. I coefficienti di taratura dei radiometri, infatti, vengono generalmente determinati tramite modelli di trasporto radiativo nella sola ipotesi di cielo sereno. 171 Si può constatare che le mediane dei rapporti non cambiano sensibilmente. Al contrario, aumenta notevolmente la distanza interquartile, che in diversi casi, anche in funzione della risposta angolare di ogni radiometro, eccede il 10%. Tale errore è amplificato dagli algoritmi di correzione utilizzati per i radiometri 07 e 08. Prestazioni generali dei radiometri In figura 5 sono presentate sia le differenze relative dei diversi strumenti dal riferimento nel caso di giorni sereni sia la distanza interquartile dei rapporti. In parentesi, è anche riportato il metodo di correzione. Come si può vedere dalla figura, gli strumenti si possono collocare in alcuni gruppi caratterizzati da prestazioni simili. Il primo gruppo (colore blu) identifica gli strumenti che condividono la stessa tracciabilità al laboratorio tedesco PTB, attraverso lo standard europeo QASUME o lo spettroradiometro Bentham. Questo fatto mette in assoluta evidenza l’importanza di una scala di riferimento comune e attendibile e l’efficacia di standard viaggianti. A un secondo gruppo (colore rosso), caratterizzato da deviazioni medio-alte, appartengono gli strumenti tarati presso le rispettive case costruttrici. La “coerenza” tra radiometri tarati dallo stesso produttore è decisamente bassa (gli strumenti 04 e 05 si collocano in punti molto diversi del grafico). Un terzo gruppo (colore viola) individua gli strumenti prodotti presso i centri di ricerca ENEA e ISAC-CNR. L’interconfronto è stato determinante per identificare problemi strumentali e derive nella taratura. La stessa figura mette in luce come l’utilizzo di una matrice di taratura sia il metodo più efficace per correggere eventuali errori nella risposta spettrale e angolare. In generale, si può affermare che le prestazioni dei radiometri italiani, in particolare lo scatter dei dati, potrebbero essere notevolmente migliorate utilizzando gli algoritmi correttivi allo stato dell’arte e pianificando tarature e interconfronti frequenti per monitorare la stabilità strumentale. CONCLUSIONI Questo studio è stato indotto dalla necessità di valutare l’accuratezza delle misure di irradianza UV in Italia, anche al fine di progettare una futura rete nazionale. Il confronto è durato 17 giorni, durante i quali sono stati registrati più di 3000 spettri e acquisiti 140000 campionamenti. Un algoritmo innovativo è stato sviluppato per confrontare le misure ad alta frequenza dei radiometri in banda larga con il riferimento. Le deviazioni si sono rivelate molto maggiori di quanto previsto, con valori medi compresi tra il -16% e il +19% e distanze interquartili maggiori del 10% anche nel caso più semplice di cielo sereno. 8 dei 13 strumenti mostrano misure entro il 10% rispetto al riferimento e solo 5 entro il 5%. Inoltre, sono stati individuati problemi strumentali prima sconosciuti agli operatori. Punto di notevole interesse sono le elevate deviazioni registrate anche per radiometri recentemente tarati presso le rispettive case produttrici. Il modello di trasporto radiativo, pur configurato con pochi parametri, si è dimostrato soddisfacente (differenze entro pochi punti percentuali rispetto al riferimento). Dai risultati complessivi dell’interconfronto, emerge che, prima di costituire una rete nazionale, saranno fondamentali sforzi per migliorare la taratura degli strumenti e gli algoritmi di elaborazione. BIBLIOGRAFIA 1. Bodhaine B. A. et al., Calibrating broadband UV instruments: ozone and solar zenith angle dependence, J. Atmos. Ocean. Tech., 1998 2. Casale G. R. et al., Solar UV-B irradiance and total ozone in Italy: fluctuations and trends, J. Geophys. Res., 2000 3. Diémoz H. et al., First national intercomparison of solar ultraviolet radiometers in Italy, Atmos. Meas. Tech. 2011 4. Diémoz H. Tracciabilità delle misure ultraviolette solari presso le stazioni di ARPA Valle d’Aosta, V Convegno nazionale degli Agenti Fisici, Novara, 2012 5. di Sarra A., On the importance of spectral responsivity of Robertson-Berger type ultraviolet radiometers for long-term observations, Photochem. Photobiol., 2002 6. Gröbner J., Quality assurance of spectral solar UV measurements: results from 25 UV monitoring sites in Europe, 2002 to 2004, Metrologia, 2006 7. Seckmeyer G. et al. Measurements and trends, in: Twenty years of ozone decline, 2009, Springer 8. UNEP, Environmental effects of ozone depletion and its interactions with climate change: 2010 assessment, 2010 9. Webb A. R. et al., Know your standard: clarifying the CIE erythema action spectrum, Photochem. Photobiol., 2011 10. WMO, Scientific assessment of ozone depletion: 2010, 2011 172 Articoli Caratterizzazione di radiometri ultravioletti solari a banda larga presso il Laboratorio di Ottica dell’ARPA Piemonte e interconfronto con altri laboratori europei Facta S (1),Saudino Fusette S (1), Bonino A (1), Diemoz H (2),Vaccarono M (3), Anglesio L(1), d’Amore G (1), Gröbner J (4) (1) ARPA Piemonte, Via Jervis 30, 10015 Ivrea (TO), [email protected] (2) ARPA Valle d’Aosta, Loc. grende Charriere 44, 11020 Saint-Christophe (AO), [email protected] (3) Università degli Studi di Torino – Via P. Giuria 1 – Torino [email protected] (4) Physikalisch-Meteorologisches Observatorium Davos, World Radiation Center, Dorfstrasse 33, CH7260 Davos Dorf, Switzerland [email protected] RIASSUNTO Nel corso degli ultimi anni si è assistito allo sviluppo e alla diffusione di stazioni di monitoraggio per la misura della radiazione ultravioletta (UV) solare in Italia. Tali stazioni generalmente impiegano radiometri a banda larga con curva di risposta prossima allo spettro ad azione eritemale e permettono la misura in continuo dell’indice UV. Le caratteristiche di risposta di questi radiometri hanno reso necessario lo sviluppo di una procedura di taratura dedicata, al fine di ottenere dati riproducibili tra strumenti diversi. In particolare la taratura ne presuppone la caratterizzazione in laboratorio, basata sulla misura della risposta spettrale e di quella angolare. In questo lavoro verranno illustrate le procedure seguite presso il Laboratorio di Ottica di Arpa Piemonte per determinare tali risposte, in particolare verranno descritte le problematiche e le criticità associate alle misure e verranno riportati i risultati di interconfronti effettuati con altri Laboratori europei. INTRODUZIONE Nel corso degli ultimi anni, gli sviluppi della strumentazione e delle metodologie impiegate per la misura della radiazione solare UV hanno portato a importanti miglioramenti in questo campo. Gli strumenti d’eccellenza per la misura della radiazione solare UV sono gli spettroradiometri, ma gli elevati costi e la necessità di costante manutenzione ne limitano l’utilizzo principalmente presso alcune stazioni dove costituiscono il riferimento per la calibrazione di radiometri a banda larga (Hulsen et al, 2007). Sono questi ultimi gli strumenti generalmente installati presso le stazioni per la misura della radiazione UV solare. La loro risposta spettrale, ottenuta per mezzo di opportuni filtri, riproduce la sensibilità della pelle umana alla radiazione UV (CIE, 1998) e permette di ottenere una misura di irradianza efficace eritemale o di Indice UV (WHO, 2002). Figura 1 | Spettro ad azione eritemale e risposta spettrale di un radiometro. È riportato il confronto tra lo spettro ad azione eritemale e una tipica risposta spettrale di un radiometro banda larga per la misura dell’Indice UV. 173 La non perfetta corrispondenza delle risposte spettrale e angolare dei radiometri a quelle ideali, ovvero rispettivamente allo spettro d’azione eritemale e alla risposta coseno, unitamente alla variazione di diversi ordini di grandezza dello spettro solare al suolo hanno reso necessario definire una procedura di taratura specifica per questi strumenti (Grobner et al, 2006). In fig.1 è riportata a titolo esemplificativo la risposta spettrale di un radiometro confrontata con lo spettro ad azione eritemale. La procedura di taratura sviluppata a tal fine si basa da un lato sull’esposizione dei radiometri alla radiazione solare e dall’altro sulla loro caratterizzazione in laboratorio ai fini di determinare la risposta spettrale e quella angolare. L’esposizione solare, per confronto con uno spettroradiometro di riferimento, note le risposte spettrale e angolare, consente di valutare un coefficiente di taratura assoluto dei radiometri. Tramite modello di trasporto radiativo, sulla base delle risposte spettrale e angolare, viene quindi determinata una matrice di coefficienti correttivi da applicare, in funzione dell’ozono colonnare e dell’elevazione solare, al fattore di cui sopra. Il prodotto tra tale fattore e la matrice dei coefficienti correttivi costituisce la matrice di taratura del radiometro. Sulla base di quanto riportato si evince che la qualità delle misure di radiazione UV solare ottenute per mezzo di radiometri banda larga dipende significativamente dall’accuratezza della caratterizzazione in laboratorio. In questo lavoro verranno descritti i metodi impiegati dal Laboratorio di Ottica di Arpa Piemonte situato ad Ivrea per determinare la risposta spettrale e quella angolare dei radiometri e verranno riportati i risultati delle misure eseguite, confrontate con quelle ottenute da altri Laboratori europei. MATERIALI E METODI SISTEMA SPERIMENTALE: MISURA DELLA RISPOSTA SPETTRALE ll sistema sperimentale utilizzato dal Laboratorio di Arpa Piemonte consiste in un doppio monocromatore Bentham DM 150 con reticoli di 2400 scanalature per millimetro e lunghezza d’onda di blazing 250nm. Una lampada allo Xe da 150 W viene accoppiata tramite un sistema di lenti al doppio monocromatore, in modo da ottenere la massima potenza di radiazione in corrispondenza della fenditura d’uscita. In corrispondenza di questa è posto un deviatore di fascio (beam splitter), montato verticalmente a 45°, che trasmette circa l’80% della radiazione verso il rivelatore in analisi e il 20% verso un fotodiodo utilizzato per verificare la stabilità del segnale in uscita nel corso delle misura. La necessità di massimizzare il segnale in uscita al doppio monocromatore è dovuta alla bassa sensibilità dei radiometri già per lunghezze d’onda superiori a 330-340 nm. Al fine di ottenere segnali maggiori, si potrebbe sostituire il doppio monocromatore con un singolo, ma la maggiore luce parassita (stray light) associata a questa soluzione rappresenta un problema nel caratterizzare i radiometri nella regione spettrale in cui sono meno sensibili. Infatti dove la sensibilità diminuisce di 3-4 ordini di grandezza rispetto a quella massima a circa 290 nm una stray light di 10-3-10-4 (migliori valori ottenibili con un singolo monocromatore) può portare ad un aumento della tensione sul radiometro dovuto, non al segnale alla lunghezza d’onda in esame, ma alla luce parassita alle lunghezze d’onda a cui il radiometro è più sensibile. In fig.2 è riportato il confronto tra le SRF, normalizzate al valore massimo, ottenute, sullo stesso radiometro, tramite un singolo (Zolix – Omni λ-150) e un doppio monocromatore (Bentham DM 150). A partire da 320 nm la prima è significativamente maggiore rispetto alla seconda, ad indicare che il contributo della stray light, dovuto all’utilizzo del singolo monocromatore, genera segnali sul radiometro paragonabili a quelli dovuti alla lunghezza d’onda in esame. Per valutare la SRF del radiometro occorre conoscere la potenza in uscita al doppio monocromatore P(λ) alle varie lunghezza d’onda. Tale potenza viene misurata con un fotodiodo tarato SI-CAL-EX. Indicando quindi con V(λ) la tensione sul radiometro alla lunghezza d’onda λ e con Voffset il segnale di fondo del radiometro, misurato otturando la fenditura d’ingresso del monocromatore, la SRF(λ) del radiometro è data da: La tensione sul radiometro viene letta tramite un nanovoltmetro Agilent Technologies 34420A. La misura della SRF viene effettuata nell’intervallo spettrale compreso tra 280 e 400 nm a intervalli di 2 nm e normalizzata al valore massimo. L’incertezza relativa sul fattore SRF viene stimata per ogni radiometro sulla base di misure ripetute del segnale di fondo e della tensione a radiometro irradiato e dell’incertezza sul fattore di taratura del fotodiodo. Risulta generalmente inferiore al 15% per valori di SRF superiori a 10-4 e inferiore al 30% per valori di SRF al di sotto di 10-4. 174 Figura 2 | Confronto singolo e doppio monocromatore. Sono riportate le SRF ottenute sullo stesso radiometro impiegando un singolo e un doppio monocromatore e il rapporto tra le due. SISTEMA SPERIMENTALE: MISURA DELLA RISPOSTA ANGOLARE La misura della risposta angolare (ARF) viene ottenuta irradiando il radiometro con una sorgente allo Xeno da 1000 W posta su banco ottico ad una distanza di 2 m. Il diffusore del radiometro viene completamente illuminato con un campo di radiazione avente una disuniformità sulla superficie del medesimo non superiore al 2%. La risposta angolare viene misurata facendo ruotare il radiometro intorno ad un asse passante per il centro del diffusore e ad esso tangente con una risoluzione di rotazione di 4267 step per grado. Tra la sorgente e il radiometro vengono posti un diaframma e un filtro passa alto WG305. Il diaframma viene impiegato al fine di ridurre la luce parassita diffusa all’interno della camera oscura in cui viene effettuata la misura. Il filtro viene utilizzato per ridurre la radiazione emessa dalla lampada a lunghezza d’onda inferiore a circa 300 nm, essendo tale radiazione di intensità praticamente trascurabile nello spettro della radiazione solare che raggiunge la superficie terrestre. La misura della ARF viene effettuata nell’intervallo angolare compreso tra -90 e 90 gradi a intervalli di 5 gradi e normalizzata al valore massimo. L’incertezza relativa sulla ARF viene stimata per ogni radiometro sulla base di misure ripetute della ARF stessa, tenendo conto anche della disuniformità del campo. Tale incertezza risulta pari al 3%. PROBLEMATICHE RELATIVE ALLA CARATTERIZZAZIONE SPETTRALE Considerato l’andamento tipico della SRF dei radiometri, due parametri ne influenzano in modo significativo la misura, soprattutto nella regione spettrale compresa tra 300 e 330 nm, dove la SRF diminuisce rapidamente all’aumentare della lunghezza d’onda: l’allineamento e la slit function del monocromatore. Allineamento L’allineamento del doppio monocromatore viene effettuato monitorando alle diverse lunghezze d’onda impostate, tra 280 e 400 nm a passo di 2 nm, il segnale in uscita con uno spettroradiometro pre-allineato utilizzando i picchi di una sorgente al mercurio. Questa metodologia consente di effettuare l’allineamento del sistema nella stessa configurazione in cui viene utilizzato per la misura della SRF e di ridurre a 0.1 nm l’incertezza sull’allineamento, rispetto al caso in cui venga effettuato accoppiando direttamente al monocromatore la lampada al mercurio (incertezze di 0.2-0.3 nm). Il corretto allineamento riveste particolare importanza soprattutto nella regione di rapida variabilità di sensibilità dei radiometri. In fig.3 è riportato l’errore che si commette, valutato teoricamente partendo dalla SRF di un radiometro Kipp&Zonen, in funzione del disallineamento: disallineamenti di soli 0.4 nm portano ad errori prossimi all’8% a 315 nm. 175 Figura 3 | Allineamento del doppio monocromatore Sono riportati in funzione della lunghezza d’onda gli errori nella valutazione della SRF dovuti al disallineamento per un tipico radiometro Kipp&Zonen Slit function La slit function del doppio monocromatore, funzione della dimensione delle fenditure in ingresso e in uscita e della dispersione del monocromatore, è stata valutata durante la procedura di allineamento tramite lo spettroradiometro. La larghezza (FWHM) del segnale in uscita ma anche la sua forma sono parametri che influenzano la SRF soprattutto nella regione di rapida variabilità di sensibilità dei radiometri. In fig.4 viene riportata la SRF ottenuta sullo stesso radiometro utilizzando fenditure tali da avere una FWHM di 2.5 nm e di 5 nm: si registrano differenze anche superiori al 10%. Tanto minore è la dimensione delle fenditure e quindi la FWHM del segnale in uscita, tanto più precisa sarà la determinazione della SRF tra 300 e 330 nm. Dall’altra parte la diminuzione della dimensione delle fenditure comporta una diminuzione del segnale in uscita al monocromatore. Presso il Laboratorio di Arpa Piemonte le fenditure sono state regolate in modo da avere una FWHM di 2.5nm. Figura 4 | Slit function del doppio monocromatore. Sono riportate le SRF ottenute su un radiometro Kipp&Zonen per fenditure del monocromatore tali da avere una FWHM di 2.5 nm e 5 nm, e il rapporto tra le due. INTERCONFRONTO CON ALTRI LABORATORI La misura della SRF è stata effettuata per i 4 radiometri riportati in tabella 1. I primi tre appartengono alla rete di monitoraggio di Arpa Valle d’Aosta mentre il quarto (Kipp&Zonen UV-S-AE-T s.n. 80003) è in dotazione di Arpa Piemonte. I risultati delle misure ottenute sui 4 radiometri sono stati interconfrontati con il PMOD/WRC di Davos. La taratura del radiometro di Arpa Piemonte è stata inoltre confrontata con la taratura effettuata dal produttore Kipp&Zonen. Per il radiometro di Arpa Piemonte è stata misurata anche la ARF e interconfrontata con il laboratorio di Davos. 176 Tabella 1 | Radiometri analizzati e Laboratori di interconfronto Radiometro Laboratorio Kipp&Zonen UV-S-AE-T s.n. 526 PMOD/WRC Kipp&Zonen UV-S-AE-T s.n. 40618 PMOD/WRC Yankee Env. Syst UVB-1 PMOD/WRC Kipp&Zonen UV-S-AE-T s.n. 80003 PMOD/WRC - Kipp&Zonen I sistemi sperimentali utilizzati sia da PMOD/WRC sia da Kipp&Zonen sono descritti in Schreder et al, 2004. In merito al primo interconfronto, in fig.5 (a,b,c) sono riportate le SRF dei tre radiometri misurate da PMOD/ WRC e dal Laboratorio di Arpa Piemonte e i rapporti tra le stesse. Per gli strumenti Kipp&Zonen, nell’intervallo spettrale compreso tra 280 e 370 nm, nonostante la variazione della SRF di 3 ordini di grandezza, le differenze risultano contenute entro il 15%. Per il radiometro Yankee si sono invece ottenute differenze maggiori, soprattutto a causa dell’elevato rumore strumentale. Inoltre l’intervallo spettrale caratterizzato (280-342 nm) è risultato inferiore rispetto a quello tipicamente analizzato per i Kipp&Zonen (280-385 nm), essendo questo un rivelatore di radiazione UVB, che viene adattato a misure di Indice UV. Nonostante le differenze tra i due laboratori rientrino nell’incertezza sperimentale, le curve di taratura misurate dal laboratorio di Arpa Piemonte presentano uno spostamento in lunghezza d’onda rispetto a quelle ottenute da PMOD/WRC, ad indicare un possibile disallineamento di uno dei due monocromatori. Da una verifica dell’allineamento del monocromatore di Arpa Piemonte, è risultato un disallineamento di 0.6 nm, in tutto l’intervallo spettrale considerato. A seguito della correzione dell’allineamento del monocromatore, è stata quindi effettuata una nuova taratura del radiometro Kipp&Zonen s.n. 526, i cui risultati in confronto con quelli del Laboratorio di Davos sono riportati in fig.6. Le differenze nella regione spettrale comprese tra 300 e 330 nm risultano in questo caso entro il 5% e entro il 15% nella regione spettrale tra 280 e 370nm. (a) (b) (c) Figura 5 | Confronto tra le SRF ottenute dal Centro PMOD/WRC e dal Laboratorio di Arpa Piemonte. Sono riportate le SRF dei 3 radiometri ottenute dal Centro PMOD/WRC e dal laboratorio di Arpa Piemonte e il rapporto tra le stesse. 177 Figura 6 | Confronto tra la SRF ottenute dal PMOD/WRC e il Laboratorio di Arpa Piemonte dopo il riallineamento: Sono riportate le SRF del radiometro misurato dal laboratorio di Arpa Piemonte, dopo aver corretto il disallineamento, e dal Centro di riferimento PMOD/WRC e il rapporto tra le stesse. In merito all’interconfronto sulla misura della SRF ottenuta dai 3 Laboratori sul radiometro di Arpa Piemonte, in fig.7 sono riportati i risultati in termini dei due rapporti tra la SRF ottenuta dal Laboratorio di Arpa Piemonte rispetto a quella ottenuta dal Laboratorio di Davos e a quella ottenuta dal Laboratorio di Kipp&Zonen. Ad eccezione di un intervallo spettrale di qualche nm intorno alla lunghezza d’onda di 324 nm dove si sono rilevate differenze fino al 22%, le differenze tra le curve ottenute sono risultate sempre inferiori al 15% nell’intervallo spettrale 280-370 nm. Figura 7 | Confronto tra la SRF ottenute dal Laboratorio di Arpa Piemonte e dal Laboratorio di Kipp&Zonen. Sono riportate le SRF del radiometro Kipp&Zonen 80003 misurata dal Laboratorio di Arpa Piemonte e dal Laboratorio di Kipp&Zonen e il rapporto tra le stesse. Si è quindi interconfrontata la misura della ARF del radiometro di proprietà di Arpa Piemonte ottenuta dal Laboratorio di Ivrea con quella ottenuta dal Laboratorio di Davos. In figura 8, sono riportate la ARF misurate e il rapporto tra le stesse. Le differenze rilevate tra le due curve sono sempre inferiori al 5% tra 0° e 85°, evidenziando un ottimo accordo tra i due laboratori. Figura 8 | Confronto tra le ARF ottenute dal Laboratorio di Arpa Piemonte e dal Laboratorio PMOD-WRC. Sono riportate le ARF del radiometro Kipp&Zonen 80003 misurata dal Laboratorio di Arpa Piemonte e dal Laboratorio PMOD-WRC e il rapporto tra le stesse. Al fine di valutare quanto le differenze ottenute nelle misure delle SRF e della ARF influiscano sulla matrice di taratura e quindi sui valori di Indice UV misurati dai radiometri, si sono valutati i rapporti tra i coefficienti delle medesime ottenibili partendo dalle tarature del Laboratorio di Arpa Piemonte e dal quelle 178 del Laboratorio PMOD/WRC e di Kipp&Zonen. Per la valutazione del rapporto tra i coefficienti di taratura assoluta si sono utilizzati gli spettri misurati da Arpa Valle d’Aosta ad Aosta dal 16/06/2011 al 27/06/2011, durante le operazioni di taratura dei radiometri. In tab.2 si riportano i valori minimi massimi e medi dei rapporti tra i coefficienti di taratura assoluto, tra i coefficienti della matrice correttiva e tra i coefficienti della matrice di taratura, ottenuti utilizzando le SRF misurate dal Laboratorio di Arpa Piemonte e dal Laboratorio di confronto, sulla base degli spettri solari misurati da Arpa Valle d’Aosta. Dove i dati di ARF erano noti, questi sono stati inseriti nel calcolo dei coefficienti correttivi della matrice, in caso contrario si è trascurata tale correzione per la risposta angolare. Tabella 2 | Confronto tra le matrici di taratura. Sono riportati i valori minimi, medi e massimi dei rapporti tra i valori del fattore di taratura assoluto (k), i coefficienti correttivi (Cij) e i coefficienti della matrice di taratura (Mij) Radiometro Kipp&Zonen s.n 526 Lab confr.: PMOD_WRC Kipp&Zonen s.n.80003 Lab confr.: PMOD_WRC Kipp&Zonen s.n.80003 Lab confr.: Kipp&Zonen Cij(Lab.Arpa)/Cij(Lab.confronto) Mij(Lab.Arpa)/Mij(Lab.confronto min kLab.Arpa/kLab.confronto max media min max media min Max media 1.02 1.04 1.025 0.96 0.98 0.97 0.98 1.015 0.99 min max media min max media min Max media 0.95 0.97 0.97 0.99 1.06 1.01 0.94 1.03 0.98 min max media min Max media min Max media 0.94 0.96 0.97 1.05 1.09 1.06 0.99 1.05 1.03 Per entrambi i radiometri si ottengono delle differenze medie sui coefficienti della matrice di taratura non superiori al 3% con scarti non superiori al 5%, ad indicare il buon accordo tra le SRF ottenute ai fini delle operazioni di taratura. Per il radiometro per il quale, nel calcolo della matrice, è stata inclusa la correzione per la risposta angolare, questa pesa solo marginalmente rispetto alla correzione per la risposta spettrale. Nel confronto tra le matrici ottenute per questo radiometro, pertanto, le differenze rilevate sono essenzialmente da ricondursi alle differenze tra le risposte spettrali. Dai dati riportati in tabella si evince che le differenze tra le matrici sono significativamente minori rispetto a quelle ottenute tra le SRF. La riduzione è dovuta al fatto che lievi variazioni nella misura delle SRF non influiscono significativamente sui valori assunti dai coefficienti delle matrici, essendo tali variazioni molto minori rispetto alla differenza tra le SRF dei radiometri e lo spettro ad azione eritemale CIE. CONCLUSIONI L’impiego di radiometri a banda larga per la misura dell’Indice UV solare non può prescindere dalla conoscenza della loro SRF a fini di definirne la matrice di taratura. La rapida variazione della SRF in funzione della lunghezza d’onda rende la misura particolarmente complessa. L’elevato gradiente e la bassa sensibilità già per lunghezze d’onda superiori a 330 nm richiedono l’utilizzo di una strumentazione rigorosamente ‘messa a punto’. L’accoppiamento lampada-monocromatore, l’allineamento e la slit function del monocromatore, la caratterizzazione del rumore di fondo del radiometro sono tutti parametri che influenzano l’esito della misura. Le misure delle SRF di 4 radiometri (3 Kipp&Zonen UV-S-AE-T e uno Yankee UVB-1) sono state effettuate presso il Laboratorio di Arpa Piemonte e i risultati sono stati confrontati con quelli ottenuti per gli stessi radiometri dal Laboratorio PMOD/WRC di Davos e dal Laboratorio di Kipp&Zonen. Si sono ottenute differenze entro il 15% nell’intervallo spettrale compreso tra 280-370 nm per i radiometri Kipp&Zonen e nell’intervallo spettrale compreso tra 280-338 nm per il radiometro Yankee, nonostante le variazioni di 3 ordini di grandezza della SRF. Le differenze rientrano nell’incertezza sperimentale e sono riconducibili all’incertezza sull’allineamento e sulla tensione di fondo del radiometro e alla differente slit function. Per lunghezze d’onda maggiori le differenze risultano superiori a causa della bassa sensibilità del radiometro. Ai fini di determinare la matrice di taratura dei radiometri è inoltre opportuno misurarne la ARF e valutarne la deviazione dalla risposta coseno. Per un radiometro Kipp&Zonen è stata effettuata questa misurazione e interconfrontata con l’analoga ottenuta dal Laboratorio di Davos, ottenendo un ottimo accordo con delle differenze non superiori al 5% tra 0 e 85°. Le differenze ottenute nelle misure delle SRF e della ARF comunque non influiscono significativamente sui valori assunti dalla matrice di taratura, come è stato evidenziato nel calcolo della matrice stessa, dove si sono registrati scarti non superiori al 5%. 179 BIBLIOGRAFIA 1. Gröbner J, Schreder J, Kazadzis S, Bais AF, Blumthaler M, Gorts P, Tax R, Koskela T, Seckmeyer G, Webb AR, Rembges. Traveling reference spectroradiometer for routine quality assurance of spectral solar ultraviolet irradiance measurements. Applied Optics 2005 2. Gröbner G, Hülsen G, Vuilleumier L, Blumthaler M, Vilaplana JM, Walker D, Gil JE. Report of the PMOD/WRC-COST Calibration and intercomparison of erythemal radiometers. 2006 3. Hülsen G., Gröbner J, Characterization and calibration of ultraviolet broadband radiometers measuring erythamally weighted irradiance. Applied Optics, 2007 4. International Commission on Illumination (CIE). Erythema reference action spectrum and standard erythema dose. CIE S 007/E;1998. 5. Schreder J, Gröbner J, Lox A, Blumthaler M. Intercomparison of monochromatic source facilities for the determination of the relative spectral response of erythemal broadband filter radiometers. Optics Letters 2004 6. World Health Organization. Global solar UV-Index. A pratical guide. Disponibile su http://www.unep. org/PDF/Solar_Index_Guide.pdf; 2002 180 Articoli Dosimetria numerica a bassa frequenza: risultati preliminari di un interconfronto tra diversi software Falsaperla R.(1), Andreuccetti D.(2), Ardoino L.(3), Barbieri E.(3), Contessa G.M.(1), Pinto R.(4), Polichetti A.(5), Zoppetti N.(2) 1 Istituto Nazionale per l’Assicurazione contro gli Infortuni sul Lavoro, Settore Ricerca – Dipartimento Igiene del Lavoro, Via Fontana Candida 1, 00040 Monte Porzio Catone (Roma); [email protected] 2 Consiglio Nazionale delle Ricerche, Istituto di Fisica Applicata “Nello Carrara”, Via Madonna del Piano 10, 50019 Sesto Fiorentino (Firenze) 3 ISPRA, Servizio di Metrologia Ambientale, Via Vitaliano Brancati 48, 00144 Roma 4 ENEA, Unità Tecnica Biologia delle Radiazioni e Salute dell’Uomo, Centro Ricerche Casaccia, Via Anguillarese 301, 00123 Roma. 5 Istituto Superiore di Sanità, Dipartimento di Tecnologie e Salute, Viale Regina Elena, 299 – 00161 Roma INTRODUZIONE L’approccio alla valutazione dei rischi per la salute connessi alle esposizioni ai campi elettromagnetici sul quale vi è maggior consenso a livello internazionale si basa sul sistema delle restrizioni di base e dei livelli di riferimento. Esso è stato recepito in Italia sia in ambito occupazionale (D.Lgs. 81/2008), sia per la popolazione generale, seppure in questo caso limitatamente ai campi generati da sorgenti non riconducibili né agli elettrodotti, né ai sistemi fissi delle telecomunicazioni e radiotelevisivi (DPCM 8/07/2003). Secondo questo approccio, in prima istanza è necessario confrontare le grandezze di tipo “radiometrico”, legate all’intensità del campo elettromagnetico imperturbato, con i rispettivi livelli di riferimento prescritti dalla normativa. Se uno di questi livelli è superato, può essere opportuna una verifica del rispetto delle restrizioni di base: queste coinvolgono le grandezze “dosimetriche”, cioè le grandezze fisiche indotte nel corpo del soggetto esposto e più direttamente connesse agli effetti sanitari che si intende prevenire. La dosimetria elettromagnetica si occupa della determinazione delle grandezze dosimetriche avvalendosi di tecniche sperimentali, analitiche o numeriche. Queste ultime hanno mostrato le maggiori potenzialità ed hanno portato recentemente allo sviluppo di pacchetti software commerciali che si affiancano ai programmi messi a punto in ambiti di ricerca. La proposta di applicativi per le basse frequenze (fino a qualche centinaio di chilohertz) è tuttora limitata e la loro diffusione scarsa: anche per questo non ne è disponibile una validazione estesa ed esaustiva e non ne sono completamente note le condizioni di applicabilità a situazioni particolari. Realizzare un confronto quantitativo tra i risultati ottenuti da programmi diversi applicati a problemi standardizzati può fornire una validazione alternativa a quella sperimentale, alquanto onerosa e non sempre possibile. In questo contesto si inserisce il presente lavoro finalizzato ad effettuare un confronto quantitativo sui risultati di elaborazioni dosimetriche derivate da diversi pacchetti software applicati a casi di studio opportunamente definiti. Obiettivi primari di questo interconfronto consistono nella possibilità di dare risposta ad una serie di esigenze tra cui: • validare i risultati dosimetrici di ogni singolo applicativo, in modo più approfondito di quanto sia fattibile attraverso verifiche sperimentali o confronti con soluzioni analitiche di problemi elementari; • stabilire se – e fino a che punto – programmi distinti, applicati alla soluzione del medesimo problema, forniscano risultati compatibili, pur facendo uso di metodi diversi per la modellizzazione delle sorgenti e/o per la formulazione e la soluzione numerica delle equazioni di accoppiamento con l’oggetto esposto; • ricavare indicazioni sul livello tipico di accuratezza che può caratterizzare i risultati della dosimetria numerica. In generale, l’interconfronto può evidenziare i punti di forza ed i limiti dei pacchetti software analizzati, in modo da individuare gli ambiti applicativi più adatti ad ognuno di essi. I risultati dello studio potranno, auspicabilmente, essere utili per indagare quantitativamente il rapporto tra 181 restrizioni di base e livelli di riferimento stabiliti dagli organismi protezionistici in funzione della frequenza e delle conducibilità e quindi il margine di cautela associato ai modelli dosimetrici utilizzati dalle linee guida internazionali (ICNIRP, 2010). MATERIALI E METODI Al momento l’interconfronto coinvolge tre applicativi per le basse frequenze: due commerciali (SEMCAD X di SPEAG e EMS di CST) e uno sviluppato presso il CNR-IFAC di Firenze. Il protocollo messo a punto per effettuare lo studio, illustrato nel dettaglio nel paragrafo seguente, si basa su un insieme di simulazioni standardizzate applicate a geometrie semplici (sfera, cilindro, ellissoide, parallelepipedo) in modo di assicurare la ripetibilità dei test effettuati. Si tratta di un protocollo aperto che potrà pertanto essere esteso ad altri software eventualmente disponibili in futuro e ad altre frequenze o situazioni di esposizione standardizzate. GLI APPLICATIVI I tre applicativi presi in considerazione per la dosimetria numerica alle basse frequenze, SEMCAD X (SPEAG, 2011), SPFD di IFAC (Zoppetti, 2009), EMS (CST, 2011), fanno uso della cosiddetta approssimazione quasi-statica, applicata in maniera diversa, permettendo in questo modo una grande semplificazione delle equazioni che descrivono l’accoppiamento tra campo elettromagnetico e soggetto esposto. Per poter applicare l’approssimazione quasi statica si devono considerare verificate tre distinte condizioni. La prima condizione permette di trascurare gli effetti di propagazione e di considerare il campo elettrico ed il campo magnetico come agenti fisici indipendenti, che danno origine a due problemi distinti: il problema elettrico ed il problema magnetico. Tale condizione è verificata quando le dimensioni del problema, intese come massima dimensione del teatro espositivo, sono piccole rispetto alla lunghezza d’onda. La seconda condizione introduce un’ulteriore semplificazione del problema magnetico ed è applicabile quando le dimensioni dell’oggetto esposto sono piccole rispetto alla profondità di penetrazione; da questa condizione deriva che gli effetti dei campi magnetici prodotti dalle correnti indotte nei tessuti siano ridotti, e quindi il campo magnetico applicato non sia sostanzialmente perturbato dall’oggetto esposto. L’ultima condizione permette di semplificare il problema elettrico ed è verificata quando i tessuti dell’organismo esposto possono essere considerati come buoni conduttori (σ>>ωε). Di conseguenza nel soggetto esposto le correnti di spostamento sono trascurabili rispetto alle correnti di conduzione. Per la soluzione del sistema di equazioni in regime quasi-statico, il software non commerciale SPFD sviluppato da IFAC e il pacchetto software SEMCAD X (SPEAG) utilizzano il metodo Scalar Potential Finite Difference (SPFD), particolarmente adatto alla soluzione dei problemi in 3D perché porta all’equazione scalare: dove σ è la conducibilità elettrica, φ il potenziale scalare di tipo “elettrostatico”, ω la pulsazione del campo e AS il potenziale vettore dovuto alle sole sorgenti. Questa equazione viene risolta per ottenere il potenziale scalare, da cui vengono calcolate le grandezze interne (campo elettrico interno e densità di corrente). Il pacchetto Software EMS (CST), partendo sempre dall’approssimazione quasi-statica per le basse frequenze, utilizza invece una formulazione basata sul potenziale vettore magnetico (solutore Magneto Quasi-Statico MQS), che porta alla soluzione dell’equazione: dove JS è la densità di corrente delle sorgenti. Nel caso di solidi disomogenei, come spiegato più avanti, EMS richiede l’utilizzo di un solver basato sulla soluzione delle equazioni di Maxwell nella forma completa (solutore “Full Wave”), che include anche il termine delle correnti di spostamento: 182 Infatti, nel caso dei solidi disomogenei, il solutore MQS non ha fornito risultati in linea con gli altri applicativi per cui gli sviluppatori, interpellati, hanno suggerito di utilizzare il solutore “Full Wave”. Tale solutore ha fornito risultati migliori a scapito però di una risoluzione più bassa di quella imposta nel caso dei solidi omogenei, poiché, come prevedibile, richiede maggiori risorse di calcolo rispetto al solutore MQS, in quanto basato sulla soluzione di un sistema con un numero maggiore di equazioni. Presumibilmente a causa di questa ridotta risoluzione e per altri aspetti che andranno ulteriormente indagati, il solutore “Full Wave” ha presentato delle anomalie nella distribuzione dei valori di campo elettrico interno. Per estrarre dati congrui pertanto è stato necessario rielaborare i risultati eliminando i valori eccessivamente elevati presenti nelle code della distribuzione, verosimilmente corrispondenti alle zone di interfaccia solido/aria. CST si sta interessando per risolvere questo problema. IL PROTOCOLLO Come già evidenziato, l’obiettivo primario del protocollo consiste nell’effettuare un confronto quantitativo tra i risultati dosimetrici, in particolare valori del campo elettrico interno, forniti dai differenti pacchetti software disponibili. Allo scopo di testare in modo approfondito le caratteristiche tecniche dei vari pacchetti, il protocollo si sviluppa in differenti fasi successive, nelle quali vengono via via complicati i parametri delle simulazioni secondo il seguente schema: Frequenze di indagine • 1 Hz • scaletta con progressione geometrica nelle ELF-IF, per esempio: - 50 Hz – 500 Hz – 5 kHz – 50 kHz – 500 kHz Induzione magnetica • sinusoidale • ampiezza pari al livello di riferimento ICNIRP per ciascuna frequenza • omogenea con polarizzazione lineare (salvo casi particolari) Parametri di interconfronto • parametri statistici (media, StDev, mediana, 99%-ile, 1%-ile, 25%-ile, 75%-ile, tutto sul campo elettrico interno [V/m]; scarto relativo percentuale). L’1%-ile e il 99%-ile sono stati introdotti in quanto più rappresentativi dei valori estremi nella distribuzione reale dei dati, piuttosto che i valori massimo e minimo dedotti direttamente dalle simulazioni. Tali valori sono infatti generalmente non utilizzabili in quanto fortemente affetti da errori legati al mesh e alla gestione delle criticità da parte dei codici di calcolo. Per lo stesso motivo il 99%-ile del valore di campo elettrico interno viene indicato dall’ICNIRP quale valore rilevante ai fini della valutazione di conformità con le restrizioni di base per la bassa frequenza (ICNIRP, 2010) • parametri della simulazione (discretizzazione, numero di celle, durata, etc.) Modelli di riferimento • prima fase: interconfronto su problemi di base aventi anche soluzione analitica, cioè con geometrie solide semplici e strutture omogenee (tessuto muscolare) • • • • sfera (possibilmente con diverse risoluzioni) ellissoide di rotazione, campo parallelo all’asse di rotazione ellissoide di rotazione, campo ortogonale all’asse di rotazione parallelepipedo • seconda fase: studio delle discontinuità di conducibilità (muscolo-grasso) su geometrie semplici • • • • due sfere concentriche due semisfere con piano di separazione ortogonale al campo due semisfere con piano di separazione parallelo al campo cilindro cavo con piano di separazione parallelo all’asse • terza fase: interconfronto con modelli antropomorfi ad alta risoluzione ed elevata disomogeneità e problemi realistici 183 • • • • VHP 2 mm campo verticale VHP 2 mm campo orizzontale fronte-retro VHP 2 mm campo orizzontale destra-sinistra VHP 2 mm campo non omogeneo generato da una sorgente reale monofase standardizzata (per esempio un crogiolo ad induzione) dove con VHP viene indicato il modello di organismo sviluppato in seno al Visible Human Project (USNLM, 1994). Nella stesura del protocollo era stato previsto di inserire anche il modello descritto nella norma CEI EN 62311 (CEI, 2008) ivi appositamente definito per la validazione dei codici numerici. Si è poi deciso di non includerlo in quanto non conforme all’estrazione dei parametri statistici previsti dal nostro protocollo. Per la validazione dei software la norma prescrive infatti uno scenario espositivo basato su un parallelepipedo omogeneo di dimensioni dx = dy = 0,4 m, dz = 1,8 m, assunto come modello corporeo, e su un circuito quadrato (lato 50 mm), posto ad una distanza di 10 mm di fronte al parallelepipedo, alimentato con una corrente I = 1,0 A per simulare la sorgente di campo (Fig. 1; CEI 2008). a. Scenario per la prova di validazione b. Circuito di corrente posto di fronte al parallelepipedo Figura 1 | Configurazione di prova per la validazione software Le dimensioni relative sorgente/modello corporeo rendono del tutto inefficace tale scenario espositivo all’estrazione dei parametri statistici previsti dall’interconfronto in quanto i dati di campo elettrico interno risultano diversi da zero solo su una porzione molto limitata del volume del cuboide, con la conseguenza di una notevole mole di dati di fatto non significativi, che influenzerebbero la validità dell’analisi statistica. Al momento sono state implementate solo simulazioni afferenti alle prime due fasi. Nella prima sono state prese in considerazione semplici strutture omogenee (sfera, ellissoide, parallelepipedo), mentre nella seconda lo studio è stato esteso a solidi disomogenei ovvero costituiti da parti a conducibilità differente, allo scopo di approfondire il ruolo della conducibilità e dei contrasti di conducibilità tra tessuti confinanti sulle valutazioni di campo elettrico indotto. Tutte le simulazioni sono state effettuate considerando un campo magnetico esterno omogeneo di 1 mT (rms) con polarizzazione lineare e alla frequenza di 1 Hz. A questo scopo la sorgente è stata realizzata nel caso dei software EMS e SEMCAD X simulando due bobine di Helmholtz circolari. Per garantire un campo magnetico uniforme nel volume di interesse sono stati inizialmente posti i seguenti parametri per il sistema di bobine: • raggio: 1m • corrente di alimentazione: 1110 A (rms) Tali impostazioni, che garantiscono un’uniformità del campo magnetico dell’ordine di 10-5 nel volume di interesse, si sono rivelate idonee per le tutte le simulazioni effettuate con SEMCAD X il cui solutore in bassa frequenza permette di collocare la sorgente al di fuori del dominio di calcolo. Nel caso di EMS invece, che include la sorgente nel dominio di calcolo e impone, quindi, l’espansione dello stesso per rendere efficaci le condizioni al contorno, o si dispone di adeguate risorse di calcolo, o è necessario ridurre le dimensioni delle bobine con la possibile conseguenza di un peggioramento del grado di uniformità del campo magnetico nel volume di interesse. Avendo a disposizione due licenze del software EMS (ENEA e 184 INAIL) e una piattaforma con ingenti risorse di calcolo solo presso la sede ENEA, le simulazioni con EMS sono state effettuate con le bobine di raggio 1 m sulla piattaforma ENEA e con le bobine di raggio 30 cm (r = 30 cm; I rms = 334 A) sulla piattaforma INAIL, configurazione che garantisce comunque un’uniformità del campo magnetico dell’ordine di 10-3. A fronte di questo aspetto, EMS mostra una certa versatilità nella scelta del “mesh” che può essere a tetraedri (Fig.2) o esaedri (cubi), consentendo la possibilità di una migliore rappresentazione dello scenario in funzione delle forme geometriche in gioco. a. Mesh tetraedri sul dominio di calcolo b. Particolare mesh tetraedri in prossimità dell’oggetto Figura 2 | EMS. Visualizzazione della mesh tetraedri Nel caso del software SPFD_IFAC, non essendo necessario simulare la sorgente, è stata data direttamente in input al modello una distribuzione di campo magnetico uniforme definita ad hoc. Ad oggi sono stati presi in considerazione i seguenti modelli di riferimento: FASE I – Solidi omogenei Parametri comuni alle simulazioni: f = 1 Hz; B = 1 mT; σ = 1 S/m • Caso 1. Sfera (raggio 46 mm); campo magnetico parallelo all’asse z (Fig.3a) • Caso 2. Ellissoide Bz (asse maggiore 46 mm; asse minore 20 mm); campo magnetico parallelo all’asse z (Fig.3b) • Caso 3. Ellissoide Bx (asse maggiore 46 mm; asse minore 20 mm); campo magnetico parallelo all’asse x (Fig.3c) • Caso 4. Parallelepipedo a base quadrata (lato di base 80 mm; altezza 40 mm); campo magnetico parallelo all’asse z (Fig.3d) a. Caso 1. Sfera omogenea b. Caso 2. Ellissoide omogeneo Bz (campo orienatato lungo asse z) 185 c. Caso 3. Ellissoide omogeneo Bx (campo orientato lungo asse x) d. Caso 4. Parallelepipedo omogeneo Figura 3 | Differenti modelli Fase I FASE II – Solidi non omogenei Due tessuti di differente conducibilità separati dal piano X = 0; Parametri comuni alle simulazioni: f = 1 Hz; B = 1 mT; campo magnetico parallelo all’asse z • conducibilità σ1 = 0.1 S/m (coordinate x negative) • conducibilità σ2 = 1 S/m (coordinate x positive) • Caso 5. Sfera (raggio 46 mm) (Fig. 4a) • Caso 6. Cilindro disomogeneo (raggio interno 20 mm; raggio esterno 46 mm; altezza 60mm) (Fig. 4b) a. Caso 5. Sfera disomogenea b. Caso 6. Cilindro disomogeneo Figura 3 | Differenti modelli Fase II Le simulazioni EMS e SEMCAD X sono state fatte girare su piattaforme hardware che dispongono almeno di 2 GB di RAM, ampiamente superiori a quella base richiesta dai codici (515 MB). RISULTATI A seguito dell’effettuazione delle simulazioni, sono state condotte sui dati di campo elettrico interno le elaborazioni statistiche previste dal protocollo. Come valutazione dell’affidabilità dei risultati è stato scelto un criterio di scarto relativo percentuale Sk, valutato sulla base della seguente formula per tutti i parametri di interconfronto Ek [V/m]: dove la variabile k si riferisce ai vari applicativi (EMS_INAIL, EMS_ENEA, SEMCAD X, SPFD_IFAC) ed Ē[V/m] è la media sui valori di Ek. Relativamente alla Fase I (solidi omogenei) si presentano i risultati ottenuti con SEMCAD X, IFAC e EMS (MQS) utilizzato con le due possibili opzioni relative alle dimensioni delle bobine, in particolare EMS_INAIL si riferisce alle simulazioni effettuate con bobine di raggio r = 30 cm, mentre EMS_ENEA a quelle effettuate 186 con bobine di raggio r = 1m (tab. 1-4). Per quanto riguarda la Fase II (solidi disomogenei) si presentano i risultati del Caso 5 (sfera disomogenea) derivati da SEMCAD X, SPFD_IFAC e EMS_INAIL quale esempio applicativo del solutore “Full Wave” (tab. 5). Relativamente al Caso 6 (cilindro disomogeneo), si presentano solo i risultati di SEMCAD X e di SPFD_ IFAC in quanto quelli di EMS non si sono rivelati congrui (tab.6). Si riportano di seguito le tabelle riepilogative dei risultati di tutti gli applicativi . I valori si riferiscono tutti al campo E espresso in V/m. Nel caso della sfera omogenea, che rappresenta il più semplice tra quelli esaminati, le elaborazioni statistiche sono state calcolate anche sui dati della soluzione analitica. Nella tabella seguente si riportano pertanto i parametri descrittivi calcolati sia sui dati dedotti dalle simulazioni che, nella colonna di destra, sui dati della soluzione analitica (tab. 1) Tabella 1 | Fase I - Caso 1: Risultati Sfera omogenea (in V/m) C1 – sfera EMS_INAIL EMS_ENEA SEMCAD X SPFD_IFAC StDev Sol analitica Media distribuzione(*1) 8,56E-05 8,39E-05 8,43E-05 8,50E-05 7,40E-07 8,50E-05 Minimo(*2) 2,01E-07 1,26E-06 2,22E-06 0,00E+00 - 0 Massimo 2,36E-04 1,44E-04 1,80E-04 2,07E-04 - 1,44E-04 1%-ile (min) 1,27E-05 1,14E-05 1,10E-05 1,13E-05 7,69E-07 1,18E-05 25%-ile (*2) 6,04E-05 5,98E-05 5,97E-05 6,04E-05 3,77E-07 6,04E-05 50%-ile (Mediana) 8,70E-05 8,66E-05 8,68E-05 8,78E-05 5,35E-07 8,79E-05 75%-ile 1,13E-04 1,12E-04 1,11E-04 1,12E-04 8,16E-07 1,12E-04 99%-ile (-> max) 1,65E-04 1,39E-04 1,40E-04 1,43E-04 1,23E-05 1,41E-04 Tabella 2 | Fase I - Caso 2: Risultati Ellissoide (in V/m) C2 – ellissoide Bz EMS_INAIL Media (*1) 3,82E-05 EMS_ENEA SEMCAD X SPFD_IFAC StDev 3,75E-05 3,66E-05 3,69E-05 6,87E-07 Minimo 8,02E-07 9,62E-07 6,62E-07 0,00E+00 - Massimo 1,00E-04 1,07E-04 7,42E-05 9,04E-05 - 1%-ile (min) 7,42E-06 7,42E-06 5,08E-06 4,52E-06 1,53E-06 25%-ile 2,69E-05 2,61E-05 2,58E-05 2,59E-05 4,99E-07 50%-ile (Mediana) 3,84E-05 3,80E-05 3,80E-05 3,80E-05 1,71E-07 75%-ile 4,85E-05 4,80E-05 4,80E-05 4,85E-05 2,89E-07 99%-ile (max) 7,07E-05 6,80E-05 6,32E-05 6,42E-05 3,47E-06 Tabella 3 | Fase I - Caso 3: Risultati Ellissoide (in V/m) C3 – ellissoide Bx EMS_INAIL EMS_ENEA SEMCAD X SPFD_IFAC StDev Media(*1) 4,83E-05 4,75E-05 4,59E-05 4,63E-05 1,11E-06 Minimo 9,06E-07 3,41E-07 2,62E-06 0,00E+00 - Massimo 1,78E-04 1,84E-04 1,22E-04 1,44E-04 - 1%-ile (min) 6,22E-06 7,36E-06 5,26E-06 5,64E-06 9,18E-07 25%-ile 3,26E-05 3,60E-05 2,90E-05 2,93E-05 3,28E-06 50%-ile (Mediana) 4,67E-05 4,62E-05 4,37E-05 4,36E-05 1,65E-06 75%-ile 6,47E-05 6,40E-05 6,12E-05 6,22E-05 1,61E-06 99%-ile (max) 1,06E-04 1,01E-04 9,68E-05 9,84E-05 4,07E-06 Note alle tabelle questa Media rappresenta la media dei valori della distribuzione volumetrica del campo all’interno dell’oggetto ed è estratta come parametro di confronto: non ha, quindi, alcun valore statistico. (*2) il Minimo e il Massimo sono estratti a puro titolo dimostrativo della scarsa affidabilità dovuta a diversi fattori tra cui il fatto che spesso sono localizzati in prossimità di criticità morfologiche (superfici di discontinuità, spigoli, etc) e quindi sono affetti da errori legati alla gestione della griglia di calcolo. Non sono pertanto utilizzati come parametro di confronto. (*1) 187 Tabella 4 | Fase I - Caso 4: Risultati parallelepipedo (in V/m) C4 – parallelep EMS_INAIL EMS_ENEA SEMCAD X SPFD_IFAC StDev Media (*1) 8,04E-05 8,84E-05 8,75E-05 8,77E-05 3,76E-06 1%-ile (min) 1,21E-05 1,39E-05 1,40E-05 1,40E-05 9,45E-07 25%-ile 6,09E-05 - 6,64E-05 6,52E-05 2,89E-06 50%-ile (Mediana) 8,13E-05 8,91E-05 8,35E-05 8,41E-05 3,29E-06 75%-ile 1,03E-04 - 1,11E-04 1,11E-04 4,62E-06 99%-ile (max) 1,49E-04 1,63E-04 1,61E-04 1,63E-04 6,69E-06 Tabella 5 | Fase II - Caso 5: Risultati sfera disomogenea (in V/m) C5 – sfera EMS_INAIL SEMCAD X SPFD_IFAC StDev E (σ=1) Media 5,40E-05 5,39E-05 5,44E-05 3,00E-07 Minimo 1,23E-06 8,31E-07 0,00E+00 - Massimo 3,55E-04 1,46E-04 1,45E-04 - 1%-ile (min) 8,31E-06 7,52E-06 7,73E-06 4,10E-07 25%-ile 3,66E-05 3,75E-05 3,83E-05 8,33E-07 50%-ile (Mediana) 5,18E-05 5,12E-05 5,22E-05 5,28E-07 75%-ile 7,20E-05 6,98E-05 7,00E-05 1,25E-06 99%-ile (max) 1,07E-04 1,23E-04 1,08E-04 8,84E-06 E (σ=0,1) Media 1,36E-04 1,36E-04 1,38E-04 1,14E-06 Minimo 6,17E-05 5,41E-05 4,98E-05 - Massimo 2,41E-04 2,81E-04 3,03E-04 - 1%-ile (min) 7,96E-05 8,08E-05 8,18E-05 1,08E-06 25%-ile 1,10E-04 1,13E-04 1,15E-04 2,40E-06 50%-ile (Mediana) 1,35E-04 1,35E-04 1,37E-04 1,14E-06 75%-ile 1,57E-04 1,56E-04 1,58E-04 9,55E-07 99%-ile (max) 2,16E-04 2,15E-04 2,19E-04 2,05E-06 Tabella 6 | Fase II – Caso 6: Risultati Cilindro cavo disomogeneo (in V/m) C6 – cilindro cavo E(σ=1) E(σ=0,1) SEMCAD X SPFD_IFAC SEMCAD X SPFD_IFAC Media 4,13E-05 4,13E-05 1,90E-04 1,91E-04 1%-ile (min) 2,65E-06 2,85E-06 1,43E-04 1,39E-04 25%-ile 2,36E-05 2,41E-05 1,82E-04 1,84E-04 50%-ile (Mediana) 3,97E-05 4,04E-05 1,88E-04 1,89E-04 75%-ile 5,78E-05 5,78E-05 1,96E-04 1,98E-04 99%-ile (max) 8,65E-05 8,60E-05 2,37E-04 2,49E-04 I valori dello scarto relativo percentuale sono risultati inferiori al 10% in tutti i casi esaminati con valori più elevati solo in corrispondenza dell’1%-ile e del 99%-ile. Inoltre, nei casi dei solidi omogenei, non si è riscontrata in genere una differenza rilevante nei risultati ottenuti dalle simulazioni EMS effettuate con le due differenti dimensioni delle bobine (r = 30 cm/r =1 m). A titolo esemplificativo si riportano, nel caso della sfera omogenea, i valori dello scarto relativo percentuale per tutti i parametri statistici, calcolati rispetto ai parametri derivati dalla soluzione analitica (tab.1) anziché, solo in questo caso specifico, rispetto al valor medio. 188 Tabella 7 | Sfera omogenea. Scarto relativo percentuale Media EMS_INAIL EMS_ENEA SEMCAD X SPFD_IFAC 0,7 1,3 0,8 0,0 1%-ile 7,8 3,5 6,9 4,5 25%-ile 0,0 0,9 1,1 0,0 50%-ile 1,1 1,5 1,3 0,1 75%-ile 0,7 0,2 1,1 0,2 99%-ile 16,9 1,5 0,8 1,0 DISCUSSIONE E CONCLUSIONI Si è intrapreso un interconfronto tra applicativi per la dosimetria numerica dei campi elettromagnetici in bassa frequenza (fino a qualche centinaio di chilohertz), strumenti necessari per la verifica delle restrizioni di base previste dalle normative. L’attenzione è stata focalizzata sulla bassa frequenza in quanto ad oggi meno indagata nell’ambito della modellistica numerica. Nel lavoro presente si sono affrontati solo alcuni aspetti del protocollo previsto che, come descritto, è molto complesso e dettagliato e sarà pertanto oggetto di studi e approfondimenti futuri. In particolare in questa prima fase dello studio un notevole impegno è stato indirizzato ad acquisire una maggiore conoscenza dei due software commerciali, EMS e SEMCAD X, sia da un punto di visto dell’utilizzo che degli aspetti teorici di base. Superata questa fase iniziale si intende approfondire i risultati presentati in questa sede utilizzando per gli stessi modelli altri parametri di valutazione, basati ad esempio sul confronto tra i valori di campo interno estratti lungo direzioni opportunamente identificate quali i raggi della sfera, allo scopo di analizzare con maggiore dettaglio le distribuzioni dei valori di campo all’interno degli oggetti. E’ importante precisare che, in base alle modalità con il quale è stato definito, il protocollo presentato risulta aperto e versatile in quanto si presta all’applicazione ad altri pacchetti software eventualmente disponibili in futuro e a nuovi casi di studio di interesse. Basandoci su quanto sviluppato al momento e sul calcolo dello scarto relativo percentuale, i risultati ottenuti dai vari applicativi nel caso dei solidi omogenei si rivelano coerenti tra loro (vedi tab.7). Il caso della sfera omogenea inoltre ha evidenziato un ottimo accordo anche con la soluzione analitica. Per quanto riguarda i casi dei solidi disomogenei, i risultati forniti dai due software SEMCAD X e SPFD_ IFAC risultano congrui in entrambi i casi di studio affrontati. L’interconfronto si è rivelato quindi un buon indicatore della coerenza tra i due applicativi basati sullo stesso metodo (SPFD), risultando uno strumento di validazione reciproca. Relativamente al software EMS è stato necessario utilizzare due solutori diversi. Per i solidi omogenei i risultati si rivelano congrui con il solutore in bassa frequenza MQS (magneto quasi-statico). Nei casi disomogenei, l’applicazione del solutore “Full Wave”, suggerito dagli sviluppatori quale alternativa al solver MQS, migliora la qualità dei risultati ma comporta una richiesta di risorse di calcolo più elevata a scapito della risoluzione imponibile e rivela delle complessità che necessitano un approfondimento di cui CST si sta occupando. Nell’insieme i risultati di questo studio, una volta completato il protocollo, contribuiranno quindi a valutare le potenzialità e le eventuali limitazioni dei programmi analizzati e lo stato dell’arte ad oggi della dosimetria numerica in bassa frequenza. BIBLIOGRAFIA 1. CEI Comitato Elettrotecnico Italiano CEI EN 62311: Valutazione degli apparecchi elettronici ed elettrici in relazione ai limiti di base per l’esposizione umana ai campi elettromagnetici (0 – 300 GHz) (2008) 2. CST - Computer Simulation Technology CST EM STUDIO® Static and low frequency design and analysis (2011) Darmstadt Germany 3. ICNIRP - International Commission on Non-Ionizing Radiation Protection: GUIDELINES FOR LIMITING EXPOSURE TO TIME-VARYING ELECTRIC AND MAGNETIC FIELDS (1 Hz TO 100 kHz) (2010), Health Physics, Vol. 99, 6:818-836 4. SPEAG SEMCAD X v14.6 User Manual (2011) Zürich Switzerland 5. USNLM. The Visible Human Project ®. Internet resource at http://www.nlm.nih.gov/research/visible/visible_human.html, (1994) U.S. National Library of Medicine 189 6. Zoppetti N. and Andreuccetti D. Review of open problems in assessing compliance with 2004/40/EC Directive exposure limit values for low frequency current density by means of numerical techniques (2009) Radiation Protection Dosimetry Vol.137, 3-4: 247-251 190 Domanda di iscrizione all’AIRP Al Presidente dell’AIRP Il sottoscritto Titolo di studio nato il residente in CAP via tel. ab. tel. uff. tel. cellulare e-mail fax altro eventuale recapito per posta AIRP: città CAP via • ha preso visione degli artt. 2, 7, 8, 9 dello Statuto e degli artt. I, II, III, IV del Regolamento AIRP • dichiara di svolgere la seguente attività nel campo della radioprotezione: in qualità di presso la seguente struttura • allega curriculum vitae • chiede di far parte dell’Associazione Italiana di Radioprotezione (AIRP) in qualità di SOCIO ORDINARIO SOCIO AGGREGATO A tal fine è presentato dai seguenti soci ordinari AIRP regolarmente iscritti (nome e cognome in stampatello): 1) Firma 2) Firma In caso di accettazione della presente domanda, il sottoscritto s’impegna a osservare lo Statuto e il Regolamento dell’AIRP, di cui ha preso doverosa conoscenza. Nota - Il testo della presente domanda di iscrizione, dello Statuto e del Regolamento sono disponibili sul sito www.airp-asso.it Data Firma INFORMATIVA PER LA TUTELA DELLA PRIVACY I dati personali contenuti nella domanda verranno trattati nel rispetto di quanto stabilito dalla Legge 196/2003 “Codice in materia dei dati personali”. In caso di ammissione alla Associazione l’indirizzo verrà usato per inviare le comunicazioni riguardanti la attività dell’Associazione e il Bollettino. Inoltre verrà inserito nell’elenco da fornire, dopo aver valutato la legittimità della richiesta, ad altre Associazioni, Enti o Ditte per la diffusione di notizie scientifiche o materiale informativo di interesse specifico. I dati potranno essere cancellati o rettificati in ogni momento su richiesta Firma per consenso