Regione Toscana mostra-convegno internazionale terrafutura buone pratiche di vita, di governo e d’impresa Firenze - Fortezza da Basso 17/19 maggio 2013 produrre 2004-20 abitare 13 X edizione | ingresso libero Dieci anni dopo: oltre la crisi, per una nuova Europa • appuntamenti culturali • aree espositive • laboratori • animazioni e spettacoli coltivare agire governare www.terrafutura.it Relazioni istituzionali e programmazione culturale Fondazione Culturale Responsabilità Etica tel. 049 7399726 - 055 2638745 email [email protected] Organizzazione evento Adescoop-Agenzia dell’Economia Sociale tel. 049 8726599 email [email protected] Energia, Ambiente e Innovazione Indice RIVISTA BIMESTRALE DELL’ENEA ANNO 58 - N. 6 NOVEMBRE-DICEMBRE 2012 Direttore Responsabile Vincenzo Ferrara 2 Editoriale 4 Intervista Comitato di Direzione Pietro Agostini, Vincenzo Artale, Giacobbe Braccio, Marco Casagni, Gian Piero Celata, Carlo Cremisini, Pierino De Felice, Roberta Delfanti, Francesco Di Mario, Roberta Fantoni, Elena Fantuzzi, Massimo Forni, Massimo Frezzotti, Massimo Iannetta, Carlo Manna, Carmela Marino, Paride Meloni, Silvio Migliori, Roberto Morabito, Aldo Pizzuto, Vincenzo Porpiglia, Rino Romani, Sergio Sangiorgi, Massimo Sepielli, Leander Tapfer, Ezio Terzini, Francesco Troiani, Marco Vittori Antisari, Gabriele Zanini Comitato tecnico-scientifico Osvaldo Aronica, Paola Batistoni, Ilaria Bertini, Paolo Clemente, Paolo Di Lazzaro, Andrea Fidanza, Stefano Giammartini, Rossella Giorgi, Giorgio Graditi, Massimo Maffucci, Laura Maria Padovani, Paolo Ruti, Emilio Santoro Comitato editoriale Valerio Abbadessa, Flavia Amato, Daniela Bertuzzi, Paola Carrabba, Paola Cicchetti, Antonino Dattola, Barbara Di Giovanni, Laura Di Pietro, Michele Mazzeo, Laura Migliorini, Paola Molinas, Rita Pascucci, Caterina Vinci Traduzioni Carla Costigliola Progetto grafico Paola Carabotta, Bruno Giovannetti Per informazioni e contatti: [email protected] Gli articoli riflettono le opinioni degli autori e non necessariamente quelle dell’ENEA Stampa Varigrafica Alto Lazio Via Cassia, km 36,300 (Zona industriale) - 01036 Nepi (VT) Focus 20 Collasso dei Maya 20 Si può scientificamente provare il crollo e della Comunicazione per l’efficienza energetica Alberto Moro 46 L’impatto dei cambiamenti climatici Studi & ricerche 50 Persistent Organic Pollutants in a Alessio Borriello 26 Politiche e misure di mitigazione e adattamento ai cambiamenti climatici: cosa è stato deciso nella Conferenza mondiale di Doha 31 Prevenire processi dannosi di cavitazione con il nuovo dispositivo CASBA 2012 Simone Mannori Maria Gaeta, Marco Rao 68 dal Mondo 69 dall'Unione Europea 72 Calendario eventi 37 Emissioni da trasporti Patto dei Sindaci: gli impegni italiani per il settore trasporti Gabriella Messina, Silvia Orchi LCOE analysis for Offshore Wind Power Plants and other competing technologies 71 dai Giornali 35 Presunto imminente Emilio Santoro 59 Simulation theory applied to the 70 dalle Istituzioni nazionali Terremoto L’Aquila 37 Pasquale Spezzano Rubriche Cavitazione Primo piano global changing climate Technical papers 29 Un’aperta violazione della privacy Emilio Santoro Finito di stampare nel mese di gennaio 2013 Natale Massimo Caminiti, Sergio La Motta Meccanica quantistica 50 Review and assessment papers della green economy in Italia Cambiamenti climatici Domenico Gaudioso Stefania Bove 23 Una opportunità di sviluppo sul sistema energetico italiano: verso una strategia nazionale di adattamento di una civiltà? Il caso dei Maya Biometano Registrazione Tribunale Civile di Roma Numero 148 del 19 aprile 2010 del Registro Stampa N. 6/2012 8 Cambiamenti climatici Pre-stampa FGE Srl - Fabiano Gruppo Editoriale Regione San Giovanni, 40 - 14053 Canelli (AT) e-mail: [email protected] Efficienza energetica World view Edizione web Antonella Andreini, Daniela Bertuzzi, Concetta Manto Promozione Paola Crocianelli 42 42 Le tecnologie dell’Informazione Direttore editoriale Diana Savelli Coordinamento editoriale Giuliano Ghisu Prospettive 68 l’editoriale di Alberto Clò docente di economia presso l’Università di Bologna, esperto di politiche energetiche ed ex Ministro dell’Industria Commercio e Artigianato del Governo Dini La Strategia Energetica Nazionale: un compito arduo e complesso, ma necessario A zzardarsi sullo scivoloso terreno della ‘programmazione energetica’ è, da noi più che altrove, compito arduo e complesso. Per più ragioni. Ad iniziare dalle infelici passate esperienze, nonostante un tempo fosse più facile ‘programmare’: per il controllo dominante dei grandi monopoli pubblici; il forte interventismo pubblico che influenzava gran parte delle decisioni aziendali, ad iniziare dai prezzi; il minor rilievo del dualismo centro/periferia che oggi impedisce o rallenta ogni scelta. Condizioni che non facilitarono tuttavia le cose. Nessuna delle scelte programmatiche contenute nei famosi o famigerati Piani Energetici Nazionali (1975, 1977, 1981, 1985, 1988) approvati dal Parlamento con maggioranze plebiscitarie, ebbe infatti seguito mentre quel che di nuovo è accaduto non era stato previsto. Tempi comunque lontani. Disegnare una nuova Strategia Energetica Nazionale (SEN) – quale quella proposta nel Documento di consultazione pubblica del Ministero Sviluppo Economico – è scelta poi complessa per i rivoluzionari mutamenti istituzionali intervenuti negli ultimi due decenni: con la trasformazione dei grandi gruppi da enti pubblici a società private, prodromica al loro collocamento; la liberalizzazione dei mercati energetici; il trasferimento di un sempre maggiore potere decisionale a Bruxelles; l’istituzione dell’Autorità di regolazione che ha sottratto poteri al Ministero dello Sviluppo Economico; la riforma costituzionale che ha reso la materia energetica concorrente a livello locale. L’insieme di questi mutamenti ha prodotto tre conseguenze: (a) ha reso le politiche Coniugare politica energetica, energetiche orfane degli strumenti di un tempo: aiuti di Stato, monopoli, enti politica ambientale e politica pubblici, controlli amministrativi; (b) ha spostato il centro delle decisioni dallo Stato industriale elaborando apposite alle imprese, tese al perseguimento di interessi particolari e non più generali; (c) procedure per unificarle, riportando ha ristretto il ruolo dello Stato centrale col trasferimento di potere agli enti locali e le decisioni al livello più alto a Bruxelles, cui si sarebbe dovuto rispondere con un rafforzamento del nostro ruolo nei processi di negoziazione/formazione delle direttive. Quel che non è accaduto. attraverso articolate procedure Di questi cambiamenti non sembra esservi gran consapevolezza nel dibattito che di indirizzo programmatico tra va sviluppando sulla proposta di SEN: continuando i più a ragionare su quel che la Parlamento e Governo politica dovrebbe fare o non fare, su chi dovrebbe o meno agire, su quali soluzioni intraprendere, con gli stessi paradigmi del passato. Come se a decidere (sul mix delle fonti, le tecnologie, gli investimenti, la diversificazione) fosse ancora lo Stato dirigista attraverso il braccio operativo delle aziende pubbliche. Dal che la domanda da cui bisognerebbe partire: quale valore normativo possa assumere un disegno programmatico – di cui pure tutti sottolineano la necessità – in un sistema di mercato in cui le decisioni spettano ai soggetti privati; con gli ex-enti pubblici che perseguono l’interesse dei loro azionisti; col ruolo dello Stato che si limita all’individuazione di finalità pubbliche nella speranza che le convenienze di mercato possano corrispondervi. Nel discutere di SEN sarebbe quindi necessario aver chiaro cosa essa non è: evitando l’equivoco – largamente presente nei commenti che vanno affastellandosi – di un ritorno al passato. Lo Stato non ha più i margini per intervenire direttamente né è l’agente più informato a determinare le tecnologie più efficienti, il loro sviluppo ottimale, le provenienze geografiche degli approvvigionamenti e quant’altro. Spetta ai soggetti privati decidere se, quando, dove investire e cosa fare. Verso quale direzione far muovere le loro decisioni e con quali strumenti (senza dover ricorrere ogni volta a incentivi che disattenderebbero l’obiettivo della riduzione dei prezzi) è il compito della politica e della regolazione. Il “come fare” è altrettanto se non più importante del “cosa fare”. Asse portante di una nuova strategia non può che essere – spiace dirlo per chi detesta anche la sola parola – una qual sorta di programmazione con una triplice funzione. Individuare, in primo luogo, le esigenze di sviluppo che garantiscano l’equilibrio domanda/offerta e il soddisfacimento di finalità di interesse generale, quale quelle delineate nella SEN (crescita, competitività, ambiente, 2 EAI Energia, Ambiente e Innovazione 6/2012 e EAI Energia, Ambiente e Innovazione l'editoriale sicurezza). Assicurare, in secondo luogo, un’armonica coerenza delle decisioni dei diversi livelli decisionali: onde evitare le incongruenze, incertezze, contraddittorietà evidenziatesi nel recente passato. Verificare, infine, che le decisioni degli agenti muovano nel senso auspicato e, in caso contrario, predisporre – attraverso l’Autorità di regolazione e altri organismi pubblici – gli strumenti per colmare eventuali distonie. Nel merito, la programmazione dovrebbe sostanziarsi nella fissazione di una scheda di priorità verso cui si vuol tendere – data la complessità, eterogeneità, contraddittorietà dei possibili obiettivi – da sostanziarsi in poche e chiare “linee strategiche” seguendo una politica integrata delle risorse domanda/offerta. Non ultimo: considerare la politica energetica come parte integrante della politica economica, perché condizione per accrescerne ricchezza, competitività, benessere. In una tal prospettiva, la politica energetica dovrebbe costituire parte integrante della politica economica per lo sviluppo, alla pari di quelle sul lavoro o in materia fiscale, da inserirsi nei piani nazionali di riforma che ogni paese è tenuto a presentare agli organismi comunitari. Questo significa, come ha recentemente evidenziato Italiadecide, “coniugare politica energetica, politica ambientale e politica industriale elaborando apposite procedure per unificarle [….] riportando le decisioni al livello più alto attraverso articolate procedure di indirizzo programmatico tra Parlamento e Governo” già positivamente adottate in tema di finanza pubblica. Superare, in altri termini, la frammentazione e incoerenza delle decisioni ed il localismo esasperato, da cui derivano particolarismi e conflittualità che in nome di un’errata concezione della partecipazione riconosce a ciascuno un diritto di veto costituendo la maggior barriera al perseguimento di interessi unitari. Superare queste barriere sarebbe cosa comunque opportuna. Lo è ancor di più e in modo urgente nella drammatica situazione della nostra economia: schiacciata dai vincoli di finanza pubblica; dalla ristrettezza del credito alle imprese; dalla caduta della domanda interna. L’energia può e deve costituire una delle leve per riprendere un percorso di crescita, come accadde nel primo Novecento negli anni del “decollo” della nostra economia imperniata sulla fonte idroelettrica, o nel Secondo Dopoguerra negli anni del “miracolo economico” con la valorizzazione delle risorse interne di gas naturale. Quanto sin qua detto è condizione pregiudiziale, ad avviso di chi scrive, di qualsiasi tentativo di elaborazione di un nuovo disegno di politica energetica. Come lo è l’individuazione di una solida e condivisa metodologia con cui confrontare le diverse opzioni in termini di costi/benefici rispetto alle diverse finalità che si intendono perseguire. Infine, non ultima condizione: individuare il livello istituzionale deputato a svolgere questa valutazione incrociata degli obiettivi, degli effetti delle scelte proposte per conseguirli, degli eventuali scostamenti tra dinamica effettiva delle cose e obiettivi attesi. Chiarendo l’assetto delle responsabilità – chi fa che cosa – dei diversi soggetti pubblici che interagiscono nel sistema energetico italiano, ivi inclusa ENEA, definendone più puntualmente la missione e dotandola delle risorse necessarie alla bisogna. Ridisegnare la governance energetica e conferire valenza normativa alla SEN sono le imprescindibili pre-condizioni per garantirle una qualche significatività. Quel che potrebbe essere soddisfatto dall’assegnazione nel Documento – formalmente approvato dal Governo e auspicabilmente fatto proprio dal Parlamento in un apposito ordine del giorno – di specifiche deleghe attuative ai vari organismi pubblici deputati ad ogni specifico compito. Dibattere dei contenuti della SEN – tra chi ne propone un’estensione a tutto lo scibile umano in una proiezione di lunghissimo termine e chi la vorrebbe restringere a poche affermazioni; tra chi ne critica ogni quantificazione e chi non ne vorrebbe alcuna – non fornisce alcun contributo costruttivo, tenuto anche conto dell’incertezza politica che avvolge ogni futura decisione. Non chiediamo, quindi, alla SEN di essere ciò che non può e non deve essere. Approfittiamo, piuttosto, di questa opportunità per definirne sul piano metodologico presupposti e finalità partendo dalla drammatica situazione della nostra economia che imporrebbe di puntare da subito a quelle azioni che possono fornire un contributo all’uscita dalla crisi. 6/2012 3 l’intervista a cura di Roberto de Ritis Intervista con il Commissario dell’ENEA: Giovanni Lelli N el corso dei recenti Stati Generali della Green Economy (vedi riquadro in fondo) è stato presentato il Rapporto “Green Economy per uscire dalle due crisi“, realizzato dalla Fondazione per lo Sviluppo Sostenibile e dall’ENEA. Il Rapporto ha posto l’accento su otto settori strategici per una conversione “green” dell’economia italiana: ecoinnovazione, efficienza e risparmio energetico, fonti energetiche rinnovabili, uso efficiente e rinnovabilità dei materiali e riciclo dei rifiuti, servizi ambientali, filiere agricole di qualità, mobilità sostenibile, finanza e credito per la green economy. Abbiamo intervistato il commissario dell’ENEA, ing. Giovanni Lelli, appena riconfermato alla guida dell’Agenzia, sulle prospettive della “green economy”, e, in particolare, sul contributo che l’ENEA, quale Agenzia che opera attivamente in campo energetico e dell’innovazione tecnologica, può dare allo sviluppo socio-economico sostenibile dell’Italia. Ecco qui di seguito cosa ci ha detto. • Innanzitutto partiamo da cosa si intende precisamente per green economy La green economy è uno strumento di sviluppo sostenibile basato sulla valorizzazione del capitale economico (investimenti e ricavi), del capitale naturale (risorse primarie e impatti ambientali) e del capitale sociale (lavoro e benessere). Non rappresenta quindi un segmento dell’economia riferito alla cosiddetta industria ambientale, ma un nuovo concetto da applicare a tutti i settori della produzione di beni e servizi, alla conservazione e all’utilizzo sostenibile delle risorse naturali, ai fini di una transizione verso un nuovo modello di sviluppo, in grado di garantire un migliore e più equo benessere per tutto il genere umano, nel rispetto dei limiti del pianeta. • Tra i 27 paesi membri dell’Unione europea, l’Italia occupa soltanto il 16° posto nella classifica dell’ecoinnovazione 2011. Quale cammino virtuoso possiamo intraprendere nell’immediato per migliorare questa posizione? Il passaggio alla green economy si può realizzare tramite lo sviluppo e la messa in pratica dell’ecoinnovazione, che può essere definita come lo sviluppo e la realizzazione di prodotti, processi, sistemi gestionali e servizi nuovi o ripresi dalle buone pratiche della cultura e della tradizione industriale. All’interno del gruppo di lavoro sull’ecoinnovazione che l’ENEA ha coordinato in vista degli Stati Generali della Green Economy, abbiamo messo in rilievo la necessità di varare una “Strategia nazionale per lo sviluppo e l’implementazione dell’ecoinnovazione made in Italy” che sappia coniugare la competitività delle imprese alla sostenibilità dei sistemi produttivi. L’ecoinnovazione rappresenta, infatti, un percorso indispensabile per il nostro sistema produttivo verso un “nuovo” modello economico a basso tenore di carbonio, efficiente nell’uso delle risorse e socialmente inclusivo. Per fare un esempio concreto dell’impegno dell’ENEA in questo settore, nel 2011 abbiamo avviato il progetto “Ecoinnovazione Sicilia”, che consiste in una serie di interventi sul territorio nell’ambito del turismo sostenibile e del recupero dei materiali pregiati da rifiuti di apparecchiature elettriche ed elettroniche, i cosiddetti RAEE, oltre all’avvio di una piattaforma regionale per la “simbiosi industriale”, vale a dire lo scambio di risorse tra due o più industrie dissimili. Nel settore dei RAEE, gli interventi prevedono la realizzazione di un impianto per il recupero di metalli preziosi da schede elettroniche e la progettazione di strutture pilota per la valorizzazione energetica della plastica riciclata e per il recupero di terre rare da vecchi televisori a tubo catodico. Nel campo del turismo sostenibile, il progetto mira alla gestione sostenibile dell’acqua, dei rifiuti e delle risorse naturali nelle isole Egadi, con interventi per il trattamento e il riuso delle acque reflue, la riduzione dei consumi idrici, la realizzazione di un impianto pilota di compostaggio e studi sulla qualità dell’ambiente marino e costiero. In 4 EAI Energia, Ambiente e Innovazione 6/2012 i l'intervista un’ottica di replicabilità in altre zone d’Italia, tutte queste azioni vedono il coinvolgimento di attori e portatori di interesse pubblici e privati presenti sul territorio, in modo da promuovere la consapevolezza delle imprese, soprattutto delle PMI, riguardo la necessità di interagire tra loro per sviluppare concretamente uno dei principali concetti alla base della green economy, vale a dire la chiusura dei cicli delle risorse. Inoltre, con l’obiettivo di trasferire sul mercato il grande patrimonio di metodologie e strumenti che l’ENEA ha sviluppato negli ultimi 15 anni sull’ecoinnovazione e sull’approccio del ciclo di vita, abbiamo costituito una società spin-off, Ecoinnovazione srl, che offre analisi degli impatti ambientali di prodotti e servizi, per rendere la variabile ambiente un elemento vincente per la competitività dell’azienda. • A che punto è lo sviluppo delle fonti rinnovabili in Italia? Nel 2011 le fonti rinnovabili hanno rappresentato oltre il 13% del consumo totale lordo di energia, con una crescita del 7% rispetto all’anno precedente, l’incremento maggiore tra tutte le fonti di energia. Nel nostro Paese questo settore dà lavoro a oltre 100 mila persone e siamo diventati il primo mercato al mondo nel fotovoltaico, con 9,3 GW installati nel 2010, pari ad un incremento di cinque volte e mezzo. Ciò è stato possibile grazie agli incentivi che hanno determinato una grande promozione della domanda. Adesso, però, gli incentivi al fotovoltaico dovranno sempre più tener conto della necessità di premiare la qualità e non la quantità degli impianti, in modo da stabilizzare la domanda e sviluppare un’offerta nazionale al momento decisamente carente, visto che continuiamo ad importare tecnologia dall’estero. Non in tutti i settori delle rinnovabili l’offerta nazionale è così deficitaria. Fa eccezione, ad esempio, il solare termodinamico a concentrazione ad alta temperatura, una tecnologia di cui l’ENEA può rivendicare con orgoglio la paternità. Con un piccolo contributo finanziario dello Stato, abbiamo sviluppato in 10 anni un prototipo, arrivando a realizzare nel 2010, insieme all’ENEL, il primo impianto industriale in Sicilia. Contemporaneamente, abbiamo qualificato una filiera nazionale di imprese, che sono diventate leader mondiali nella fornitura di componenti per questo tipo di tecnologia, basati su brevetti ENEA e per quali percepiamo royalties. Se oggi un’azienda straniera volesse realizzare un impianto di questo tipo, deve acquistare i pezzi in Italia dalle industrie che fanno parte di questa filiera. Vorrei poi aggiungere un altro esempio che riguarda la biomassa, una delle fonti rinnovabili più interessanti, in quanto si può accumulare e conservare e non è quindi soggetta alla saltuarietà delle altre fonti rinnovabili: l’ENEA ha sviluppato una tecnologia di produzione di bioetanolo, ingegnerizzata e industrializzata da un gruppo italiano, Mossi & Ghisolfi, che sta realizzando in Piemonte un impianto per la produzione di 40 mila tonnellate annue di questo biocombustibile, ricavato dalla canna di fiume. • Ci sono altri esempi di filiere nazionali che si sono sviluppate grazie al contributo dell’ENEA? Sicuramente posso citare l’esempio della fusione nucleare, dei cui programmi europei, primo tra tutti “ITER”, l’ENEA è da 20 anni coordinatore nazionale. Le aziende italiane che hanno lavorato con noi in questo programma si sono qualificate in prodotti ad alto contenuto tecnologico, arrivando ad aggiudicarsi oltre la metà dei primi ordini fatti dall’Unione Europea. • Efficienza e risparmio energetico rappresentano un altro dei settori strategici in cui investire, che ruolo può giocare l’ENEA in qualità di Agenzia nazionale per l’efficienza energetica? L’efficienza energetica è tornata al centro dell’attenzione come lo strumento più idoneo al raggiungimento degli obiettivi di riduzione dei consumi energetici europei al 2020 e il documento di Strategia Energetica Nazionale, che ha presentato recentemente il Ministro dello Sviluppo Economico, la indica tra le sette priorità del medio periodo per il rilancio dell’economia italiana. Una maggiore efficienza energetica comporta il contenimento dei consumi senza diminuire i livelli produttivi e le prestazioni energetiche, potendo ottenere EAI Energia, Ambiente e Innovazione 6/2012 5 l’intervista di conseguenza risparmi economici, vantaggi ambientali, minor dipendenza energetica e maggior competitività delle imprese. Oltre a supportare la pubblica amministrazione con azioni tecnico-scientifico, l’ENEA conduce attività di ricerca e sviluppo per aumentare l’efficienza nella produzione e nell’utilizzo dell’energia da oltre 30 anni. Vorrei poi sottolineare il fondamentale supporto fornito dai nostri tecnici nell’ambito dei Certificati Bianchi, uno dei più importanti sistemi di finanziamento oggi a disposizione delle aziende italiane per gli interventi di efficienza energetica, e dei meccanismi di detrazione fiscale per interventi di riqualificazione energetica delle abitazioni, il cosiddetto 55%. Infine, ricordo che l’ENEA, nell’ambito dalla “Ricerca di sistema elettrico”, svolge attività nel campo delle nuove tecnologie per il risparmio elettrico nell’illuminazione pubblica che hanno portato anche alla costituzione del network Lumière per la diffusione dei risultati sul territorio e le tecnologie smart per l’integrazione dell’illuminazione pubblica con altre reti di servizi energetici. • A proposito di “smart”, che ruolo potranno svolgere le smart grid nell’efficienza complessiva del sistema elettrico? Il ruolo delle smart grid sarà sempre più rilevante alla luce della previsione di un crescente ricorso alle fonti rinnovabili, a seguito dell’attuazione della Direttiva comunitaria del 2009. Il nostro sistema attuale è ancora basato sulla produzione di energia da poche grandi centrali e non riesce a gestire molte fonti distribuite sul territorio e con le caratteristiche dell’aleatorietà tipica dell’eolico e del fotovoltaico: sarà quindi inevitabile il passaggio a una generazione diffusa in grado di integrare le azioni di tutti gli utenti connessi per distribuire l’energia in modo “intelligente”, efficiente, sostenibile, sicuro ed economicamente vantaggioso. Non più solo una rete di distribuzione sostanzialmente passiva, che trasporta l’energia in una sola direzione, con un controllo centralizzato, linee, interruttori e trasformatori, ma anche flussi di potenze bidirezionali e reti attive, fatte di elettronica, informatica e comunicazione. La rete elettrica dovrà assomigliare sempre più al web, in cui ogni sistema di microgenerazione sia connesso in rete in modo da comunicare e ricevere dati: ogni utente potrà diventare un “prosumer”, vale a dire un consumatore e, al tempo stesso, produttore di energia. • In quali ambiti della mobilità sostenibile si concentrano le attività di ricerca e sviluppo dell’ ENEA? Le nostre attività nei diversi settori della mobilità sono improntate, da un lato, a ottimizzarne l’efficienza, dall’altro, a ridurne l’impatto ambientale. Stiamo sviluppando sistemi di accumulo dell’energia elettrica e dell’idrogeno, celle a combustibile e sistemi di ricarica veloce per i veicoli full-electric, ma anche materiali più leggeri per le vetture e sistemi intelligenti per la gestione del traffico. Nello sviluppo di sistemi accumulo di energia per la mobilità e per le reti elettriche che devono assorbire una quota crescente di fonti rinnovabili, abbiamo puntato molto sulle batterie a ioni di litio, che garantiscono notevoli prestazioni ed elevati livelli di sicurezza. A queste attività si aggiungono le nostre ricerche sul miglioramento della qualità dei combustibili, in particolare sui biocarburanti di terza generazione, vale a dire quelli che non entrano in competizione con la catena alimentare. • Come si può conciliare l’investimento nella ricerca pubblica in tempi di crisi economica e spending review? In momenti di crisi economica e sociale, la capacità di sviluppo del know-how può aiutare il Paese a vedere la luce in fondo al tunnel, perché è solo la ricerca che produce innovazione e rende competitive le aziende e l’intero sistema. Essendo l’Italia un paese importatore di materie prime, le esportazioni devono puntare sul valore aggiunto conferito ai prodotti; ed è la ricerca pubblica e privata che ha la capacità di innestare questo valore nei cicli produttivi. L’importanza di investire in ricerca dipende anche dal fatto che molte tecnologie sviluppate per un progetto di “nicchia” trovano poi applicazione anche in prodotti di largo 6 EAI Energia, Ambiente e Innovazione 6/2012 l'intervista consumo, come nel caso del teflon per le padelle antiaderenti, che all’inizio era servito per l’arricchimento dell’uranio nell’ambito del Progetto Manhattan guidato da Enrico Fermi e in seguito per la costruzione della serie di razzi Saturno V, usati per le prime missioni lunari USA. Per restare in ambito ENEA, ricerche realizzate in programmi energetici, come nel caso del nucleare da fissione o dei film sottili per il fotovoltaico o per il solare termodinamico, hanno consentito di sviluppare tecnologie che ora utilizziamo per valorizzare e preservare il patrimonio artistico, per la diagnostica medica e per dispositivi antisismici da applicare agli edifici civili. In poche parole, il potenziale del trasferimento tecnologico rende esponenziale qualsiasi tipo d’investimento in ricerca, ma questo non sembra essere percepito in Italia, che resta ancora largamente sotto la media europea; anzi, stiamo accentuando questo divario con ulteriori tagli, nonostante i dipendenti dei vari enti di ricerca rappresentino oggi appena il 5 per mille del pubblico impiego. Nel caso dell’ENEA, le erogazioni dello Stato non coprono neanche il costo per il nostro personale, senza poi contare che abbiamo l’onere di mantenere in efficienza un enorme patrimonio strumentale, da preservare e valorizzare al servizio del Paese. Comunque, di fronte a questo scenario vorrei ricordare che negli ultimi tre anni abbiamo aumentato di oltre il 100 per cento la nostra capacità di acquisire risorse sul mercato, attraverso la partecipazione a programmi europei e nazionali e fornendo servizi alle imprese e alle Amministrazioni pubbliche. Gli Stati Generali della Green Economy Gli Stati Generali della Green Economy si sono tenuti a Rimini il 7 ed 8 novembre 2012 nell’ambito di Ecomondo-Key Energy, la Fiera internazionale del recupero di materia ed energia e dello sviluppo sostenibile. La manifestazione è stata promossa da 39 organizzazioni di imprese italiane rappresentative del settore, in collaborazione con la Fondazione per lo Sviluppo Sostenibile e il Ministero dell’Ambiente. “Le imprese che hanno preparato gli Stati Generali sono imprese che fanno, che hanno risultati e che dimostrano che la green economy in Italia è la chiave per uscire dalla crisi”, ha detto il Ministro dell’Ambiente, Corrado Clini, in apertura dei lavori, che sono stati poi chiusi dal Ministro dello Sviluppo Economico, Corrado Passera. Otto gruppi di lavoro hanno preparato questo evento, elaborando un Programma di sviluppo della green economy per contrastare la doppia crisi, economica e ambientale, che sta coinvolgendo il nostro Paese. Questo programma è articolato in 70 proposte per lo sviluppo dei seguenti settori chiave dell’economia “verde”: 1.ecoinnovazione; 2.ecoefficienza, rinnovabilità dei materiali e riciclo dei rifiuti; 3.efficienza e risparmio energetico; 4.fonti energetiche rinnovabili; 5.servizi ambientali; 6.mobilità sostenibile; 7.filiere agricole di qualità ecologica; 8.finanza e credito sostenibili per la green economy. Queste proposte rappresentano una strada concreta da intraprendere non solo per promuovere un nuovo orientamento generale dell’economia italiana che apra nuove possibilità di sviluppo, durevole e sostenibile, ma anche per far fronte alle due crisi, attraverso l’analisi dei potenziali positivi, degli ostacoli, nonché delle politiche e delle misure necessarie per lo sviluppo di un primo gruppo di settori strategici. Oltre a questa piattaforma programmatica, gli Stati Generali hanno discusso il rapporto “Green Economy per uscire dalle due crisi”, realizzato dalla Fondazione per lo Sviluppo Sostenibile e dall’ENEA, che offre una dettagliata analisi sulla posizione dell’Italia in un processo che sta investendo le economie mondiali, mettendo a fuoco i nodi irrisolti e gli ambiti rispetto ai quali è più urgente un deciso cambio di marcia. Nonostante permangano alcune debolezze, soprattutto nel settore dell’ecoinnovazione e del riciclo dei rifiuti, gli Stati Generali hanno confermato che in Italia la green economy costituisce il settore più innovativo che crea occupazione, contrasta la recessione ed è proiettato sui mercati internazionali. EAI Energia, Ambiente e Innovazione 6/2012 7 World View Nazioni Unite: regole obsolete rendono inconcludenti i negoziati L e strutture e i processi che regolano i negoziati delle Nazioni Unite sono ormai obsoleti e inadeguati, anzi costituiscono un ostacolo per giungere ad accordi efficaci. E’ questo il risultato di una ricerca dell’Università della “East Anglia” e del “Tyndall Centre for Climate Change Research”, pubblicata sul numero del 19 ottobre della rivista “Nature Climate Change” (http://www. nature.com/nclimate/journal/vaop/ ncurrent/full/nclimate1742.html). L’esempio più clamoroso è rappresentato dal negoziato sui cambiamenti climatici che si trascina da 18 anni in modo assolutamente inconcludente e fallimentare. Uno dei principali ostacoli alle decisioni è costituito dalla regola del “consenso” in vigore alle Nazioni Unite. Questa regola, infatti, interpretata come unanimità, blocca i negoziati, facendo rimandare di volta in volta le decisioni e alla fine impedisce l’attuazione di azioni, a danno soprattutto dei paesi più poveri. Inoltre, la regola del consenso che è già di difficile attuazione quando i delegati sono in numero limitato, non permette di decidere quando 8 EAI Energia, Ambiente e Innovazione 6/2012 il numero dei delegati diventa enorme. Se si intende rivedere la regola del consenso, allo stesso modo deve essere rivista la partecipazione ai negoziati. Infatti, per quanto riguarda quelli sui cambiamenti climatici, dopo una iniziale fase costruttiva, la situazione è andata via via peggiorando in un crescendo di inconcludenza quasi proporzionale alla numerosità delle delegazioni. Ogni sessione negoziale che si tiene annualmente, vede aumentare il numero di delegazioni e soprattutto di delegati. Dai 757 delegati in rappresentanza di 170 paesi nella prima sessione negoziale (COP1) tenuta a Bonn nel 1995, siamo passati a 10.591 delegati di 194 paesi nella quindicesima sessione (COP-15) di Copenhagen, quella più famosa per un clamoroso fallimento. In pratica, nei primi 15 anni di negoziati c’è stato un incremento di delegati del 1400 %, ma l’incremento non ha riguardato solo i delegati governativi, ma anche i delegati delle organizzazioni non governative che, scarsamente presenti nelle prime sessioni negoziali, hanno raggiunto nel 2009 la cifra record di 13.500 delegati in rappresentanza di 937 organizzazioni non governative. Tuttavia, l’aumento a dismisura del numero di delegati non ha riguardato tutte le delegazioni, ma principalmente quelle dei paesi industrializzati, esclusi gli USA, e quelle dei cinque paesi emergenti (Cina, India, Brasile, Messico e Sud Africa), mentre viceversa i paesi più poveri hanno addirittura ridotto il numero dei loro delegati. Gli Stati Uniti, dopo l’uscita dal Protocollo di Kyoto nel 2001, hanno mantenuto una delegazione limitata. Con l’aumento del numero dei delegati non sono parimenti cresciuti la qualità e il profilo dei negoziatori, infatti ora tra nelle delegazioni ci sono molti meno esperti sui problemi trattati e molti più politici e, questo ha comportato nel tempo una variazione del processo negoziale. In conseguenza di ciò, i paesi con un numero maggiore di delegati, per lo più politici, hanno maggiori capacità di indirizzare ed egemonizzazione le discussioni sui propri obiettivi politici. Gli autori dello studio raccomandano di stabilire regole precise di partecipazione e di (Caterina Vinci) Sussidi: combustibili fossili battono rinnovabili 6 a 1 I l quadro energetico mondiale sta evolvendo in modo inaspettato e, per quanto riguarda i cambiamenti climatici, anche drammatico. La produzione di combustibili fossili nel Nord America (USA e Canada) si sviluppa velocemente diffondendo nel mondo petrolio e gas non convenzionale. Aumenta fortemente la produzione petrolifera in Iraq, tanto da superare tendenzialmente la produzione di idrocarburi della Russia e nello stesso tempo si diffondono ulteriormente le tecnologie eoliche e solari e l’uso efficiente dell’energia, mentre diminuisce in alcuni paesi il ricorso all’energia nucleare. Quali nuovi scenari si prospettano per il futuro in campo energetico? È quanto affronta ed esamina l’ultimo rapporto World Energy Outlook 2012 dell’Agenzia Internazionale dell’Energia (IEA) presentato a Londra il 12 novembre scorso (http:// www.worldenergyoutlook.org/ publications/weo-2012/). La domanda mondiale di energia crescerà entro il 2035 di oltre un terzo rispetto ad oggi. Il Nord America diventerà un esportatore netto di petrolio e gas non convenzionale, modificando così gli attuali equilibri mondiali dii flussi energetici. La produzione di petrolio e gas del Medio Oriente sarà assorbita per circa il 90% dall’Asia, ma soprattutto da Cina e India, dove aumenterà del 21% anche la domanda di carbone. L’Iraq diventerà il secondo esportatore mondiale di petrolio. Ma la cosa più clamorosa evidenziata dal nuovo Rapporto IEA è che, nonostante la crescita delle fonti energetiche rinnovabili che diventeranno la seconda fonte energetica mondiale, i combustibili fossili continueranno a mantenere nel mondo la loro posizione dominante come fonte di energia. Questo dominio è sostenuto da una quota crescente di sussidi che vengono costantemente elargiti ai combustibili fossili. A livello globale nel 2011 i sussidi ammontavano alla cifra record di 523 miliardi di dollari, con un balzo del 30% in più rispetto all’anno precedente. In pratica, i combustibili fossili hanno goduto e godono di sussidi che sono di ben sei volte superiori agli incentivi (circa 88 miliardi di dollari) che vengono erogati per promuovere le fonti rinnovabili compresi i biocombustibili. Secondo il rapporto, con la prospettiva di sussidi crescenti ai combustibili fossili non vi è dubbio che i livelli di emissione di anidride carbonica tenderanno di certo a diminuire, anzi cresceranno senza sosta portando il surriscaldamento climatico globale al 2100 a ben 3,6 °C rispetto all’epoca preindustriale, un valore questo ben al di sopra del valore massimo di 2 °C necessario per non destabilizzare il clima globale. EAI Energia, Ambiente e Innovazione 6/2012 World View rappresentatività limitando il numero dei delegati per ciascuna delegazione e imponendo che in ogni delegazione vi sia un’equilibrata rappresentanza della società civile del proprio paese. Non è più logico mantenere regole stabilite circa 65 anni fa quando furono fondate le Nazioni Unite e la missione delle Nazioni Unite era principalmente focalizzata a prevenire i conflitti armati dopo la terribile esperienza della seconda guerra mondiale, a risolvere in modo partecipato e consensuale i contenziosi internazionali, a combattere le discriminazioni di ogni genere per promuovere la dignità di ogni persona e i diritti umani, e ad aiutare i paesi più poveri a uscire dalle loro condizioni di sottosviluppo. Come aveva già affermato Ban Ki-moon, Segretario Generale delle Nazioni Unite, nel consueto messaggio d’inizio anno, in un mondo che è profondamente cambiato rispetto a più di mezzo secolo fa, pur rimanendo intatti i valori di base della pace, dei diritti umani, del disarmo e della sicurezza dei popoli, le Nazioni Unite devono ora essere in grado di affrontare le grandi sfide che attendono l’umanità nel prossimo futuro. E tra le grandi sfide, quella dei cambiamenti climatici è prioritaria, perché i cambiamenti del clima, al di là delle conseguenze ambientali, costituiscono una minaccia per la sicurezza energetica, la sicurezza alimentare, la sicurezza idrica e la qualità della vita di una popolazione mondiale in rapida crescita. 9 L’impegno del limite di 2 °C era stato assunto nella Conferenza di Copenhagen nel 2009 dai 194 Paesi della UNFCCC (Convenzione quadro delle Nazioni Unite sui cambiamenti climatici), poi ribadito nella Conferenza di Cancún del 2010 e in quella di Durban del 2011. In questo scenario, che appare insostenibile anche sotto il profilo dell’energia elettrica che continua a rimanere inaccessibile per 1,3 miliardi di persone, il rapporto IEA raccomanda di puntare su un “mondo efficiente” e a consumi più bassi di energia, riducendo nel contempo i sussidi ai combustibili fossili che vanno invece convertiti in incentivi per lo sviluppo di tecnologie e azioni che massimizzino l’efficienza energetica, ma anche l’uso efficiente delle risorse idriche nella produzione di energia. Il potenziale di efficienza energetica, 10 EAI Energia, Ambiente e Innovazione 6/2012 infatti, se sfruttato può dimezzare la domanda globale di energia senza penalizzare le esigenze di sviluppo socio economico, ma con grandi benefici, oltre che economici, anche sull’ambiente e il clima. La strategia per un “mondo efficiente” dovrebbe essere supportata da maggiori investimenti nella capacità di governance e di gestione dell’efficienza energetica e dell’uso efficiente delle risorse naturali a tutti i livelli. Poiché l’obiettivo climatico di limitare l’aumento della temperatura globale entro i 2 °C sta diventando, ogni anno che passa, sempre più difficile e costoso, con un “mondo efficiente” è possibile guadagnare tempo prezioso nei prossimi dieci anni per conseguire un urgente accordo globale sulla riduzione delle emissioni di gas ad effetto serra. (Daniela Bertuzzi) Smart Grid: energia sicura, accessibile e rispettosa dell’ambiente Il World Energy Council (WEC) ha lanciato un nuovo rapporto dal titolo “Smart Grids: Best Practice Fundamentals for a Modern Energy System” (http://www. worldenergy.org/publications/3940. asp), presentato in occasione del congresso mondiale del WEC a Daegu, in Corea del Sud, dal 13 al 17 ottobre 2013 e dedicato alle “azioni che devono essere prese oggi per la sicurezza energetica di domani”. Nella presentazione del rapporto è stato evidenziato che le Smart Grid sono di rilevanza prioritaria per dare una concreta risposta al trilemma energetico: energia sicura, energia accessibile, energia rispettosa dell’ambiente, un trilemma particolarmente critico nei paesi emergenti come Cina, India, Brasile e altri. Nel discorso dei rappresentanti WEC, la Corea del Sud è stata indicata come esempio pioneristico delle buone pratiche di attuazione di progetti dimostrativi delle Smart Grid. Il progetto dimostrativo in corso nell’isola di Jeju è, infatti, un esempio concreto di successo grazie all’azione combinata del settore pubblico e privato. La Smart Grid realizzata risponderà ai bisogni energetici di circa 6.000 abitazioni e dimostrerà la possibilità di commercializzazione, anche all’estero, del know-how coreano acquisito. Per il futuro, su un orizzonte temporale esteso fino al 2030, il Governo sud-coreano esistenti, oltre che in Corea, in Europa, Nord America, Giappone, Cina, India e Brasile. Tra le “best practices” citate dal rapporto figurano quelle dell’Unione Europea nell’ambito del Settimo Programma Quadro che ha finanziato alcuni progetti dimostrativi, tra cui due (Grid4EU e EcoGrid) che hanno come obiettivo lo sviluppo di tecnologie avanzate per le Smart Grid e l’ottimizzazione del funzionamento delle reti di distribuzione in presenza di generatori di energia rinnovabile. Nel Nord America, sia USA che Canada, le “best practices” riguardano le strategie di promozione di progetti dimostrativi che stimolano l’iniziativa privata e i meccanismi di mercato. L’esempio è quello della General Electric Corporation (GE) che ha siglato diverse partnership con alcune città della Georgia e ha avviato un progetto cofinanziato dal “Department o Energy” (DoE) per l’efficientamento del funzionamento della rete elettrica. Per il Giappone, dopo l’incidente di Fukushima, viene evidenziato lo sforzo verso le energie rinnovabili e i diversi progetti dimostrativi di Smart Grid in quattro città del paese. Per quanto riguarda i paesi emergenti sono riportate le iniziative della Cina che si avvale, per lo sviluppo delle Smart Grid, di un grande piano nazionale di elettrificazione del 90% del territorio, in modo da rendere accessibile l’energia elettrica ad almeno un miliardo di persone entro il 2020. L’India ha, invece, scelto di sviluppare le Smart Grid attraverso una “Task Force” nazionale di coordinamento dello sviluppo delle migliori pratiche e mediante un “Forum delle Smart Grid”, un consorzio di operatori pubblici e privati per accelerare l’attuazione dei progetti operativi. Infine, il Brasile viene citato come esempio perché, pur in assenza di meccanismi di finanziamento governativi, ha realizzato progetti dimostrativi di Smart Grid attraverso incentivi che hanno stimolato meccanismi di mercato. “Il quadro descritto – ha affermato Giorgio Graditi, esperto ENEA di reti elettriche intelligenti – mostra che lo sviluppo delle Smart Grid, che vedono fonti rinnovabili e generazione distribuita come loro principali “drivers”, rappresenta un passaggio chiave per la transizione verso un modello “low carbon”, caratterizzato da una massiva e diffusa presenza di generazione da fonti energetiche rinnovabili”. “L’evoluzione verso la ‘rete intelligente’ richiederà tempi lunghi e investimenti importanti – ha aggiunto Giorgio Graditi – tuttavia le Smart Grid possono generare benefici notevoli considerando l’effetto moltiplicatore nella resa di ciò che si spende. Le ricadute positive potranno essere ancora maggiori, se si considerano benefici quali la creazione di posti di lavoro e il conseguente volume di affari che le Smart Grid sono in grado di originare in un percorso di rivoluzione del sistema elettrico per l’affermazione di un nuovo modello energetico”. World View ha approvato un programma per promuovere le tecnologie più avanzate necessarie alla realizzazione delle Smart Grid, compresa la possibilità di quelle in corrente continua. Come illustrato nel rapporto, diversi sono i motivi che impongono lo sviluppo e la realizzazione di Smart Grid. Nei paesi industrializzati la spinta proviene soprattutto dalle necessità legate all’efficienza energetica e a una crescita economica a basse emissioni di anidride carbonica, ma anche dalla necessità di modernizzazione delle reti e delle infrastrutture elettriche che, nella maggior parte di paesi industrializzati, sono obsolete e non più adeguate alle nuove esigenze e prospettive di sviluppo. Nei paesi emergenti, invece, l’impulso verso le Smart Grid deriva soprattutto dall’esigenza di dotare i propri territori di infrastrutture elettriche efficienti, per garantire a tutta la popolazione l’accesso all’energia elettrica e consentire una rapida crescita della qualità della vita dei cittadini. In entrambi i casi (paesi industrializzati ed emergenti) l’obiettivo comune è di sviluppare le nuove tecnologie per le energie rinnovabili e la generazione distribuita che le Smart Grid sono in grado di favorire e accelerare. Il report WEC identifica, per i diversi paesi presi in considerazione e trattati più in dettaglio negli allegati, i principali “driver” che faciliteranno la realizzazione delle Smart Grid in futuro, mettendo in evidenza le diverse “best practices” già (Daniela Bertuzzi) EAI Energia, Ambiente e Innovazione 6/2012 11 World View Cambio di rotta europeo: biocarburanti “a metà” C ontinua il dibattito a livello europeo sulla sostenibilità dei biocarburanti. Il 17 ottobre scorso, la Commissione Europea ha presentato al Parlamento e al Consiglio Europeo una proposta (COM (2012) 595 final) finalizzata ad apportare delle importanti modifiche alla Direttiva del 1998 sulla qualità della benzina e del diesel (Direttiva 98/70/CE) e alla più recente Direttiva sulla promozione delle energie rinnovabili (Direttiva 2009/28/CE). La proposta deriva dall’esigenza di considerare in maniera differente l’impatto ambientale delle varie tipologie di biocarburanti immessi sul mercato, soprattutto dal punto di vista delle emissioni aggiuntive derivanti da un cambio di destinazione d’uso dei suoli (ILUC: Indirect Land Use Change). In altre parole, l’intenzione della 12 EAI Energia, Ambiente e Innovazione 6/2012 Commissione è quella di evitare che la crescente domanda di biocarburanti nell’Unione Europea (+3% nel 2011, dati EurObserv’ER) provochi un eccessivo spostamento delle produzioni alimentari verso terre non agricole, come foreste e zone umide, provocando “indirettamente” un aumento delle emissioni ad effetto serra e riducendo, di fatto, i benefici ambientali derivanti dal consumo di biocarburanti. In quest’ottica la Commissione Europea ha avanzato le seguenti proposte di emendamento delle due direttive: limitare, nel raggiungimento degli obiettivi al 2020 della Direttiva europea sulle energie rinnovabili, il contributo dei biocarburanti convenzionali la cui coltivazione è a elevato rischio di ILUC; aumentare il rendimento dei processi di produzione dei biocarburanti riducendone le emissioni di almeno il 60% e scoraggiando nuovi investimenti in impianti poco efficienti; incrementare la quota di mercato dei biocarburanti di nuova generazione (a basso ILUC), in modo tale da aumentare il loro contributo al raggiungimento degli obiettivi al 2020; obbligare gli Stati Membri e i fornitori di carburanti a dare stime relativamente all’effetto ILUC dei propri biocarburanti. Aspetto fondamentale della proposta della Commissione, è di contenere al 5% la quantità di biocarburanti e bioliquidi derivanti da colture alimentari (cereali, amido, zucchero e oli) che può essere presa in considerazione nel calcolo della quota di biocarburanti sui consumi finali di energia utilizzati nei trasporti ai fini dell’obiettivo europeo del 10%. A ciò si aggiunge la proposta di incentivare i biocarburanti che hanno un impatto basso o nullo dal punto di vista delle emissioni da ILUC, come quelli di seconda (derivati da prodotti agricoli e vegetali di scarto come paglia e rifiuti) o terza generazione (biocombustibili prodotti dalle alghe o che non impattano sull’uso dei suoli). La Commissaria per l’Azione per il clima dell’UE, Connie Hedegaard, ha sottolineato come “… I biocarburanti che usiamo devono essere autenticamente sostenibili. In futuro l’aumento nell’impiego dei biocarburanti deve basarsi su biocarburanti avanzati, perché qualsiasi alternativa risulterà insostenibile”. “La linea della Commissione Europea è assolutamente condivisibile” – ha detto Giulio Izzo esperto ENEA sulle bioenergie – perché cerca di bilanciare sia le esigenze di limitare la conversione dei terreni agricoli alla produzione di biocarburanti e di scoraggiare, quindi, gli investimenti in questa direzione, sia la necessità di sviluppare biocombustibili di seconda e terza generazione e incoraggiare, invece, lo sviluppo di pratiche e processi di produzione rispettosi del clima e ambientalmente sostenibili”. (Andrea Fidanza) A umenta il movimento dei rifiuti tra gli Stati membri dell’Unione Europea, ma anche dall’ UE verso i paesi extraeuropei. Tra il 1999 e il 2011 l’esportazione di rottami di ferro, acciaio, rame, alluminio e nickel è raddoppiata, quella a base di metalli preziosi è nel frattempo aumentata di un fattore tre e quella di rifiuti plastici addirittura di un fattore cinque. Tra il 2000 e il 2009 è raddoppiata anche l’esportazione di rifiuti pericolosi, compresi i rifiuti elettronici, anche se i volumi trasportati sono diminuiti, probabilmente a causa della depressione economica. Questo in sintesi il contenuto del nuovo rapporto dell’Agenzia Europea dell’Ambiente: “Movements of waste accross the EU’s internal and external borders”. La maggiore movimentazione di rifiuti in Europa ha aspetti positivi e negativi. Tra i primi vanno annoverate le maggiori opportunità di recupero e riciclaggio, con benefici sia dal punto di vista economico (recupero di materie prime a minor costo), sia ambientale (eliminazione discariche e riduzione dell’impatto ambientale) sia dell’uso efficiente delle risorse (il riciclaggio riduce la pressione delle attività antropiche sulle risorse ambientali). Tra gli aspetti negativi vanno evidenziati non solo l’aumento dei trasporti, che implicano maggiori consumi energetici e maggiori emissioni di gas serra, ma, per le esportazioni fuori UE, soprattutto i rischi connessi con l’uso di processi di riciclo e di recupero non sempre rispettosi dell’ambiente e della salute umana, cui si aggiungono i rischi di traffici illegali di materiali che portano al “dumping” ambientale ed economico, quando gli stessi prodotti riciclati o recuperati rientrano poi in Europa. Un’analisi più approfondita sull’aumento dei trasporti di rifiuti dentro e fuori dell’Europa mostra come l’aver introdotto in Europa un mercato comune che comprende anche il riciclo dei rifiuti e migliora la collaborazione tra paesi europei, ma soprattutto l’efficienza complessiva del sistema industriale europeo, sia senz’altro proficuo. Tuttavia, per quanto riguarda i rifiuti esportati al di fuori dell’Europa è necessario superare le carenze interne europee, sia di tipo industriale, per ampliare i processi e gli impianti di smaltimento per tipi particolari di rifiuti, sia di tipo normativo, armonizzando le leggi e i regolamenti, comprese le norme per migliorare i controlli e contrastare azioni illegali. I paesi a rapida crescita economica, come sono molti paesi asiatici, hanno bisogno di materie prime spesso ricavate dal riciclaggio dei rifiuti europei, ma questa loro necessità deve favorire la cooperazione internazionale, in modo da passare da una crescente competizione globale sull’accaparramento delle materie prime naturali, a una consapevolezza maggiore del “valore” del rifiuto come risorsa fondamentale per lo sviluppo socio economico. Questa cooperazione, se ben impostata, scoraggerebbe anche i traffici illegali di rifiuti che spesso si traducono in un danno per l’Europa e gli operatori industriali ed economici europei. L’aumento della movimentazione dei rifiuti non va, comunque, visto come un aspetto di per sé negativo se il materiale trasportato viene riciclato e utilizzato al meglio in altri luoghi. “In un mondo con risorse limitate e vincolate, l’obiettivo di fondo da non perdere di vista” – come ha affermato Jacqueline McGlade, direttore esecutivo dell’Agenzia Europea dell’Ambiente – “deve essere in primo luogo quello di ridurre clamorosamente l’ammontare dei rifiuti che l’Europa produce”. World View L’UE esporta più rifiuti, inclusi quelli pericolosi (Daniela Bertuzzi) EAI Energia, Ambiente e Innovazione 6/2012 13 Luci e ombre sulla sicurezza nucleare in Europa: conclusi gli stress test dopo Fukushima I test di resistenza (stress test) condotti sugli impianti nucleari hanno mostrato che le normative di sicurezza nucleare in Europa sono generalmente di alto livello. Tuttavia è emerso che non tutte le norme promosse dall’Agenzia Internazionale per l’Energia Atomica (AIEA) e non tutte le migliori pratiche internazionali vengono applicate negli Stati membri e, dunque, è necessario procedere con misure legislative dirette a rafforzare ulteriormente la sicurezza nucleare in Europa. Alla luce dei risultati acquisiti, la Commissione Europea, infatti, intende presentare agli inizi del 2013 una revisione dell’attuale direttiva sulla sicurezza nucleare, con particolare riferimento ai requisiti di sicurezza, al ruolo e ai poteri delle autorità di regolamentazione nucleari e alla trasparenza sull’attività di monitoraggio. A ciò faranno seguito proposte aggiuntive sia sugli aspetti concernenti l’assicurazione e la responsabilità in materia nucleare, sia sui massimi livelli consentiti di contaminazione radioattiva negli alimenti e nei mangimi. È questo in sintesi il contenuto della “Comunicazione della Commissione Europea” presentata il 4 ottobre 2012 al Consiglio e al Parlamento Europeo (COM(2012)571 final) a seguito dell’attuazione, su tutti gli impianti nucleari europei, degli “stress test” decisi dal Consiglio 14 EAI Energia, Ambiente e Innovazione 6/2012 Europeo nel marzo 2011, dopo l’incidente nucleare di Fukushima. Gli “stress test” erano finalizzati a valutare la sicurezza e la robustezza degli impianti delle centrali nucleari in caso di eventi naturali estremi, in particolare inondazioni e terremoti, inclusi anche gli incidenti aerei particolarmente gravi e tali da portare all’interruzione del normale funzionamento degli impianti di sicurezza e dei sistemi di raffreddamento. I reattori nucleari europei esaminati sono stati 145, di cui, però, 132 funzionanti, dislocati in 15 dei 27 paesi membri dell’Unione Europea. La maggior parte dei reattori (sono 58) si trova in Francia, segue la Gran Bretagna con 19 reattori e la Germania con 17, poi la Svezia con 10 reattori, la Spagna con 8, il Belgio con 7, la Repubblica Ceca con 6, la Finlandia con 4 e, infine, gli altri sette paesi rimanenti con 1 o al massimo 2 reattori ciascuno. Agli stress test dell’Unione Europea hanno partecipato anche la Svizzera e l’Ucraina. I risultati degli “stress test” hanno messo in risalto alcuni problemi di attuazione delle migliori pratiche e dei migliori standard internazionali, tra cui: Rischio sismico: in 54 reattori (circa il 37% del totale) gli attuali standard di prevenzione relativi al rischio sismico non sono stati presi in considerazione. Invece di considerare terremoti di riferimento la cui probabilità ha tempi di ritorno superiori ai 10 mila anni, sono stati considerati terremoti di riferimento con tempi di ritorno molto più brevi. Rischio alluvioni e inondazioni: in 62 reattori (circa il 43% del totale) i moderni standard di prevenzione per questo tipo di rischio non sono stati presi in considerazione. Anche qui sono stati considerati riferimenti aventi una probabilità corrispondente a tempi di ritorno anche molto inferiori ai 10 mila anni, contrariamente a quanto richiede, invece, lo standard internazionale. Attrezzature per far fronte a incidenti severi: in 81 reattori (circa il 56% del totale) le attrezzature non sono collocate in aree protette accessibili anche in caso di catastrofe. Strumentazione di monitoraggio sismico in loco per le allerte e gli allarmi: tale strumentazione non è disponibile in 121 reattori (circa 83% del totale). Sistemi di ventilazione con filtro all’involucro del contenimento per permettere la depressurizzazione sicura del contenitore del reattore in caso d’incidente: tali sistemi non sono disponibili in 32 reattori (circa il 22% del totale). Difettano, inoltre, le procedure per le operazioni di emergenza in 57 reattori (39% del totale), la predisposizione di linee guida per la gestione delle emergenze in 79 reattori (54% del totale), le misure passive in 40 reattori (28% del (Daniela Bertuzzi) World View totale), la mancanza di una seconda sala di emergenza in 24 reattori (17% del totale) e altri problemi di sicurezza minori. Pertanto, la Commissione ha formulato una serie di raccomandazioni da attuare al più presto possibile da parte degli Stati membri, tra cui la ratifica, da parte dei paesi che non hanno ancora provveduto, degli emendamenti alla Convenzione sulla protezione fisica e sui materiali nucleari, l’applicazione delle raccomandazioni dell’AIEA sulla protezione fisica e le attività di cooperazione di ciascuno Stato membro nello scambio di informazioni sulla sicurezza nucleare, con gli Stati confinanti. La Commissione ha, inoltre, fatto sapere che nel frattempo intende procedere con il rafforzamento delle misure sulla sicurezza nucleare in Europa, attraverso la revisione, entro il 2013, della direttiva europea sulla sicurezza nucleare, includendo in questa revisione anche gli eventi derivanti da atti di terrorismo e da commercio illegale di materiale radioattivo. Infine, la Commissione porterà avanti azioni collaterali di sostegno, quali un maggiore impegno per la preparazione professionale e l’addestramento degli addetti alle operazioni nucleari e la presentazione di una serie di proposte di ricerca scientifica sulla sicurezza nucleare e la protezione sanitaria da inserire nel nuovo programma quadro europeo “Horizon 2020”. Disinquinare corpi idrici dal petrolio? Si può, grazie alle nanotecnologie R icercatori del MIT di Boston (Massachusetts Institute of Technology) hanno sviluppato una nuova tecnica che consente di separare magneticamente il petrolio dall’acqua. Questa tecnica farebbe finalmente fronte al problema dell’inquinamento causato dalle fuoriuscite di greggio e consentirebbe inoltre una notevole riduzione di costi per la ripulitura delle acque inquinate, in quanto il petrolio recuperato potrebbe essere riutilizzato. I risultati della ricerca, condotta da un’equipe guidata da Shahriar Khushrushahi del Dipartimento di Ingegneria Elettrica e Informatica del MIT, di cui fanno parte anche i professori Markus Zahn e T. Alan Hatton, verranno presentati alla 13th International Conference on Magnetic Fluids che avrà luogo a New Delhi nel gennaio 2013. La ricerca condotta, sulla quale l’equipe ha già presentato due brevetti, si basa sull’inserimento di nano-particelle ferrose idrorepellenti all’interno del petrolio, in grado di trasformarlo in un liquido magnetico noto con il nome di ferro fluido. Una volta avvenuta questa trasformazione, il ferro fluido potrà essere separato dall’acqua mediante magneti che attireranno la miscela nell’impianto di pompaggio, dove questa verrà lavorata al fine del suo riutilizzo. “I risultati di questa ricerca sono molto interessanti per il disinquinamento dei corpi idrici contaminati da petrolio, soprattutto perché in grado di facilitare un rapido recupero del petrolio sversato” – ha detto Massimo Maffucci, esperto ENEA di bonifiche e riqualificazione ambientale – “Tuttavia, questa tecnologia potrebbe non essere economicamente conveniente, nonostante la sua efficacia tecnologica” – ha aggiunto Maffucci – “perché l’aggiunta di additivi (nano-particelle ferrose) al petrolio per la sua trasformazione in ferro fluido comporta dei costi presumibilmente elevati”. (Paola Molinas) EAI Energia, Ambiente e Innovazione 6/2012 15 World View Più cambiamenti climatici più i rischi per la salute, ma l’informazione può aiutare C on il cambiamento del clima globale aumentano i rischi per la salute umana. È quanto emerge dall’Atlante della salute e del clima, pubblicato dalla WMO (World Meteorological Organization) lo scorso autunno, che illustra alcuni dei maggiori e pressanti cambiamenti che stanno emergendo. Siccità, alluvioni e cicloni colpiscono ogni anno la salute di milioni di persone. La variabilità del clima e le condizioni estreme, come le alluvioni, possono anche innescare epidemie di malattie come dissenteria, malaria, dengue e meningite, che causano morte e sofferenza di milioni di persone. L’Atlante fornisce esempi pratici di come l’utilizzo delle informazioni sul tempo e sul clima possano proteggere la salute pubblica. “Prevenzione e preparazione sono il cuore della salute pubblica. La gestione del rischio è il nostro pane e burro quotidiano. L’informazione sulla variabilità del clima e il cambiamento climatico è uno strumento scientifico molto importante che ci assiste in questo compito”, secondo quanto ha dichiarato Margaret Chan, direttore generale del WHO. “Il clima ha un profondo impatto sulla vita e la sopravvivenza delle popolazioni. L’informazione 16 EAI Energia, Ambiente e Innovazione 6/2012 climatica può avere un profondo impatto per migliorare le nostre vite e le conseguenze sulla salute”. Fino ad ora le informazioni sul clima sono state una risorsa sottoutilizzata per la tutela della salute pubblica. “Una più stretta collaborazione tra le comunità meteorologiche e quelle degli operatori della salute è essenziale per assicurare un’informazione sul clima aggiornata e accurata integrata nella gestione della salute pubblica a livello internazionale, nazionale e locale”. “Questo Atlante è un esempio pratico e innovativo di come possiamo lavorare al servizio della società”, ha affermato il segretario generale della WMO, Michel Jarraud. Nell’Atlante sono riportate numerose mappe, tavole e grafici che esplicitano il collegamento esistente tra salute e clima; in alcune zone del pianeta, infatti, l’incidenza di malattie infettive come la malaria, la dengue, la meningite e il colera può variare tra le stagioni, e in modo significativo anche tra gli anni, a seconda del meteo e delle condizioni climatiche. Servizi climatici dettagliati possono “aiutare a predire l’insorgenza, l’intensità e la durata delle epidemie”. Casi di studio mostrano come la collaborazione tra servizi meteorologici, di emergenza e sanitari stia già salvando delle vite. Ad esempio, il bilancio delle vittime “di cicloni di intensità simile in Bangladesh si è ridotto da circa 500.000 persone nel 1970, a 140.000 nel 1991, a 3.000 nel 2007, in gran parte grazie al miglioramento dei sistemi di allarme rapido e di preparazione”. Anche nel caso delle ondate di calore estive, le previsioni meteo sono state importanti per tutelare le persone a rischio, specie gli anziani, in città. E ancora: “Il passaggio a fonti di energia pulita per la casa permetterebbe di ridurre i cambiamenti climatici, e di salvare la vita di circa 680.000 bambini l’anno grazie all’inquinamento atmosferico ridotto”. L’Atlante è stato realizzato nella sessione straordinaria del World Meteorological Congress di Ginevra (29-31 ottobre 2012) dove si è discusso della struttura e dell’implementazione della bozza del Global Framework for Climate Services, lanciato con l’obiettivo di rafforzare i servizi climatici per il miglioramento della società, specialmente di quella più vulnerabile. La salute è uno dei quattro settori prioritari di intervento insieme a sicurezza alimentare, gestione dell’acqua e riduzione del rischio dei disastri. (Daniela Bertuzzi) L’ estate del 2012 è stata la seconda estate più calda dal 1800, secondo le analisi effettuate dal CNR sul clima italiano (http:// www.isac.cnr.it/~climstor/climate/ latest_season_TMM.html). Il record di surriscaldamento climatico nazionale appartiene all’estate del 2003. Invece, secondo le analisi effettuate dalla NOAA sul clima globale (http://www.ncdc.noaa.gov/sotc/ global/2012/8), l’estate del 2012 è stata la terza estate più calda dal 1880. Il record di surriscaldamento globale appartiene all’estate 1998 seguita dall’estate del 2010. Tuttavia, se si escludono le temperature degli oceani e si analizzano le sole temperature dei continenti dell’emisfero nord, l’estate 2012 è la più calda estate mai verificatasi dal 1880. Queste anomalie climatiche, che hanno causato anche siccità record negli Stati Uniti e in area mediterranea, sono state causate principalmente dall’intensificazione e dall’espansione verso nord degli anticicloni subtropicali. Si tratta di eventi rari o eccezionali? Secondo un recente studio effettuato da ricercatori americani (Duke University e Columbia University) e cinesi (Accademia Cinese delle Scienze) pubblicato su “Nature Geoscience” (http:// www.nature.com/ngeo/journal/ vaop/ncurrent/full/ngeo1590.html), si tratta, in realtà, di una tendenza in atto causata dal riscaldamento climatico globale. Lo studio ha, infatti, rianalizzato i dati di circolazione atmosferica globale degli ultimi 40 anni, per valutare in dettaglio tutti gli scambi di calore fra basse e alte latitudini e ricavare le tendenze attuali e la possibile evoluzione futura, in funzione del riscaldamento climatico, della dinamica e della termodinamica degli anticicloni subtropicali. I risultati ottenuti mostrano che gli anticicloni subtropicali, a causa di questo riscaldamento climatico globale, tenderanno a intensificarsi sempre più durante la stagione estiva. Il fenomeno, però, interesserà soprattutto quelli localizzati sugli oceani a ridosso dei continenti, per il concomitante rafforzamento della circolazione termica generata dal contrasto di temperature fra oceani e continenti. E con l’intensificazione degli anticicloni subtropicali, le situazioni di ondate di caldo eccessivo e di siccità prolungata nelle aree prospicienti la fascia subtropicale, come il sud dell’Europa e la regione sud-occidentale del nord America, diventeranno la norma piuttosto che l’eccezione. Questi risultati non sono comunque una novità, come hanno rilevato i climatologi dell’ENEA, perché già l’IPCC (http://www.ipcc. ch/) nel suo quarto “Assessment Report” del 2007 aveva rilevato che la grande circolazione atmosferica globale, dovuta al diverso riscaldamento tra equatore e poli e all’effetto della rotazione terrestre (forza di Corilolis) era in fase di cambiamento. La grande circolazione atmosferica globale è quella che determina una catena quasi permanente di alte pressioni “dinamiche” calde, che oscilla mediamente attorno ai 30° di latitudine, e un’altra catena, anch’essa quasi permanente, di basse pressioni “dinamiche” fredde, che oscilla invece attorno ai 60° di latitudine. Tra queste due catene di alte e basse pressioni, alle nostre latitudini intermedie, corrono veloci le cosiddette correnti occidentali. Già allora l’IPCC aveva mostrato che, con il riscaldamento climatico del nostro pianeta, le aree intertropicali e subtropicali più calde saranno soggette a fenomeni di espansione verso latitudini più alte, spostando di conseguenza a più alte latitudini, sia la catena degli anticicloni dinamici caldi subtropicali, sia la fascia delle correnti occidentali delle medie latitudini. Ora il recente studio dei ricercatori americani e cinesi, non solo conferma le precedenti valutazioni IPCC, ma chiarisce soprattutto l’aspetto di interconnessione fra circolazione atmosferica globale e le diverse circolazioni termiche a scala continentale e sub continentale, generate dalla differente capacità termica della superficie terrestre, tra continenti e oceani e tra mare e terra. Sono proprio queste circolazioni che estremizzano, poi, alle latitudini medio-basse, e in particolare in area mediterranea, le ondate di calore e di siccità, così come i fenomeni termo-convettivi estremi quali i cicloni extratropicali, i temporali e le trombe d’aria. World View Estati torride? C’è lo zampino degli anticicloni subtropicali in intensificazione (Caterina Vinci) EAI Energia, Ambiente e Innovazione 6/2012 17 40 milioni di euro nell’innovazione tecnologica del settore idrico: approvato il Piano strategico europeo sull’acqua Lo scorso 18 dicembre è stato compiuto un passo importante nella ricerca di soluzioni per le grandi sfide poste all’Europa in materia di gestione dell’acqua. Sotto la presidenza del Commissario per l’ambiente Janez Potocnik, il Partenariato europeo per l’innovazione (PEI), meglio conosciuto come European Innovation Partership (EIP) relativo all’acqua ha, infatti, adottato il Piano strategico di attuazione (SIP) che definisce gli ambiti d’intervento prioritari per i quali occorre trovare soluzioni. Una dotazione di 40 milioni di euro per attività di ricerca sarà destinata nel 2013 al sostegno di progetti che contribuiscono agli obiettivi del PEI relativo all’acqua. Il PEI è una nuova iniziativa strategica che l’UE ha lanciato per sostenere sempre più lo sviluppo sostenibile, creando nel contempo più e nuovi lavori, costruire una società più verde e migliorare in generale la qualità della vita dei cittadini europei, mantenendo la competitività delle aziende europee nel mercato globale. Il suo scopo principale è quello di creare un nuovo modo di collaborazione tra il settore pubblico e privato al fine di stimolare l’innovazione tecnologica e gestionale. Esistono, e verranno creati, diversi Partenariati nei vari settori, tra cui quello dell’acqua, con l’obiettivo 18 EAI Energia, Ambiente e Innovazione 6/2012 di indirizzare le attività di ricerca in un dato settore concentrandosi sui vantaggi per la società e sulla sua rapida modernizzazione, allo scopo di rinnovare i rispettivi mercati. Inoltre, il Partenariato ha lo scopo di snellire, semplificare e coordinare meglio gli strumenti e le iniziative esistenti e integrarle con nuove azioni se necessario. Questo dovrebbe rendere più facile per i partner di co-operare e ottenere risultati migliori e in tempi più brevi. Nel maggio 2012, la Commissione Europea ha avviato la European Innovation Partnership on Water per facilitare lo sviluppo di soluzioni innovative e affrontare le grandi sfide sociali, come l’acqua, e allo stesso tempo creare nuove opportunità di mercato per tali soluzioni. Essa raccoglie istituzioni nazionali e locali, imprese, mondo accademico e tutte le parti interessate a collaborare e a sviluppare innovazioni multidisciplinari a livello europeo ed extraeuropeo. Le priorità individuate riguardano sfide e opportunità nel settore dell’acqua nonché le azioni innovative che consentiranno di ottenere l’impatto più rilevante. La governance dell’acqua, i modelli di gestione e monitoraggio, il finanziamento a favore dell’innovazione sono stati individuati come priorità trasversali che incidono sulle condizioni generali, promuovono i collegamenti tra i diversi ambiti d’intervento prioritari e fungono da catalizzatori per tutte le altre azioni. Le tecnologie intelligenti costituiscono un altro fattore di sviluppo fra tutte le priorità. È stato aperto un invito a presentare proposte che si chiuderà il 4 aprile 2013 (http://cordis. europa.eu/fetch?CALLER=FP7_ NEWS&ACTION=D&RCN=34831). Per le parti interessate è inoltre aperto un invito alla manifestazione d’impegno per i gruppi d’azione del PEI relativo all’acqua: http:// ec.europa.eu/environment/water/ innovationpartnership/index_en.htm Janez Potocnik, Commissario europeo per l’ambiente, ha dichiarato in proposito: “Occorre innovazione per risolvere le sfide in materia di acqua e contribuire a realizzare gli obiettivi del Piano per la salvaguardia delle risorse idriche europee recentemente adottato. Il Partenariato per l’innovazione relativo all’acqua riunisce i soggetti privati e pubblici in grado di fornire idee al mercato. La messa in opera del Piano strategico di attuazione non si limiterà a garantire una quantità sufficiente di acqua di buona qualità per soddisfare le esigenze della popolazione, dell’economia e dell’ambiente, ma servirà a rafforzare il settore idrico europeo sui mercati globali, le cui dimensioni sono destinate a raddoppiare entro il 2030”. (Roberto Farina, Daniela Bertuzzi) Come diceva Einstein, non si possono risolvere i problemi usando la stessa mentalità e gli stessi metodi che li hanno generati. Pertanto, per trovare soluzioni sostenibili ai diversi problemi di sviluppo insostenibile, che sono presenti nella vita di oggi (dall’inquinamento dell’aria, ai cambiamenti climatici, alla distruzione della biodiversità), occorre utilizzare una diversa mentalità e altri metodi. È necessario cambiare! La proposta provocatoria di un gruppo di ricercatori francesi e canadesi, coordinati dal “Centre for Sustainable Enterprise” dell’Università Concordia di Montreal in Canada, è quella di utilizzare l’arte come il metodo più idoneo ed efficace per raggiungere lo sviluppo sostenibile (http://www.concordia.ca/now/ media-relations/communiquesde-presse/20121019/lart-dudeveloppement-durable.php) L’arte, che suscita sensazioni, emozioni e sentimenti, è ritenuta quindi lo strumento più efficace per aumentare in noi la passione verso il pianeta che ci permette la vita. E l’arte, per queste sue caratteristiche, può essere considerata la soluzione più idonea per accendere in noi il desiderio, sia di vivere in armonia con la natura, sia di procedere con uno sviluppo che sia sostenibile per il nostro pianeta. L’arte, in questo caso viene intesa in tutti i suoi multiformi aspetti, che vanno dalle grandi manifestazioni artistiche (dalla poesia, alla pittura, dalla musica alla danza ecc.), al contributo individuale fino a tutti gli aspetti della vita quotidiana. La passione, che dovrebbe poi sovraintendere ogni gesto, è in grado di sollecitare in ogni essere umano tutte le sue capacità creative e di innovazione che comprendono, oltre l’ambito delle sue attività domestiche e del lavoro, i suoi rapporti sociali, le iniziative produttive e tutte le azioni di vita quotidiana. Una tale condivisione responsabile permetterebbe agli esseri umani di unire gli sforzi, ma anche di integrarsi profondamente nell’ambiente naturale del pianeta di cui sono parte essenziale. I nostri lontani antenati, con le scarse conoscenze e le poche tecnologie disponibili in quei tempi, avevano sviluppato l’arte della sopravvivenza, quella che ha permesso loro di continuare a vivere ed evolversi fino all’uomo moderno dei nostri giorni. L’arte della sopravvivenza veniva tramandata attraverso favole, storie mitologiche, musiche e danze tribali, canti e poemi fantastici, cioè tutte manifestazioni artistiche ricche di significati, di riflessioni e di insegnamenti indiretti, utili per sviluppare istintivamente meccanismi di difesa contro gli animali feroci e i possibili predatori, contro le incognite e le insidie della vita e, non ultimo, contro i rischi delle catastrofi naturali. Analogamente, lo sviluppo sostenibile deve diventare un meccanismo istintivo di difesa dell’uomo moderno. Un meccanismo che rappresenti anche uno stimolo alle azioni più opportune da intraprendere per garantire la sopravvivenza delle future generazioni. Scienza e tecnologia, insomma, non possono essere estranee né separate dalle complesse caratteristiche della personalità umana. La proposta di “arte dello sviluppo sostenibile”, frutto della ricerca franco-canadese, sarà pubblicata sulla rivista International Journal of Technology Management. World View Arte e scienza, un binomio per lo sviluppo sostenibile (Caterina Vinci) EAI Energia, Ambiente e Innovazione 6/2012 19 Focus COLLASSO DEI MAYA Si può scientificamente provare il crollo di una civiltà? Il caso dei Maya Sul fascicolo del 9 novembre 2012 della rivista Science (vol. 338, n. 6108, pp. 788-791, doi: 10.1126/science1226299) è apparso un articolo sui risultati di una ricerca che ricostruisce in modo dettagliato il clima centro-americano tra 1000 e 2000 anni fa. Secondo gli autori della ricerca i dati acquisiti dimostrano una stretta correlazione fra collasso della civiltà dei Maya e cambiamento brusco del clima. Sull’improvvisa scomparsa della civiltà Maya abbiamo chiesto un commento ad una archeologa e divulgatrice scientifica n Stefania Bove L’ improvviso crollo della civiltà Maya è uno dei misteri archeologici dei tempi nostri ed è molto dibattuto dagli studiosi. Vi sono varie teorie che spiegano il collasso, alcune si riferiscono a un’esplosione demografica, altre al degrado ambientale o alla deforestazione, ma la più popolare sostiene che a causare la fine dei Maya fu un lungo periodo di siccità, che avrebbe innescato un peggioramento e inasprimento dei conflitti sociali e infine il crollo. La conferma di ciò viene da uno studio coordinato da Dougla Kennet, della Pennsylvania State University, e Sebastian Breitenbach del Politecnico di Zurigo, pubblicata sulla rivista Science. Gli studiosi hanno ricostruito i dati sulle precipitazioni nel corso dei secoli, grazie ai campioni raccolti da stalagmiti nella Grotta di Yok Balum, nel sud del Belize. I risultati sono stati poi confrontati con le vicende storiche scolpite sui monumenti. Essi sostengono che: “Una quantità insolitamente elevata di precipitazioni abbia favorito un’esplosione della popolazione tra il 450 e il 660 d.C. che avrebbe portato alla proliferazione di città come Tikal, Copan e Caracol. A questo periodo prospero sarebbe seguito un periodo con una generale tendenza alla siccità durato ben quattro secoli, che ha inn Stefania Bove Archeologa e paletnologa, divulgatrice scientifica, autrice testi RAI 20 EAI Energia, Ambiente e Innovazione 6/2012 nescato un calo della produttività agricola contribuendo alla frammentazione sociale e al disordine politico dei centri maya. Infine una siccità più grave si è verificata tra il 1000 e il 1100 d.C. quando i centri maya erano già in forte declino. Nei secoli successivi, le città subirono un calo nel numero degli abitanti e i re maya persero il loro potere e la loro influenza”. Il punto è perché le variazioni di precipitazioni avrebbero innescato tutta quella serie di problemi? Per capire ciò dobbiamo ricostruire l’ambiente in cui si è sviluppata la civiltà maya. Oggi chiunque visiti i siti archeologici sparsi tra lo Yucatan (Messico), il Belize e il Guatemala si accorge della giungla impenetrabile in cui si trovano gli imponenti resti delle città maya, ma non è sempre stato così, anzi l’ambiente era completamente diverso. Intanto dobbiamo fare una distinzione fra nord e sud della regione, e sulla diversa disponibilità di risorse idriche; poi sul tipo di sfruttamento agricolo e sul clima. Per secoli sembra che in questi territori ci sia stato un equilibrio, tanto da determinare il fiorire della civiltà e la nascita e lo sviluppo di centri importanti che furono abitati anche da migliaia di persone. Ma c’era una grande differenza fra il nord e il sud della penisola dello Yucatan a causa delle precipitazioni, decisamente più intense a sud (si stima che a nord la media delle precipitazioni sia stata di 457 millimetri che. Si conoscono, infatti, moltissimi bacini artificiali di raccolta dell’acqua piovana in città, riserve d’acqua che potevano però soddisfare i bisogni urbani al massimo per due anni. Questo ci lascia quanto meno un po’ perplessi: non erano a conoscenza dei rischi derivanti dalla siccità? È evidente che questo precario equilibrio idrico possa essere stato messo in crisi a causa di una prolungata siccità e che questo abbia innescato una serie di problemi relativi alla produzione agricola e agli equilibri sociali, scatenando conflitti e abbandoni. Quando il raccolto non dava i frutti previsti ad essere messo in discussione era il re, perché tra questi e i contadini esisteva una specie di “accordo”: questi ultimi garantivano l’approvvigionamento, la costruzione dei palazzi, insomma l’agiatezza e il lusso della corte, e il re prometteva loro pace e abbondanti raccolti. Se questi non avvenivano era ritenuto direttamente responsabile. Analizzando le vicende delle città maya ci si accorge che sviluppo e declino dei vari centri non avvenne nel medesimo periodo ma in epoche diverse. Copàn è una delle città più studiate: tra il 750 e l’800 d.C. raggiunse l’apogeo ma un’insensata deforestazione innescò i fe- EAI Energia, Ambiente e Innovazione 6/2012 Focus all’anno mentre al sud arrivava a 2.540 millimetri); qui si concentrano anche i suoli più ricchi e profondi, che determinarono un maggiore sviluppo della produzione agricola ed un’esplosione demografica superiore a quella della nord. Ma, perché la siccità comprovata dagli studiosi avrebbe fatto più danni nel sud piovoso che nel nord più asciutto? C’è voluto molto per capire questo e la spiegazione probabile è l’esistenza di una lunga falda di acqua dolce che scorre sottoterra lungo tutta la penisola, unitamente ad un diverso spessore del terreno che aumenta da nord a sud. Nella parte settentrionale la superficie del suolo non è molto distante dalla falda, mentre a sud lo è e poteva essere raggiunta solo attraverso la creazione di pozzi. Nei periodi di maggiori precipitazioni la disponibilità di acqua e la capacità di approvvigionamento della stessa erano in equilibrio ma nei periodi di siccità, nelle città meridionali, asciugandosi i pozzi, sarebbe stato impossibile raggiungere la falda di acqua dolce. Una situazione resa ancor più critica dal fenomeno carsico diffuso un po’ in tutta la penisola dello Yucatan. I Maya avevano presente la gestione delle risorse idri- 21 nomeni di siccità nel fondovalle, che causarono una grave crisi agricola, con una contrazione della disponibilità di terra da coltivare, ed una inevitabile e durissima lotta contro i re, il cui palazzo venne bruciato intorno all’850 d.C. La popolazione sopravvisse a quegli eventi, per scomparire qualche secolo dopo, nel 1250. Anche Chichèn Itzà cadde nello stesso periodo, Mayapàn nel 1450. Invece il crollo della grande Tikal si ebbe tra il VI e il VII secolo. Questi dati farebbero emergere un quadro del declino della civiltà maya forse meno enigmatico di quello che si vuol far apparire (in ambiti più “umanistici” s’intende!). Sembra piuttosto che ci sia stata una diversa occupazione dei territori e che gli “spostamenti” della popolazione siano stati determinati da vari fattori come un uso indiscriminato delle risorse naturali che hanno provocato intense deforestazioni e impoverimento dei suoli. A rendere ancora più critica questa situazione è stato il sopraggiungere di periodi di siccità, scientificamente provati (ricordiamo anche gli studi di Mark Brenner e David Hodell dell’Università della Florida che hanno studiato a lungo i sedimenti depositati sul fondo di alcuni fiumi). Di tutt’altro parere sembrano essere gli archeologi della Brigham Young University di Provo nello Utah. Per anni, i ricercatori hanno scavato e studiato una città perduta, Piedras Negras, in Guatemala; dimostrando che questo centro si disintegrò intorno all’anno 1000 (alla fine di un periodo di grande siccità) ma il declino non dipese dal cambiamento climatico, perché la città si trovava lungo un fiume che non si è mai prosciugato, che avrebbe potuto garantire sufficiente approvvigionamento idrico. In questo caso le lotte per la sovranità e la crisi dell’establishment, sarebbero stati determinanti. In realtà, la società maya era molto bellicosa e le città erano in perenne lotta fra loro. I Maya non costruirono mai un impero come fecero gli Inca, 22 EAI Energia, Ambiente e Innovazione 6/2012 anche se per poco tempo, o come gli Aztechi, che dominarono il Messico. Forse il destino di Piedras Nigras andrebbe letto in relazione ai rapporti con le città vicine. In definitiva in una situazione politicosociale così delicata non sorprende che i periodi più intensi di siccità, avvenuti tra il 760 e il 910, abbiano determinato la scomparsa di molti centri, risparmiando quelli dotati di riserve e pozzi. Stiamo parlando soprattutto delle pianure meridionali, dove la siccità si fece sentire maggiormente e che si spopolarono già alla fine dell’età classica. Tuttavia la scomparsa dei centri non vuol dire scomparsa della popolazione. Quando gli europei arrivarono nello Yucatan agli inizi del 1500 (il primo contatto ci fu nel 1502), vi trovarono i discendenti dei Maya e la conquista definitiva di quei territori avvenne solo nel 1697. È ipotizzabile che a partire dal 900 molte popolazioni si siano trasferite nel nord dello Yucatan, quello che meno di tutti risentì dei periodi di siccità, dando vita a nuovi insediamenti. Questa migrazione deve essere avvenuta lentamente e deve essere stata preceduta da lotte che hanno decimato la popolazione e da un generale crollo demografico dovuto ad un equilibrio molto precario di tutto il sistema. In conclusione c’è da chiedersi se i Maya avevano la percezione dei rischi che stavano correndo e un’idea di come poter affrontare la situazione. La loro vicenda può insegnarci qualcosa? Forse rispetto a loro siamo più consapevoli dei rischi derivanti da un eccessivo sfruttamento delle risorse disponibili sulla Terra. Di fatto, però, non conosciamo il processo che portò al declino di questa civiltà e non conosciamo nemmeno i rimedi che ebbero un qualche successo nel passato. Continuare a studiare per cercare di capire potrebbe insegnarci qualcosa da questo passato; starà a noi cerl care di trarne una lezione per il futuro. Focus BIOMETANO Una opportunità di sviluppo della green economy in Italia L’Italia cambia rotta sulla promozione dei combustibili alternativi: meno spazio ai biocarburanti di prima generazione a favore di quelli di seconda e, soprattutto, sostegno al biometano (gas prodotto dalla digestione anaerobica di sostanze organiche). Questo gas potrebbe avere un grande potenziale nel nostro Paese data la grande presenza di allevamenti, imprese di trasformazione alimentari e discariche. Il biometano, inoltre, presenta il vantaggio di essere commercializzabile attraverso la rete di distribuzione del gas naturale, a differenza dei biocarburanti di importazione. L’Italia, insomma, ha ora davanti a sé una strada chiara da percorrere per favorire la diffusione delle rinnovabili nei trasporti. Qui di seguito, i chiarimenti di un esperto del Governo n Alessio Borriello L’ attivazione della filiera agro-energetica del biometano si presenta come una opportunità da perseguire con forza nell’ottica dello sviluppo della green economy nel nostro Paese. Ormai da quasi 10 anni, la legislazione europea impone agli Stati membri che sia immessa sul mercato una percentuale minima di biocarburanti e di altri carburanti rinnovabili. La logica alla base dell’adozione della direttiva 2003/30/CE muoveva da almeno due considerazioni: da un lato, che “l’energia impiegata dal settore dei trasporti rappresenta[va] oltre il 30% del consumo finale di energia nella Comunità”, stimando un’ulteriore crescita del 50% negli anni successivi; dall’altro la disponibilità di “un’ampia gamma di biomassa che potrebbe essere usata per produrre biocarburanti”. In realtà, l’uso della biomassa per la produzione di biocarburanti ha, negli anni successivi, subito alcuni attacchi (e la crescita del consumo di energia nei trasporti è stata ridimensionata). Prima di tutto, si è imputato alla quota d’obbligo di biocarburanti l’effetto paradossale di aver incentivato la distruzione di aree naturali al fine di potervi coltivare piante destinate alla produzione dei biocarburanti medesimo; inoltre, posto che poteva essere più remunerati- vo destinare determinate tipologie di granaglie alla produzione di biodiesel piuttosto che al consumo umano, si è attribuito ai nuovi utilizzi a fini energetici la responsabilità, almeno parziale, di alcune ondate di rincari di alcune derrate alimentari di base. Tanto è vero che la direttiva 2009/28/CE, di modifica della 2003/30, si preoccupava di osservare nelle premesse che “l’aumento della domanda mondiale di biocarburanti e gli incentivi all’uso dei biocarburanti previsti dalla presente direttiva non dovrebbero avere l’effetto di incoraggiare la distruzione di terreni ricchi di biodiversità.” In Italia, il decreto legislativo 3 marzo 2011, n. 28, che recepisce la direttiva europea 2009/28, oltre a stabilire che la quota minima di energia da fonti rinnovabili in tutte le forme di trasporto sia pari al 10% sul consumo finale di energia nel settore dei trasporti al 2020, equipara anche il biometano agli altri biocarburanti, promuovendone l’uso nel settore trasporti. n Alessio Borriello Ministero Ambiente, Segreteria Tecnica Sottosegretario di Stato EAI Energia, Ambiente e Innovazione 6/2012 23 Focus In effetti, a ben vedere, il metano è già da tempo, almeno in alcune aree del paese, un diffuso combustibile alternativo a benzina e gasolio e il biometano potrebbe immediatamente affiancarsi ad esso. La sola sostituzione diretta al consumo di metano per autotrazione con biometano costituirebbe già un passo significativo nel raggiungimento della quota d’obbligo del 10%. Per di più, ciò potrebbe avvenire senza la necessità di importare materia prima da altri Stati (e limitando quindi le distorsioni che potrebbero determinarsi in altri settori e territori), ma anzi mettendo a frutto le potenzialità – spesso inespresse – del territorio nazionale. Per la sua conformazione geomorfologica e la sua antropizzazione, infatti, il nostro paese non è vocato alla produzione di una quantità significativa di biocarburanti di origine vegetale ed è costretto ad importare materia prima da trasformare, se non addirittura prodotti finiti, con dubbio beneficio ambientale, scarso impatto industriale ed occupazionale ed impatto negativo sulla fattura energetica. Al contrario, l’Italia può estrarre consistenti quantità di biometano da allevamenti, imprese di trasformazione alimentare, discariche. Anche senza prendere in considerazione il potenziale massimo teorico del paese (che alcuni collocano oltre gli otto miliardi di metri cubi/anno), è certamente possibile incrementare significativamente la produzione attuale che già si attesta attorno al miliardo di metri cubi. L’utilizzo del biometano per soddisfare, anche parzialmente, la quota d’obbligo del 10% determinerebbe quindi vantaggi per il sistema paese dal punto di vista fiscale, industriale e occupazionale, realizzando anche risparmi economici per via del costo minore rispetto ad altri biocarburanti. Una ulteriore vantaggiosa precondizione caratterizza poi il nostro paese in relazione all’uso del biometano per autotrazione: esso potrebbe infatti essere commercializzato direttamente attraverso la rete di distribuzione del gas naturale ad un prezzo industriale competitivo rispetto ai biocarburanti di importazione, anche includendo il margine per gli operatori e tenendo conto degli oneri di compressione e immissione (questi ultimi stimabili sui costi dello stesso servizio in Germania, mentre in Italia 24 EAI Energia, Ambiente e Innovazione 6/2012 la determinazione dovrà assoggettarsi alle prescrizioni dell’Autorità per l’energia elettrica e il gas). Per ottenere questo risultato occorrerebbe solo un periodo iniziale e transitorio di incentivazione (comunque meno gravosa di quella già riconosciuta alla produzione elettrica da biogas), oltre che, naturalmente, un assetto regolamentare definito. Peraltro, questa commercializzazione potrebbe benissimo avvenire su base contrattuale e non fisica. Così come oggi l’utilizzo di energia elettrica da fonte rinnovabile comporta la stipula di un contratto con il produttore, ma non implica necessariamente che gli elettroni siano quelli prodotti dall’impianto rinnovabile, anche per il biometano dovrebbero essere resi possibile l’immissione in rete ed il ritiro in punti di riconsegna diversi: quindi su base contrattuale, appunto, e non fisica. Infatti, come gli elettroni prodotti da fonti rinnovabili sono indistinguibili da quelli generati in altro modo, allo stesso modo una molecola di CH4 non cambia la sua natura in funzione della sua origine. Va poi sottolineato, oltre alla elevata land efficiency (energia producibile per unità di superficie agricola), anche il fatto che la relativa filiera tecnologica è già sviluppata interamente, dalla produzione alla immissione in rete. raltro, l’Italia parte avvantaggiata, avendone già la leadership europea e potendo quindi, con maggiore credibilità, puntare ad un posto di primo piano anche su altri mercati. Meno immediato, ma non impraticabile, è poi la crescita dell’utilizzo del metano, e in prospettiva del biometano, nel settore dei trasporti attraverso le nuove tecnologie del settore della raffinazione. In questo campo, sono particolarmente interessanti quelle che consentono l’utilizzo di metano, in misura più o meno rilevante, per la produzione di carburanti quali, ad esempio, la tecnologia EST (Eni Slurry Technology) o GTL (gas to liquids). Nel primo caso, si tratta di produzioni assai avanzate e che potranno determinare significativi vantaggi competitivi in maniera ambientalmente compatibile. Nel secondo caso, si producono combustibili di qualità ambientale (e tecnologica) particolarmente elevata per l’assenza, nel metano, delle tipiche impurità dei prodotti petroliferi. I suddetti vantaggi determinati dall’uso del metano in raffinazione potrebbero aumentare ancora se si creassero le condizioni (anche contrattuali, sfruttando ancora una volta le reti di trasporto e distribuzione del gas) per l’utilizzo allo stesso fine del biometano. La filiera del biometano, insomma, sfrutta materie prime, tecnologie e capitale umano interamente nazionali. Ciò attribuisce a questo prodotto una valenza assai alta, in quanto capace di conseguire diversi importanti risultati per il sistema paese: quello ambientale, attraverso la riduzione nel consumo di combustibili fossili e quindi la riduzione di emissioni di gas climalteranti e inquinanti; quello industriale, attraverso la crescita di una tecnologia nazionale che potrà, in prospettiva, essere efficacemente diffusa in molti altri paesi; quello della bilancia dei pagamenti, in cui il peso dell’import potrà essere ridotto, almeno per quanto riguarda le necessità legate al raggiungimento della quota d’obbligo sui biocombustibili. L’attivazione della filiera agro-energetica del biometano si presenta dunque come una opportunità da perseguire con forza nell’ottica dello sviluppo l della green economy nel nostro Paese. EAI Energia, Ambiente e Innovazione 6/2012 Focus Un’attenzione particolare merita poi il fatto che il metano può contribuire in maniera non minore alla decarbonizzazione del sistema dei trasporti. L’impatto della riconversione a metano di una parte del parco auto nazionale, oltre a costituire un vantaggio assoluto in termini ambientali (come è noto, la combustione del metano determina emissioni radicalmente più basse rispetto a quella dei prodotti petroliferi) potrebbe offrire opportunità interessanti anche all’industria dell’auto in termini di progettazione, produzione e commercializzazione di nuovi modelli alimentati a gas; segmento nel quale, pe- 25 Focus CAMBIAMENTI CLIMATICI Politiche e misure di mitigazione e adattamento ai cambiamenti climatici: cosa è stato deciso nella Conferenza mondiale di Doha Prolungato al 2020 il periodo di validità del Protocollo di Kyoto, un Gruppo ad hoc elaborerà il nuovo strumento legale per la riduzione delle emissioni di gas serra che entrerà in vigore dopo il 2020. Queste e altre decisioni prese nella Conferenza delle Parti firmatarie della Convenzione sui Cambiamenti Climatici e del Protocollo di Kyoto, tenutasi nel dicembre scorso a Doha (Qatar), vengono qui illustrate dai ricercatori ENEA che vi hanno partecipato n Natale Massimo Caminiti, Sergio La Motta D al 26 novembre all’8 dicembre 2012 ha avuto luogo a Doha la 18° sessione della Conferenza delle Parti firmatarie della Convenzione sui Cambiamenti Climatici e la 8° sessione della Conferenza delle Parti firmatarie del Protocollo di Kyoto. Obiettivo del meeting era quello di definire il futuro del Protocollo di Kyoto, di portare a conclusione il gruppo di lavoro sulla “Long Term Cooperative Action” istituito a Bali nel 20071 e di accordarsi sul piano di lavoro del gruppo “Ad Hoc sulla Piattaforma di Durban” istituito a Durban nel 20112. Un risultato della Conferenza di Doha è stato quello di decidere di dare continuità al Protocollo di Kyoto accordandosi per obiettivi di riduzione delle emissioni dei gas ad effetto serra per il periodo fino al 2020. Il Protocollo di Kyoto rimane, quindi, al momento, l’unico strumento legale che vincola alcuni Paesi industrializzati a impegni di riduzione delle emissioni. Tale strumento, sebbene la sua architettura generale possa n Natale Massimo Caminiti, Sergio La Motta ENEA, Unità Tecnica Modellistica Energetica Ambientale costituire un modello per accordi futuri, non risulta tuttavia in grado di assicurare la stabilizzazione delle concentrazioni in atmosfera dei gas ad effetto serra a livelli tali da contenere l’aumento della temperatura media del pianeta entro i 2 gradi centigradi come auspicato dagli accordi di Copenhagen3, visto che i Paesi industrializzati che si sono impegnati a ridurre le proprie emissioni, ovvero Unione Europea più pochi altri Paesi4, rappresentano soltanto il 15% delle emissioni mondiali. I profili di emissione compatibili con l’obiettivo dei 2 °C richiederebbero ben altri impegni: si dovrebbe, infatti, arrivare al picco delle emissioni mondiali entro questo decennio e bisognerebbe dimezzare tali emissioni entro il 20505. Purtroppo le conclusioni di Doha rendono questo obiettivo molto più difficile da raggiungere; le speranze a questo punto sono affidate ai lavori del Gruppo ad Hoc sulla Piattaforma di Durban incaricato di arrivare ad un accordo entro il 2015 per un Protocollo che abbia un valore legalmente vincolante a partire dal 2020. Le conclusioni relative al Protocollo di Kyoto A Doha si è deciso di prolungare il periodo di validità 26 EAI Energia, Ambiente e Innovazione 6/2012 al CDM che alla JI mentre i Paesi che non assumono impegni di riduzione delle emissioni al 2020 non possono utilizzare i crediti derivanti dalla partecipazione a tali meccanismi nella contabilità delle loro emissioni. Si tratta chiaramente di un tentativo di incentivare i Paesi industrializzati che non hanno assunto obblighi di emissioni, ad assumerne. Per quanto riguarda la gestione dei surplus di riduzione delle emissioni, si è deciso che i Paesi che hanno accettato di assumere impegni di riduzione delle emissioni per il secondo periodo possono istituire nel loro registro delle emissioni una riserva per i surplus relativi al primo periodo. Gli eventuali surplus possono essere utilizzati per ottemperare agli obiettivi del secondo periodo. Un Paese con obblighi di riduzione per il secondo periodo può acquistare unità di riduzione delle emissioni dai surplus di altri Paesi fino a un limite del 2% delle sue emissioni consentite nel primo periodo. Questa decisione, quindi, è un ulteriore incentivo per i Paesi, soprattutto quelli ad economia in transizione, ad assumere impegni di riduzione delle emissioni per il secondo periodo. Focus del Protocollo di Kyoto fino al 2020; questa decisione si presenta, nella sua forma legale, come un emendamento al Protocollo stesso così come previsto dagli articoli 20 e 21 del Protocollo stesso ed è contenuto nel documento FCCC/KP/CMP/2012/L.9, scaricabile dal sito del Segretariato ONU del Clima. Nel documento di cui sopra viene definito il nuovo assetto del Protocollo di Kyoto con modifiche che riguardano il periodo di validità, portato al 2020, i nuovi obiettivi quantificati di riduzione delle emissioni per i Paesi che, volontariamente, hanno accettato di assumerne, le nuove regole per il funzionamento dei meccanismi flessibili, ovvero la Joint Implementation (JI) e il Clean Development Mechanism (CDM) e, infine, le regole che definiscono l’uso dei surplus delle quote di riduzione relative al primo periodo di vigenza del Protocollo e dovute alle crisi economiche dei Paesi ad economia in transizione, surplus che alcuni Paesi definiscono “hot air” evidenziandone la natura estemporanea, non dovuta a precise politiche climatiche ma a contingenze economiche. Il secondo periodo di validità del Protocollo è stato definito come segue: inizio al 1 gennaio 2013 e fine al 31 dicembre 2020; viene quindi accettata la posizione europea che spingeva verso un secondo periodo di validità abbastanza lungo, in modo da assicurare una maggiore stabilità di regole ai possibili investitori, rispetto a quello proposto dai Paesi in via di sviluppo che avrebbero preferito un secondo periodo di validità con scadenza al 2017 in modo da non precludere, secondo la loro visione, un accordo più ampio nell’ambito del Gruppo ad Hoc della Piattaforma di Durban. Per quanto riguarda gli obiettivi di riduzione, l’Unione Europea ha assunto ufficialmente l’impegno di riduzione al 2020 del 20% rispetto ai livelli del 1990 coerentemente con tutta la sua strategia nota come 20-20-20 e ha reiterato la propria intenzione di aumentare l’impegno di riduzione al 30% nel caso che gli altri Paesi industrializzati assumessero impegni analoghi. Il Canada ha deciso di ritirarsi dal Protocollo, il Giappone e la Federazione Russa hanno deciso di non assumere impegni di riduzione al 2020, gli Stati Uniti continuano a non fare parte dei Paesi firmatari il Protocollo. Per i meccanismi flessibili si è deciso che i Paesi firmatari del Protocollo abbiano diritto a partecipare sia Long Term Cooperative Action Il gruppo di lavoro sulla “Long Term Cooperative Action” si è concluso con risultati davvero modesti se confrontati con il mandato derivante dalla Conferenza di Bali, il cosiddetto ”Piano di Azione di Bali”. Molte delle tematiche più rilevanti sono state rinviate ai lavori futuri degli organismi sussidiari della Convenzione; in particolare, il gruppo di lavoro per assicurare il finanziamento sul lungo periodo delle azioni di mitigazione e adattamento dei Paesi in via di sviluppo è stato prorogato di un anno, fino alla fine del 2013, con lo scopo di individuare meccanismi che possano assicurare la possibilità da parte dei Paesi industrializzati di contribuire, con fondi privati o pubblici, al meccanismo di finanziamento di lungo periodo per un totale di 100 miliardi di euro all’anno entro il 20206. Il Gruppo ad hoc sulla Piattaforma di Durban Il Gruppo ad Hoc sulla Piattaforma di Durban (ADP) è stato istituito con una decisione della COP17 (Durban EAI Energia, Ambiente e Innovazione 6/2012 27 Focus 2011) con il compito di elaborare un Protocollo o altro strumento legale applicabile a tutte le Parti firmatarie della Convenzione; tale lavoro deve essere finalizzato il più presto possibile e comunque non oltre il 2015 in modo da poter sottoporre la bozza di Protocollo per la sua approvazione in occasione della COP21 che avrà luogo nel dicembre 2015. L’ADP è nella fase di pianificazione del proprio lavoro che è stato diviso in due grandi filoni. Il primo filone o “workstream 1” riguarda l’avvio del processo per arrivare a definire una bozza di un Protocollo o un altro strumento legale da approvare entro il 2015, contenente impegni per tutti i Paesi a partire dal 2020. Tali impegni dovranno coprire i temi della mitigazione, dell’adattamento, della copertura finanziaria per le azioni di cooperazione, lo sviluppo e il trasferimento delle tecnologie e la capacity building. Il secondo filone o “workstream 2” riguarda l’elaborazione di un piano di lavoro per sviluppare le ipotesi di aumento delle ambizioni di mitigazione di ciascun Paese, di identificare ed esplorare le azioni che possono chiudere il gap con la prospettiva di assicurare il maggior sforzo possibile di mitigazione per i Paesi sviluppati. È stato approvato un piano di lavoro che affronta i due filoni di attività durante riunioni, workshop e tavole rotonde per tutto il 2013 e il 20147; è stato inoltre deciso che l’ADP dovrà presentare entro il 2014, in occasione della COP20, una bozza di Protocollo o altro strumento legale in modo da rendere disponibile un testo negoziale entro la COP21 come da mandato di Durban8. luppo riducano sostanzialmente i loro trend emissivi. Che cosa fare a livello globale è quindi molto chiaro, le difficoltà sorgono quando bisogna decidere il livello di impegno di ciascun Paese; in questo caso tendono a prevalere gli interessi di ciascuna delle Parti che, interpretando in maniera strumentale il principio “responsabilità comuni ma differenziate”, pregiudicano il raggiungimento di un accordo appropriato a gestire il cambiamento climatico. Questo stato di incertezza normativa disincentiva gli investimenti nel campo della mitigazione dei cambiamenti climatici e può portare, soprattutto nel caso dei Paesi in via di sviluppo, al fenomeno cosiddetto del “lock in” ovvero i capitali internazionali vanno o continuano a finanziare tecnologie non climaticamente sostenibili, a tempi di ritorno molto lunghi, rischiando di bloccare (lock in) qualsiasi sforzo futuro teso alla riduzione delle emissioni di gas clima alteranti.9 Sarà compito della Comunità scientifica, dunque, aiutare la politica a trovare le migliori soluzioni, chiarendo sempre di più il quadro del funzionamento del sistema clima, riducendo le incertezze delle valutazioni e indicando strumenti di mitigazione delle emissioni a costi sopportabili, aiutando al contempo a identificare e superare le barriere per la loro implementazione. La strada per il raggiungimento dell’obiettivo dei 2 °C, l anche se molto in salita, è ancora aperta. A Doha la comunità internazionale ha sperimentato ancora una volta la difficoltà di gestire adeguatamente la problematica dei cambiamenti climatici. I termini del problema sono stati definiti dall’Intergovernmental Panel for Climate Change (IPCC), nel suo rapporto scientifico del 2007; in tale rapporto, l’IPCC ha affermato che, per limitare l’aumento della temperatura media del pianeta a 2 °C, è necessario da una parte che i Paesi industrializzati riducano, nel loro insieme, le emissioni del 25-40% entro il 2020 e dell’80-90% entro il 2050, e dall’altra parte che i Paesi in via di svi- 28 EAI Energia, Ambiente e Innovazione 6/2012 bibliogra fia Conclusioni [1] [2] [3] [4] [5] [6] [7] [8] [9] Bali Action Plan FCCC/CP/2007/6/Add.1. Durban Platform FCCC/CP/2011/9/Add.1. Copenhagen Accord FCCC/CP/2009/11/Add.1. Australia, Kazakistan, Liechtenstein, Monaco, Norvegia, Svizzera e Ucraina. IPCC Fourth Assessment Report 2007 in http://www.ipcc.ch/ Draft decision –/CP18 https://unfccc.int/files/meetings/doha_nov_2012/ decisions/application/pdf/cop18_long_term_finance.pdf FCCC/ADP/2012/L.4. Draft decision –/CP18. https://unfccc.int/files/meetings/doha_nov_2012/ decisions/application/pdf/cop_advanc_durban.pdf Vedi Low Carbon Society Research Network in http://lcs-rnet.org/ Focus MECCANICA QUANTISTICA Un’aperta violazione della privacy Una recente ricerca ha messo in dubbio uno dei pilastri della strana fisica dell’infinitamente piccolo, il principio di indeterminazione di Heisenberg, su cui si fonda la meccanica quantistica, cioè l’incertezza insita nella misura e quindi nella conoscenza contemporanea di alcune variabili che possono descrivere un sistema, come ad esempio la posizione e la quantità di moto di una particella elementare. La grandezza “ineliminabile” dell’errore registrata dall’osservatore, secondo questa ricerca, sarebbe in realtà inferiore a quanto finora ipotizzato dal fisico tedesco, con tutto quello che ne consegue per la comprensione dei fenomeni a livello atomico e nucleare. Riportiamo di seguito il divertito commento di un fisico dell’ENEA n Emilio Santoro Q uando studiavamo sui banchi di scuola l’algebra prendendo confidenza per la prima volta con i numeri relativi, spesso ripetevamo a memoria la tabellina dei prodotti tra segni recitando tra l’altro: “meno per meno dà più...”. Ora, sulla base di ciò che l’Università di Toronto pare abbia dimostrato, sembra che qualcosa di concettualmente analogo si sia verificato sperimentando al banco l’inatteso “infragilimento” di uno dei pilastri della meccanica quantistica, il principio di indeterminazione che Werner Heisenberg elaborò per quantificare l’influenza dell’osservazione sull’osservato. La sua più nota formulazione è legata alla determinazione di alcune variabili associate al moto degli elettroni, ma il suo campo di applicazione si estende all’intero mondo dell’infinitamente piccolo. La conoscenza esatta e simultanea della posizione e della velocità (quantità di moto) di un elettrone è una chimera: la precisione di misura dell’una influenza negativamente la corretta determinazione dell’altra. Un recentissimo articolo [Phys. Rev. Lett. 109, 100404 (2012), “Violation of Heisenberg’s Measurement-Disturbance Relationship by Weak Measurements”] espone il metodo con cui i ricercatori hanno invece verificato che il principio di Heisenberg farebbe previsioni un po’ troppo pessimistiche rispetto alla realtà. Cioè a dire che l’incertezza formulata nel 1927 pare sia un po’ meno incerta. Ma tornando alla famosa tabellina dei segni, potremo mai mutuare da questa una sorta di filosofia che ci tranquillizzi sul fatto che l’incertezza sull’incertezza dia alla fine una certezza? L’articolo mostra il modo in cui viene iniettato maggiore ottimismo nel principio suddetto, in definitiva offrendo una speranza alla possibilità di descrivere con un grado più elevato di compiutezza un sistema assieme a tutte le variabili che sono in gioco. In particolare, la tecnica utilizzata va sotto il nome di misura debole, che consente la stima di quanto l’osservazione possa incidere sulla precisione della misura o, per meglio dire, sul disturbo che pregiudicherebbe la sua esattezza. Per far ciò, i fisici, da autentici voyeurs, hanno sbirciato (con molte cautele, evidentemente, per non perturbarli troppo) il comportamento dei fotoni di un fascio di luce (interessandosi alla polarizzazione di quest’ultimo) all’ingresso e all’uscita dell’apparato sperimentale attraverso cui erano stati fatti passare. Il risultato, provato e riprovato, sembra portare a un’unica conclusione: il disturbo che la misura introduce è inferiore al rapporto precisione/disturbo che il principio di indeterminazione porrebbe come limite irriducibile. Non è la certezza assoluta suggerita dalla “nuova tabellina” ma, concettualmente, il fatto che si sia ristretto il campo di incertezza nella misura produrrebbe una ricaduta importante sulla teoria quantistica. Evidentemente nel 1927 c’era maggiore pessimismo anche nelle teorie scientifiche (e come dar torto? Nei due anni successivi sarebbe esplosa una delle peggiori crisi economiche e poco più di dieci anni dopo si sarebbe n Emilio Santoro ENEA, Unità Tecnica Tecnologie e Impianti per la Fissione e la Gestione del Materiale Nucleare EAI Energia, Ambiente e Innovazione 6/2012 29 acceso anche un terribile conflitto mondiale), ma questa informazione avrebbe reso felice ancora una volta Einstein: non pago delle dimostrate e ridicole velleità dei neutrini, egli avrebbe goduto anche della certezza (questa sì!) che in fondo a Dio il gioco dei dadi non interessi poi granché (magari, alla luce delle attuali scoperte, forse il gioco a un sol dado!). Stiamo diventando più ottimisti nelle scoperte scientifiche? Buffo, perché non è che anche ora la crisi economica mondiale ci disponga proprio all’euforia. Leggendo però tra le righe di ciò che abbiamo scritto più sopra, notiamo subito l’affermazione: la misura disturba meno gli osservati... Che il mondo infinitamente piccolo fosse più permaloso in passato rispetto a quanto lo sia ora? Mmh... difficile credere che gli elettroni un tempo fossero più irritabili e altezzosi, ma tutto può essere: adesso sembra che più permaloso di tutti sia l’infinitamente grande, visto che la materia oscura che occupa in modo così invasivo l’universo pare non gradisca manifestarsi ad alcun metodo di indagine (altro che disturbo, misure deboli, sbirciatine e tecnici riservati e delicati...!). E allora? Che sia aumentato il voyeurismo di sperimentatori perversi molto più attenti, grazie a sofisticati apparecchi di controllo, a non farsi beccare dagli elettroni mentre questi volteggiano eterei attratti dai nuclei e violando maggiormente in tal modo la loro benedetta privacy, che Heisenberg aveva così pudicamente protetto con il suo principio fino ad ora? Già si possono pregustare titoli da gossip atomico e foto di povere particelle paparazzate nella loro intimità: “Appena scoperto l’indirizzo esatto (posizione) dell’elettrone, questo è stato visto fuggire via alla velocità precisa di tot chilometri al secondo (quantità di moto). Ma niente sfugge ai segugi dell’informazione corretta!”. Nessuna paura. Forse si stanno solo “rivisitando” i concetti di misura e dei relativi metodi di misurazione. Oltre infatti all’indeterminazione come proprietà intrinseca di un sistema quantistico, possiamo annoverare una indeterminazione caratteristica delle particelle e un’altra legata alla modalità di misurazione delle loro proprietà. Gli effetti delle “misure deboli” dovrebbero agire su queste ultime. Uno straordinario effetto quantistico chiamato entanglement attribuisce una proprietà molto “romantica” alle particelle. Se, nella loro storia, due di queste hanno avuto occasione di interagire reciprocamente, anche dopo un certo tempo, pur trovandosi magari agli estremi opposti dell’universo, accadrà che se qualcosa dovesse interferire con la prima alterandone lo stato, istantaneamente andrà a modificarsi lo stato dell’altra. 30 EAI Energia, Ambiente e Innovazione 6/2012 Proprio come talvolta la letteratura segnala nei forti legami esistenti tra gemelli omozigoti. È quell’istantaneamente a dare le vertigini... anche se esse dovessero trovarsi agli estremi opposti dell’universo... Come se tra le due particelle intervenisse un’azione a distanza e a velocità infinita... Einstein, Podolsky e Rosen si opposero a questa descrizione dell’effetto e formularono un famoso teorema che porta il nome dalle loro iniziali, EPR, che avrebbe dovuto mettere in luce l’aspetto paradossale del fenomeno. Una prova sperimentale ha dato però conto della sua esistenza reale e consistente (Alain Aspect, Francia 1982). Incertezze più o meno grandi, esattamente come quelle che affliggono anche il nostro vivere quotidiano; rapporti tra osservatore e osservato come nelle migliori storie di spionaggio; relazioni tra particelle come tra gemelli... Che succede alla fisica? Dove sta la realtà? David Bohm propose un’interpretazione affascinante. Immaginiamo che la realtà vera ma inconoscibile sia nascosta dietro un sipario chiuso, e che consista per esempio in un acquario con un pesce solitario che nuoti al suo interno, posto tra due telecamere che riprendano quest’ultimo da angolazioni completamente differenti. L’osservatore è in platea e segue esclusivamente i due diversi monitor, ciascuno collegato alla corrispondente telecamera, di cui egli non è a conoscenza: l’uomo infatti vede solo due pesci, distinti perché le differenti angolazioni di ripresa forniscono immagini diverse, che corrisponderebbero alla sua versione della realtà. Poi però inizia a ragionare. Osserva che il movimento di un pesce ha un’istantanea corrispondenza con un movimento complementare dell’altro, come se tra i due pesci esistesse una stretta correlazione, un entanglement... Tutto questo non rimanda al famoso “mito della caverna” di Platone, all’interno della quale dei prigionieri immobilizzati interpretano come realtà le ombre, proiettate sulla parete, di ciò che non sono in grado di vedere perché è alle loro spalle? Forse l’incertezza intrinseca nella meccanica quantistica non è che un difetto intrinseco nell’ombra proiettata sulla “parete” che abbiamo di fronte, i cui contorni stanno assumendo solo ora tratti leggermente più definiti. C’è sempre però il rischio, in queste sperimentazioni sofisticatissime, che l’incertezza sia imparentata anche con l’errore (e in queste pagine abbiamo avuto occasione di parlarne). Occorrerà attendere altre indagini. Ma col conforto di una grande vera certezza, come insegnava Agostino: “Si fallor l sum”. Se sbaglio, esisto. Focus CAVITAZIONE Prevenire processi dannosi di cavitazione con il nuovo dispositivo CASBA 2012 L’ENEA ha depositato un nuovo brevetto che consiste in un dispositivo in grado di rilevare i segnali provenienti da trasduttori elettrici sensibili alle vibrazioni prodotte dai fenomeni di cavitazione o di ebollizione che avvengono in un fluido e di effettuarne l’analisi qualitativa e quantitativa della frequenza e dell’andamento nel tempo. Il brevetto, realizzato da Simone Mannori dell’Unità Tecnica Ingegneria Sperimentale del Centro ENEA Brasimone, è stato depositato il 19 settembre 2012 (n. RM2012A000448). È consultabile nella banca dati Brevetti ENEA ed è disponibile per licensing. L’autore ci spiega nell’articolo di che cosa si tratta n Simone Mannori I l dispositivo brevettato, denominato CASBA 2012, è un dispositivo in grado di rilevare la formazione di bolle di gas in un fluido in rapido movimento (cavitazione o ebollizione), misurare la frequenza con cui esse si formano e l’andamento nel tempo del fenomeno. Il dispositivo può essere utilizzato per la diagnostica e la protezione degli impianti industriali soggetti a danneggiamento derivante dalla formazione e implosione di bolle costituite dal fluido stesso in fase gassosa e da eventuali altri gas disciolti nel fluido. Il CASBA 2012 è un’evoluzione del CASBA 2000, una tecnologia sviluppata presso il Centro Ricerche ENEA Brasimone negli anni ’80 (brevettata da ENEA) e utilizzata nell’impianto ELTL, EVEDA Lithium Test Loop (Figura 1). ELTL (Centro ricerca JAEA di Oarai, Giappone) è stato costruito per validare il circuito a litio liquido dell’impianto sperimentale IFMIF (International Fusion Material Irradiation Facility) che verrà utilizzato per caratterizzare i materiali impiegati nei futuri reattori a fusione ITER e DEMO. Figura 1 Impianto ELTL di Oarai (Giappone) n Simone Mannori ENEA, Centro Ricerche Brasimone, Unità Tecnica Ingegneria Sperimentale EAI Energia, Ambiente e Innovazione 6/2012 31 Focus Perché è necessario monitorare la formazione di gas in un liquido Ad esempio, nell’impianto di riscaldamento di una casa l’acqua è fatta circolare forzatamente mediante una pompa. Per come è stata progettata e costruita, la pompa diminuisce la pressione del fluido al suo ingresso e ne aumenta la pressione alla sua uscita. Se la pressione diminuisce al di sotto di un certo valore critico (dipendente dalla temperatura) l’acqua in fase liquida può trasformarsi in vapore in fase gassosa. In un secondo momento, quando le bolle si spostano in una zona a pressione maggiore, esse implodono istantaneamente creando un rumore caratteristico. L’implosione (Figura 2) della bolla di vapore crea dei micro-getti ad altissima velocità di liquido che possono danneggiare in maniera significativa gli organi della pompa (Figura 3). Lo studio del fenomeno della cavitazione è molto importante per le eliche delle navi (Figura 4): una velocità di rotazione troppo elevata può innescare fenomeni di cavitazione potenzialmente molto distruttivi. La cavitazione diventa molto difficile da gestire per un sommergibile: infatti la velocità dell’elica oltre la quale si innescano fenomeni di cavitazione è funzione della profondità, della salinità e della temperatura dell’acqua, tutti fattori che possono variare molto rapidamente. Per un sommergibile la cavitazione non è tanto pericolosa per gli eventuali danni all’elica ma perché il suono delle implosioni delle bolle di gas è facilmente individuabile, facendo così perdere al sommergibile la sua caratteristica fondamentale: quella di essere “invisibile”. Negli impianti dove il fluido di scambio è un metallo liquido, si possono utilizzare delle pompe che non hanno parti meccaniche in movimento. La differenza di pressione è indotta da un campo magnetico variabile con una struttura analoga a quella di un motore asincrono trifase dove la parte in movimento (rotore) è il fluido stesso. Questa soluzione è possibile solo quando il fluido è un buon conduttore dell’elettricità (es. sodio, litio ed altre leghe metalliche usate allo stato liquido in impianti di fusione e fissione nucleare). Il fenomeno della cavitazione 32 EAI Energia, Ambiente e Innovazione 6/2012 Figura 2 Formazione e implosione della bolla di gas Figura 3 Girante di una pompa danneggiata dalla cavitazione Figura 4 Elica con danni provocati dalla cavitazione, in particolare in vicinanza del bordo, dove la velocità della lama è massima Caratteristiche tecniche Il CASBA 2012 misura e analizza i segnali elettrici provenienti da sensori piezoelettrici sensibili alle vibra- zioni prodotte durante i fenomeni di cavitazione ed ebollizione di un liquido. Le vibrazioni sono captate da un sensore piezoelettrico installato in prossimità della zona dove si sospetta l’insorgenza del fenomeno di cavitazione. Il sensore trasforma le vibrazioni in segnali elettrici che, attraverso un cavo coassiale, vengono elaborati e rappresentati su di un display LCD a colori. Il CASBA 2012 può collegare fino a 4 canali di acquisizione dati. In ognuno il segnale è campionato da una coppia di circuiti funzionanti in parallelo con un preciso sfasamento temporale. Questo consente di aumentare l’accuratezza delle misure e di individuare con maggiore precisione la sorgente primaria e i meccanismi di propagazione dei fenomeni. Focus può essere pericoloso anche in questo caso perché si potrebbero creare delle bolle di metallo in fase gassosa sulle pareti del condotto della pompa, in particolare al suo ingresso, dove la pressione è più bassa. Questo è il caso dell’impianto ELTL (EVEDA Lithium Test Loop di Oarai, Figura 1) dove ENEA installerà un sistema CASBA all’ingresso della pompa elettromagnetica (Figura 5) adibita alla circolazione forzata del litio in fase liquida. Figura 5 Posizioni dei sensori CASBA nell’impianto ELTL (evidenziate in rosso) EAI Energia, Ambiente e Innovazione 6/2012 33 Oltre alle quattro unità di acquisizione dati che convertono il segnale da analogico a digitale, il dispositivo è costituito da un processore digitale di segnali, una unità di visualizzazione con grafica interattiva a colori con pannello tattile, una unità di memorizzazione dati e interfacce standard per bus di campo e reti locali che permettono una facile integrazione nei moderni sistemi di controllo. Il “cervello” del CASBA 2012 è un microprocessore ad alte prestazioni del tipo ARM, lo stesso tipo che equipaggia gli smartphone di ultima generazione. Anche il display tattile LCD usa la stessa tecnologia “touch” degli smartphone. Come sistema operativo viene utilizzata una versione su misura di Linux preparata da Evidence. L’utilizzo di un sistema operativo Open Source come Linux realizza un’elevata affidabilità senza un ulteriore aggravio dei costi per l’acquisto di licenze. La libreria grafica QT, permette di realizzare rapidamente interfacce utente di facile utilizzo per l’operatore. Gli algoritmi di elaborazione dati digitali sono sviluppati con ScicosLab (un software Open Source sviluppato in INRIA) ed implementati tramite suo generatore automatico di codice. Problema tecnico risolto Come abbiamo detto, il CASBA 2012 è una evoluzione del CASBA 2000. A distanza di 20 anni si è potuti passare da una tecnologia di tipo analogico a una di tipo digitale. Il CASBA 2000 ha un solo canale di rilevazione, mentre il CASBA 2012 ne ha quattro. Inoltre il CASBA 2000 fornisce solo una indicazione integrale della potenza del segnale di cavitazione. Per ulteriori misure più dettagliate sia nel dominio del tempo che nel dominio della frequenza, è necessario utilizzare della strumentazione esterna (es. un oscilloscopio digitale con analisi di Fourier integrata). Il CASBA 2012 è invece capace di rappresentare fino a quattro canali in tempo reale, sia nel dominio del tempo che nel dominio della frequenza. Il sistema di acquisizione dati multicanale del CASBA 2012 permette inoltre misure di correlazione tra due canali (misure non possibili con il precedente modello). 34 EAI Energia, Ambiente e Innovazione 6/2012 Un’altra innovazione del CASBA 2012 è la presenza di interfacce standard per la rete Ethernet e per bus di campo di tipo CAN. L’Ethernet viene utilizzata per la comunicazione con la rete d’impianto, ad esempio per accedere allo storico delle misure, mentre il CAN bus permette elevate (e garantite) velocità di risposta qualora si volesse utilizzare il CASBA all’interno di un sistema automatico di protezione capace di reagire immediatamente prima che il fenomeno della cavitazione danneggi l’impianto (il bus CAN è stato ideato e utilizzato da BOSCH per applicazioni come l’ABS delle auto dove sono richiesti tempi di riposta rapidi e certi). Le altre possibili applicazioni Oltre all’analisi e alla misura di segnali di cavitazione e ebollizione, la struttura modulare del CASBA 2012 lo rende utilizzabile come analizzatore di sistemi con elevata dinamica (120 dB) e bande passanti fino a 50kHz in ambiente industriale. Il CASBA 2012 combina un modulo CPU/LCD “touch” ad alte prestazioni con una piastra madre che può ospitare fino a quattro moduli per il condizionamento e la conversione in digitale di segnali provenienti da trasduttori industriali. La scheda d’ingresso progettata per il CASBA 2012 è stata ottimizzata per segnali di cavitazione, ma può essere facilmente adattata per segnali di tipo generico, ad esempio per l’analisi e la misura di vibrazioni provenienti da altre parti dell’impianto con altri obiettivi (es. valutazione dell’usura di cuscinetti a sfere). Futuri sviluppi Evidence, una società spin-off della Scuola Superiore Sant’Anna di Pisa, specializzata nello sviluppo di software per sistemi in tempo reale e nella realizzazione di schede elettroniche con microprocessori e logiche programmabili, ha realizzato il progetto dettagliato del CASBA 2012 sulla base delle linee guida definite nel brevetto ENEA. Attualmente è in costruzione un prototipo “da banco” che verrà utilizzato per testare e validare lo strumento prima di l passare alla produzione in serie. Focus TERREMOTO L’AQUILA Presunto imminente Il 22 ottobre scorso il Tribunale di L’Aquila ha condannato a sei anni di reclusione tutti i sette componenti della Commissione Grandi Rischi, in carica nel 2009, che alla riunione del 31 marzo 2009, pochi giorni prima del devastante terremoto, avevano rassicurato gli aquilani circa l’improbabilità di una forte scossa sismica che invece si verificò alle 3,32 del 6 aprile 2009. Il Tribunale ha ritenuto i sette membri della commissione tutti colpevoli di omicidio colposo plurimo e lesioni colpose. I sette sono stati condannati anche all’interdizione perpetua dai pubblici uffici. Qui di seguito il commento su questo avvenimento n Emilio Santoro S tiano attenti anche i meteorologi. Dal 22 ottobre 2012, la giurisprudenza italiana ha stabilito ufficialmente, con una sentenza di portata storica e unica nel pianeta, che effettuare stime statistiche sulla probabilità di eventi sia un reato. Sbagliare le previsioni del tempo, permettendo che un modesto temporale locale sfuggito alle maglie dei modelli matematici predittivi possa trasformarsi in un’alluvione catastrofica, adesso potrebbe costare la galera. Ci riferiamo alla sorprendente sentenza che condanna in primo grado la Commissione Grandi Rischi per aver sottovalutato l’incidenza dello sciame sismico che ha insistito per giorni nell’area aquilana, prima dell’evento che ha seminato morte e distruzione nell’aprile del 2009. È pur vero che nella sentenza si riafferma il principio dell’impossibilità di prevedere i terremoti, alla luce delle attuali conoscenze: ciò che viene pesantemente sanzionata è la rassicurazione da parte della Commissione e rivolta alla popolazione della zona interessata dallo sciame pochi giorni prima dell’evento, sulla possibilità che lo stesso potesse produrre eventi di magnitudo elevata. Di fatto, invitando la gente a restare tranquillamente nelle proprie abitazioni. Premettendo il rispetto che è necessariamente e moralmente dovuto alle vittime e ai feriti di quel tragico giorno, in questo ragionamento c’è qualcosa che non torna, che non è solo questione di semplice semantica. Se si ammette che i terremoti non siano eventi prevedibili, come si può attribuire certezza riguardo alla loro assenza? In altre parole, come si può essere sicuri che un terremoto non avrà luogo in un paese che attribuisce peraltro a un’ampia distribuzione di territorio un elevato rischi sismico? E se anche si fosse certi di un mainshock generato in uno sciame, come si potrà comunicare utilmente a chicchessia quando questo si verificherà? Siamo infatti certi che in Italia continueranno a esserci eventi sismici, anche di elevata magnitudo, e possiamo anche prevedere in quali aree, con maggiore frequenza e probabilità. Ma per il quando? Si è parlato di evacuare un’intera città... ma per quanto tempo? E se poi il sisma non si fosse presentato? Sicuramente alla Commissione sarebbe stato contestato il reato di procurato allarme per disagi, per eventuali malori se non addirittura per decessi, per perdite economiche. Con l’ironia a volte crudele che ci riserva il destino, dopo quasi due anni di sciame sismico pressoché continuo e tre giorni dopo questi fatti, il Pollino ha registrato il 25 ottobre un evento di magnitudo 5, con danni sensibili e disagi diffusi ma per fortuna senza feriti o decessi. E se fosse stato di intensità n Emilio Santoro ENEA, Unità Tecnica Tecnologie e Impianti per la Fissione e la Gestione del Materiale Nucleare EAI Energia, Ambiente e Innovazione 6/2012 35 Focus più elevata? Si sarebbe dovuta evacuare la zona con quanti mesi di anticipo? Il vero problema è che gli scienziati parlano una lingua che il diffuso e radicato analfabetismo scientifico rende talvolta mal interpretata laddove addirittura incomprensibile. Le motivazioni si basano sul concetto di probabilità. La possibilità che uno sciame sismico produca un evento severo è di 1 a 30, cioè a dire nel 3% dei casi. Ogni cento sciami sismici, tre di questi potrebbero dar luogo a un terremoto di elevata magnitudo. Siamo in un mondo in cui i numeri ci forniscono indicazioni e non certezze. La “rassicurazione” si basa su questi numeri, che si chiamano probabilità. La probabilità di morire per incidente stradale è solo un terzo più piccola, pari all’1%, eppure non solo non rinunciamo a prendere l’auto, ma forse nemmeno ci poniamo il problema ogni volta che saliamo a bordo. Teniamo conto di questo numero, che è dello stesso ordine di grandezza del precedente, solo per “autorassicurarci” (“auto” potrebbe avere un doppio significato, in questo caso). Le probabilità di contrarre gravi patologie per il fumo sono ben più alte, eppure i fumatori, pur coscienti di questo, restano liberi di continuare o di smettere con la loro abitudine. La rassicurazione che si è tradotta in un invito a restare nelle proprie case non poteva essere intesa come un’imposizione. Ciò che ha pesato è stata la sua cattiva interpretazione, derivata dal fatto che la grande maggioranza della gente sia a digiuno delle più elementari cognizioni scientifiche: gli eventi sismici non sono prevedibili e, per contro, nessuna rassicurazione sulla loro assenza potrà mai essere “deterministica”. Non è mai un buon segno quando la Scienza finisce in Tribunale. E in Italia, questa sembra sia un’abitudine che riemerge in modo sinistro da un lontano 36 EAI Energia, Ambiente e Innovazione 6/2012 passato. E allora, ci chiediamo, perché accanirsi contro la Scienza per l’umiltà socratica che la contraddistingue e che non vive di dogmi, invece di rivolgersi contro coloro che, in totale dispregio di ciò che pure la stessa Scienza suggerisce, continuano a edificare in zone dichiarate ad alto rischio senza assolutamente preoccuparsi di adeguare i fabbricati alle norme che regolano la protezione antisimica? A questo punto, in tribunale forse dovrebbe finirci lo stesso Newton e la sua “scellerata” legge di gravitazione: se infatti gli oggetti non cadessero al suolo, forse non ci sarebbero neppure i crolli e nessuno rimarrebbe ferito a seguito di un forte terremoto. Se qualcuno lanciasse l’idea di un referendum abrogativo di tale nefasta legge, sono certo che troverebbe ugualmente qualche strampalato sostenitore. La legge dell’uomo sembrerebbe superiore a quella della natura, altrimenti non si costruirebbe a due passi dal cratere di un vulcano attivo e cattivo come il Vesuvio... I vulcani però dànno segni premonitori, hanno comportamenti meno impulsivi e si è a conoscenza soprattutto di dove siano dislocati. Ma, almeno nell’esempio che è stato portato, non sarebbe come entrare in una gabbia di tigri che hanno appena completato il pasto, trattenendosi però fin quasi all’ora di quello successivo? In cosa ci si potrebbe sentire “rassicurati” ragionando in tal maniera? Vivere in un’area classificata a rischio sismico significa “convivere col rischio” più o meno elevato e mitigare possibilmente quest’ultimo adeguando le strutture ad esso, non aspettare (o sperare) che qualcuno, magari con la con la divisa dell’ufficialità, ci dia rassicurazione che “tutto va bene”, solo perché è più facile scaricare le responsabilità sugli altri che assumersele in proprio. La divinazione non è una scienza. È sconcertante che molti diano per esempio meno credito alle previsioni meteorologiche che a quelle astrologiche. Dalla presunzione di imminenza di un evento sismico si dovrebbe passare alla presunzione di innocenza della Scienza (sempre parafrasando il titolo di un libro di Turow e il successivo film di Pakula), affinché, soprattutto nel nostro paese, il giorno che segue eventi del genere, ancorché tragici, non sia l sempre il… Mattino dei Maghi… Primopiano Emissioni da trasporti Patto dei Sindaci: gli impegni italiani per il settore trasporti Il Patto dei Sindaci, iniziativa europea finalizzata a raggiungere e superare gli obiettivi della Politica Energetica e Climatica Comunitaria al 2020, ha ricevuto in Italia un’ampia adesione con circa 1.300 sottoscrizioni; l’82% dei Comuni ha anche redatto il Piano di Azione per l’Energia Sostenibile (PAES), richiesto dal Patto. Relativamente al settore trasporti e mobilità, è stata effettuata un’analisi degli orientamenti, misure e risultati attesi dai principali PAES approvati dalla Commissione Europea n Gabriella Messina, Silvia Orchi Il Patto dei Sindaci Il Patto dei Sindaci, iniziativa della Commissione Europea lanciata in seguito all’adozione del pacchetto europeo su Clima ed Energia nel 2008, invita gli Enti Locali e Regionali dei paesi europei a sottoscrivere un patto volontario, con il quale essi si impegnano ad aumentare l’efficienza energetica e l’utilizzo di fonti energetiche rinnovabili nei loro territori, al fine di raggiungere e superare gli obiettivi europei di riduzione delle emissioni di gas climateranti, fissati al 2020. Lo strumento chiave per tramutare in azioni concrete gli intenti dichiarati con la sottoscrizione del Patto dei Sindaci, è rappresentato dal Piano di Azione per l’Energia Sostenibile (PAES). Propedeutica al PAES è, però, la redazione di un altro importante documento, punto di riferimento per la determinazione degli obiettivi successivamente definiti nel PAES, ossia l’Inventario di Base delle Emissioni (IBE). Questi due documenti devono essere redatti entro un anno dall’adesione ufficiale al Patto e devono, inoltre, essere inviati al Joint Research Centre (JRC) della Commissione Europea per l’approvazione. Entro il secondo anno dalla sottoscrizione del PAES, deve essere implementata la fase di valutazione, monitoraggio e verifica degli obiettivi dichiarati. Nel PAES vengono indicate le misure concrete di riduzione delle emissioni di CO2 , i consumi di energia per usi finali e sono individuate precise ed assegnate responsabilità a garanzia della realizzazione del Piano. Le autorità locali possono decidere di esprimere l’obiettivo di riduzione delle emissioni di CO2 in termini “assoluti” o in termini “pro-capite”. I Comuni hanno, in oltre, la possibilità di scegliere, anche in base alla disponibilità dei dati, l’anno di riferimento per il calcolo del loro obiettivo di abbattimento delle emissioni di CO2. Il Patto dei Sindaci ha ricevuto, in Italia, un’ampia adesione. Ad inizio gennaio 2013, i Comuni che hanno aderito al Patto dei Sindaci sono 4.554 in Europa e 1.266 in Italia. I PAES Nazionali Si è ritenuto interessante, relativamente al settore trasporti e mobilità, effettuare una fotografia di come si sta sviluppando in Italia l’iniziativa, quali sono gli orientamenti strategici e gli interventi che intendono attuare le amministrazioni che non solo hanno sottoscritto il Patto ma che hanno ricevuto anche l’approvazione del PAES dalla Commissione Europea. Infatti, al di là del monitoraggio dell’iniziativa, si ritiene che la conoscenza delle politiche e delle misure previste, nonché dei risultati attesi e degli impegni economici necessari, possa risultare utile per promuovere ulteriormente l’iniziativa presso altre amministrazioni locali. A tal fine, è opportuno specificare che i PAES sottoscritti in Italia, finora, sono 1.034 di cui 290 sono quelli approvati dal JRC. Tra questi ultimi, si è scelto di analizzare i PAES dei n Gabriella Messina, Silvia Orchi ENEA, Unità Tecnica Efficienza Energetica EAI Energia, Ambiente e Innovazione 6/2012 37 20 Comuni con popolazione superiore ai 30.000 abitanti. Tra i 290 PAES sopra detti, non figurano i piani di grandi città quali Roma, Milano e Napoli, ancora in attesa di accettazione da parte del JRC. L’analisi qui condotta, sicuramente non esaustiva, risulta, comunque, indicativa delle scelte che stanno operando gli Enti Locali per il raggiungimento e il superamento degli obiettivi fissati al 2020. Nell’articolo si riportano, quindi, i risultati delle analisi per i 20 PAES esaminati che complessivamente si pongono come obiettivo ultimo la riduzione di circa 930.137 tCO2/ anno al 20201 per il settore trasporti e mobilità. I Comuni interessati sono stati suddivisi per classe di popolazione, nel modo seguente: 8 Comuni con popolazione compresa tra i 30.000 e i 50.000 abitanti (Abbiategrasso, Cellatica, Castelfranco Emilia, Grugliasco, Lodi, Montebelluna, Nichelino e Pioltello); 5 Comuni con popolazione compresa tra i 50.001 e 100.000 abitanti (Collegno, San Severo, Cerignola, Alessandria e Udine); 5 Comuni con popolazione compresa tra i 100.001 e 500.000 abitanti (Forlì, Reggio Emilia, Padova, Bari e Firenze); 2 Comuni con popolazione compresa tra i 500.001 e 1000.000 di abitanti (Genova e Torino). Relativamente ai suddetti 20 Comuni, sono 12 coloro che hanno scelto il 2005 come anno di riferimento (Genova, Firenze, Padova, Alessandria, Cerignola, Grugliasco, San Severo, Collegno, Abbiategrasso, Cellatica, Lodi e Pioltello); 3 i Comuni che 38 EAI Energia, Ambiente e Innovazione 6/2012 hanno scelto il 2000 come anno di riferimento (Reggio Emilia, Forlì e Nichelino); il Comune di Castelfranco Emilia ha scelto il 1999; il Comune di Bari ha scelto il 2002; il Comune di Montebelluna il 2008; il Comune di Udine ha scelto il 2006; il Comune di Torino inizialmente ha scelto il 1991 come anno base, ma successivamente, date le profonde trasformazioni sociali ed economiche che hanno interessato la città nel periodo compreso tra il 1991 ed il 2005, ha predisposto un nuovo inventario con anno base il 2005, pertanto gli obiettivi presi in esame in questo articolo fanno riferimento, a tale anno. Le azioni che si intende intraprendere con i PAES, sono numerose e spaziano dal potenziamento e promozione del trasporto pubblico, al rinnovo del parco veicoli comunale; dal trasporto privato e commerciale alla realizzazione di infrastrutture metro-tranviarie; sono previste, inoltre, azioni per la mobilità sostenibile finalizzate alla riduzione dell’uso dell’auto privata, alla pro- mozione della mobilità ciclopedonale e all’ottimizzazione del sistema dei trasporti in generale ecc.. In considerazione delle proprie caratteristiche socio-economiche e geografiche-territoriali, ogni Comune ha operato le proprie scelte strategiche nell’ambito dei Trasporti, secondo quelle che sono le priorità d’intervento e gli aspetti maggiormente rilevanti sui quali è possibile agire nell’arco temporale che arriva al 2020. Sulla base delle scelte operate dai Comuni, quindi, le azioni programmate sono state aggregate in 4 ambiti di intervento principali: il parco veicoli comunale, il trasporto pubblico, il trasporto privato e commerciale, la mobilità sostenibile. La Figura 1 illustra la ripartizione percentuale della riduzione di emissioni di CO2 attesa complessivamente per i quattro ambiti di intervento sopra detti. La riduzione maggiore è attesa da misure per la mobilità sostenibile, presente in tutti i PAES e che richiede risorse finanziarie più contenute. Figura 1 Obiettivi di riduzione delle emissioni di CO2 per ambito di intervento (%) Fonte: elaborazione ENEA su dati dei PAES dei 20 Comuni analizzati dimensione urbana, dove la possibilità di disporre di adeguate risorse finanziarie da investire è maggiore. Occorre precisare, tuttavia, che non sempre i Comuni sono riusciti a quantificare i risultati delle azioni programmate in termini di riduzio- Gli obiettivi fissati dalle singole realtà comunali evidenziano, come era prevedibile, che l’abbattimento delle emissioni climalteranti sarà più consistente nei Comuni di maggiore Abitanti Città Parco veicoli Trasporto pubblico comunale (tCO2)/anno (tCO2)/anno Abbiategrasso 13,85 839,21 Castelfranco Emilia 16,00 Cellatica 2,44 - 30.000-50.000 Grugliasco ne delle emissioni di CO2, è il caso, ad esempio del Comune di Reggio Emilia e, per alcune misure, anche del Comune di Bari. In Tabella 1 si riportano le emissioni evitate in termini di tCO2/annua al 2020 per ambito di intervento e Trasporto privato Mobilità sostenibile Altro* e commerciale (tCO2)/anno (tCO2)/anno (tCO2)/anno TOTALE 409,37 1.453,28 - 2.715,71 1.945,00 - 12.573,00 - 14.534,00 - - 1.208,50 - 1.210,94 - 3.563,00 3,00 - 3.566,00 Lodi 33,00 64,00 5.511,00 450,00 - 6.058,00 Montebelluna 35,00 2.456,00 - 12.561,00 - 15.052,00 Nichelino 9,30 - - - - 9,30 Pioltello 10,83 - 532,81 1.065,63 - 1.609,27 Totale 120,42 5.304,21 10.016,18 29.314,41 - 44.755,23 Alessandria - 23.172,00 - 25.246,00 - 48.418,00 Cerignola* 1,42 - - 5.104,80 - 5.106,22 - 80,00 7.406,00 1.555,00 - 9.041,00 Collegno - - 5.430,56 - 5.435,45 - - - 34.731,00 - 34.731,00 Totale 6,31 23252,00 7406,00 72067,36 - 102731,66 Bari - 3.850,00 4.475,00 37.050,00 6.000,00 49.011,00 - 198.000,00 - 253.011,00 100.001-500.000 4,89 Udine abitanti > 500.001 50.001-100.000 San Severo Firenze Forlì 18.500,00 63.875,00 - - - 25.951,00 - 25.951,00 Reggio Emilia 10,00 - 7.139,00 - - 7.149,00 Padova 357,00 32.659,00 14.816,00 17.280,00 - 65.112,00 18.500 415.098,00 Totale 6.367 85.520 26.430 278.281 Genova 228,00 13.435,00 1.982,00 70.408,00 Primo Piano Obiettivi e azioni nel settore trasporti 19.821,00 105.874,00 Torino - 122.945,00 46.863,00 91.871,00 Totale 228,00 136.380,00 48.845,00 162.279,00 19.821,00 367.553,00 - 261.679,00 Totale 6.721,73 250.456,21 92.697,18 541.941,77 38.321,00 930.137,89 * Sono opere infrastrutturali, la cui incidenza nei vari ambiti di intervento è trasversale, per cui, sono state inserite in una categoria a parte. Si tratta di 2 opere del Comune di Bari (lotto I Porto Verde e infrastrutture stradali) e 2 opere infrastrutturali del Comune di Genova non meglio specificate TABELLA 1 Emissioni di CO2/annua evitate per ambito di intervento e per Comune nel settore dei trasporti Fonte: elaborazione ENEA su dati dei PAES dei Comuni citati EAI Energia, Ambiente e Innovazione 6/2012 39 Primo Piano per Comune; i Comuni sono stati raggruppati in base alla popolazione. La riduzione maggiore delle emissioni di CO2 nel settore dei trasporti, rispetto all’obiettivo totale del rispettivo PAES, è attesa nei Comuni di Firenze, Montebelluna, Udine e Castelfranco Emilia, i cui interventi, contribuiranno, rispettivamente, al 50%, al 41%, al 34% ed al 30% del loro obiettivo totale al 2020. Seguono poi San Severo e Forlì con il 29%, Alessandria con il 25% e Genova con il 20%. L’analisi delle azioni, in base ai detti ambiti di intervento nel settore dei trasporti, rilevano che, per quanto riguarda il rinnovo del parco veicolare comunale, è il Comune di Firenze che mette in campo le azioni più incisive, proponendosi di abbattere 6.000 tCO2/anno, segue il Comune di Padova con 357 tCO2/anno e il Comune di Genova con 228 tCO2/anno. Si tratta di città medio-grandi, che hanno maggiori margini di miglioramento, come già detto. Nei Comuni medio-piccoli, le azioni programmate sono irrilevanti, mentre nei Comuni “piccoli” si riuscirà complessivamente ad evitare le emissioni di 120,4 tCO2/ anno al 2020. Anche nel trasporto pubblico, sono le azioni intraprese nelle grandi aree urbane a prevalere: gli interventi maggiormente impattanti sono stati messi in cantiere nel Comune di Torino, con i quali l’Ente prevede di abbattere 122.945 tCO2/anno al 2020, segue il Comune di Firenze con 49.011 tCO2/anno e il Comune di Padova con 32.659 tCO2/anno. Gli interventi, nello specifico, oltre 40 EAI Energia, Ambiente e Innovazione 6/2012 Figura 2 Ripartizione percentuale della riduzione di emissioni di CO2 per ambito di intervento e per classe di popolazione Fonte: elaborazione ENEA su dati dei PAES dei 20 Comuni analizzati ad operare sul rinnovo della flotta dei mezzi, si riferiscono anche ad opere infrastrutturali, come nel caso di Torino, Firenze, Genova e Padova (linee metropolitane e tranviarie, opere portuali, impianti di risalita, nodi di interscambio ecc.). In particolare il Comune di Torino attuerà il completamento della linea 1 e la nuova linea 2 della metropolitana, prevedendo di abbattere oltre 109.489 tCO2/anno; altre importanti opere infrastrutturali riguarderanno il metro tram di Padova e la tranvia di Firenze. Tra i Comuni medio-piccoli, le azioni per il trasporto pubblico locale di Alessandria permetteranno di risparmiare 23.252 tCO2/anno; dai Comuni “piccoli”, invece, si attende un abbattimento complessivo di 5.304 tCO2/anno di cui 2.456 tCO2/anno nel solo Comune di Montebelluna. Tra le azioni che riguardano il trasporto privato e commerciale, spiccano quelle volte alla sostituzione dei veicoli più inquinanti con veicoli a basse emissioni e incentivi per i veicoli a metano/gpl, tariffazione della sosta privata, predisposizione di Osservatori della Mobilità e poi azioni volte al miglioramento dei processi logistici nelle città e nei porti. Anche in questo settore, il Comune di Torino si pone l’obiettivo più ambizioso con un abbattimento al 2020 di circa 46.863 tCO2/anno attraverso una sola misura finalizzata alla sostituzione dei veicoli privati con veicoli a basse emissioni. Il Comune di Padova, prevede azioni rivolte al rinnovo del parco veicoli privato, al potenziamento della flotta veicolare a basso consumo per la distribuzione merci e alla diffusione di biocarburanti, prevedendo un risparmio di 14.816 tCO2/anno; il Comune di Reggio Emilia intende abbattere 7.139 tCO2/anno, altre 1. Stime provvisorie desunte dai dati forniti nei PAES. PAES del Comune di Abbiategrasso PAES del Comune di Alessandria PAES del Comune di Bari PAES del Comune di Castelfranco Emilia PAES del Comune di Cerignola PAES del Comune di Cellatica PAES del Comune di Collegno PAES del Comune di Firenze PAES del Comune di Forlì PAES del Comune di Genova PAES del Comune di Grugliasco PAES del Comune di Lodi PAES del Comune di Montebelluna PAES del Comune di Nichelino PAES del Comune di Padova PAES del Comune di Pioltello PAES del Comune di Reggio Emilia PAES del Comune di San Severo PAES del Comune di Torino PAES del Comune di Udine SEAP Guidelines Sito: http://www.pattodeisindaci.eu/index_it.html EAI Energia, Ambiente e Innovazione 6/2012 Primo Piano (circa 4,95 miliardi di euro) degli 8,5 miliardi di euro sopra citati, a pesare è l’imponente mole di opere infrastrutturali previste nel PAES del Comune, nel settore Trasporti. Le opere sono finalizzate alla realizzazione del Sistema Ferroviario Metropolitano Regionale, al potenziamento del Servizio Logistico “Cityporto” e alla realizzazione della metro tranvia SIR2, SIR3 e SIR4. Il Comune di Torino ha stimato un impegno finanziario di circa 1,8 miliardi di euro, di cui il 65% per la realizzazione della linea 2, tratta Rebaudengo-Cimitero Parco. La spesa prevista, invece, dal Comune di Firenze, anche se non comprensiva di tutte le opere, ammonta l a 721,2 milioni di euro. not e anno. Dai Comuni medio-piccoli si otterrà una riduzione di 72.067 tCO2/anno, di cui 34.731 tCO2/anno nel Comune di Udine attraverso la razionalizzazione del trasporto di persone e merci; 25.246 tCO2/anno nel Comune di Alessandria attraverso l’incremento della mobilità ciclo-pedonale, la promozione di veicoli elettrici e l’implementazione di servizi di trasporto alternativi all’auto privata. Con le azioni programmate dai Comuni piccoli, si abbatteranno complessivamente le emissioni per 29.314 tCO2/anno al 2020. Le azioni, in questo ambito di intervento, per lo più, riguardano la promozione della mobilità ciclopedonale, nuove piste ciclabili, il car sharing, campagne ed eventi di informazione e sensibilizzazione alla mobilità sostenibile e la razionalizzazione dei sistemi di trasporto passeggeri e merci. La Figura 2 riporta il peso percentuale dei vari ambiti di intervento, suddivisi in base alla popolazione dei Comuni esaminati. Dal punto di vista finanziario, le risorse che i Comuni hanno stanziato per le opere relative al settore dei trasporti, ammontano, ad oggi, a quasi 8,5 miliardi di euro. Tuttavia questi non sono dati esaustivi, in quanto molti Comuni non hanno indicato le risorse che intendono destinare alle azioni programmate, altri Comuni hanno dato informazioni parziali e solo alcuni hanno dichiarato, per ogni azione, le risorse finanziarie che intendono impegnare, tra questi: Torino, Forlì e Castelfranco. Il Comune di Padova rappresenta, da solo, più del 58% b i b l i ograf i a 7.406 tCO2/anno verranno evitate nel Comune di Collegno e circa 4.475 tCO2/anno nel Comune di Bari. Si ricorda, comunque, che si tratta di stime e che i dati non sono né esaustivi né completi. Tra i Comuni “piccoli”, le azioni, complessivamente porteranno ad un risparmio di emissioni pari a 10.016 tCO2/anno, circa l’11% del totale delle emissioni risparmiate in questo ambito. Ben 5.511 tCO2/ anno saranno attribuibili alle azioni messe in campo nel Comune di Lodi, 3.563 tCO2/anno nel Comune di Grugliasco, 1.945 tCO2/anno nel Comune di Castelfranco Emilia e 409 tCO2/anno nel Comune di Abbiategrasso. Le azioni volte alla mobilità sostenibile sono programmate per il 51,35% nelle città medio grandi, tra queste spicca il Comune di Firenze, attraverso azioni principalmente incentrate sulle politiche di eco road pricing, potenziamento delle piste ciclabili e bike sharing, promozione della mobilità elettrica, gestione ottimizzata del traffico, con le quali intende abbattere 198.000 tCO2/ anno. Seguono, con il 30% circa, le grandi città; Torino, attraverso 2 azioni, una volta alla razionalizzazione del sistema di trasporto privato e potenziamento del trasporto pubblico locale e l’altra all’incremento della mobilità ciclabile, si attende di eliminare rispettivamente 69.653 tCO2/anno e 22.218 tCO2/anno. Il Comune di Genova con l’estensione della Blue Area, il potenziamento del car sharing e lo sviluppo della soft mobility (ciclabilità), complessivamente si aspetta una riduzione al 2020 di circa 70.408 tCO2/ 41 Prospettive EFFICIENZA ENERGETICA Le tecnologie dell’Informazione e della Comunicazione per l’efficienza energetica Le politiche ambientali, energetiche e industriali dell’Unione Europea si sono recentemente saldate in una strategia che promuove le tecnologie dell’efficienza energetica. Queste politiche sono dovute a motivi ambientali e di sicurezza dell’approvvigionamento energetico, ma sono fondamentali anche per lo sviluppo economico dell’Unione, perché i Paesi in grado di dominare oggi le tecnologie emergenti avranno domani un indubbio vantaggio competitivo. Fra queste, si riconosce una crescente importanza alle Tecnologie dell’Informazione e della Comunicazione (ICT) con fini abilitanti all’incremento dell’efficienza energetica negli edifici, nei trasporti, nell’industria e nelle reti elettriche n Alberto Moro N egli ultimi anni le politiche energetiche dell’Unione Europea si sono focalizzate sul tema dell’efficienza energetica. Considerandone il potenziale, l’efficienza energetica può essere vista come la maggiore risorsa energetica d’Europa; per questo, l’Unione si è posta come obiettivo il risparmio, rispetto alle previsioni, del 20% dei propri consumi energetici entro il 2020. Il piano strategico che riguarda le tecnologie energetiche dell’Unione, noto come “SET-PLAN”, mette in grande rilievo l’importanza delle tecnologie per l’incremento dell’efficienza energetica, e la Commissione Europea, attraverso il Centro Comune di Ricerca (JRC), monitora lo sviluppo di queste tecnologie e l’implementazione del SET-PLAN (si veda al sito: http:// setis.ec.europa.eu/) Le politiche di sviluppo industriale della Commissione riconoscono alle tecnologie dell’Informazione e della Comunicazione (ICT), un ruolo fondamentale per la crescita economica, in quanto il settore dell’ICT è trainante per la crescita del PIL e la creazione di nuovi posti di lavoro. L’intersezione tra le politiche dell’efficienza energeti- n Alberto Moro Commissione Europea, Centro Comune di Ricerca (JRC) di Ispra, Istituto per l’Energia e i Trasporti (IET) 42 EAI Energia, Ambiente e Innovazione 6/2012 Tecnologie che consentono un aumento dell’efficienza energetica Tecnologie dell’ICT Tecnologie dell’ICT per l’efficienza energetica ca e dell’ICT ha portato alla recente definizione di una nuova area tecnologica, che può essere detta “dell’ICT per l’efficienza energetica”. Il 7° Programma Quadro prevede dei finanziamenti specifici per la ricerca e l’innovazione in questo nuovo settore. Per maggiori informazioni si veda al sito: http://ec.europa.eu/information_society/newsroom/ cf/itemlongdetail.cfm?item_id=8807 . La comunicazione della Commissione COM(2008) 241 specifica che con il termine ICT vanno intese non solo le tecnologie software e hardware nell’ambito delle telecomunicazioni ma anche componenti e sistemi elettronici. Nell’area tecnologica dell’ICT per l’efficienza energetica ricadono quindi i sistemi, i dispositivi e i componenti che consentono risparmi diretti ottenibi- Efficienza energetica dei dispositivi dell’ICT Le tecnologie dell’ICT, in quanto tecnologia abilitante, consentono di ottenere un risparmio energetico in diversi settori (es. negli edifici, nei trasporti), ma gli stessi equipaggiamenti dell’ICT, quali computer domestici, server e dispositivi elettronici, consumano energia. Una prima riduzione dei consumi può quindi essere ottenuta aumentando il rendimento delle apparecchiature dell’ICT, con interventi sull’elettronica di potenza delle sezioni di alimentazione, sulle architetture dei microprocessori e dei sistemi di calcolo, sulla realizzazione di display a minor fabbisogno energetico, ma anche sulla gestione dei flussi termici di raffreddamento. I server informatici, sempre più impiegati nell’industria ed in ambito commerciale per applicazioni di elaborazione, archiviazione o distribuzione di dati, consumano grandi quantità di energia. Le misure per aumentare l’efficienza energetica delle risorse di calcolo sono note anche come Green Computing. Si noti che gli interventi per ridurre i consumi dei server non riguardano necessariamente la progettazione elettronica ma possono interessare anche aspetti tecnici ed organizzativi connessi all’uso degli apparati dell’ICT stessi. Si pensi, ad esempio, ai grossi centri di calcolo, ove gli impianti di raffreddamento assorbono circa il 40% dell’energia. Qui, interventi termotecnici quali l’ottimizzazione nel posizionamento dei condizionatori, la gestione dei flussi d’aria o l’isolamento della sala macchine possono portare a grossi risparmi, sia energetici che economici. Inoltre, considerando che un server utilizzato al minimo delle proprie capacità consuma quasi come un server impiegato a pieno carico, risulta energeticamente più conveniente concentrare il carico di lavoro in pochi, grossi, sistemi di calcolo piuttosto che sparpagliare lo stesso lavoro su molte macchine di piccola potenza. Di conseguenza, utenti che non riescono a sfruttare a pieno la capacità dei loro server, possono considerare interessanti le soluzioni di esternalizzazione dei loro data center in sistemi di Cloud computing, che oltre a ridurre i costi di investimento e di manutenzione, consentono una riduzione dei consumi energetici, a parità di lavoro svolto. Nell’ambito dei data center, come per altre tecnologie dell’ICT, sono in corso delle iniziative volontarie di riduzione dei consumi. Tra queste, l’iniziativa “Energy Star” ha avuto un buon successo nel promuovere l’etichettatura volontaria di dispositivi informatici da ufficio che rispondono a determinati parametri di efficienza energetica. Per altri dispositivi, la Commissione Europea stimola EAI Energia, Ambiente e Innovazione 6/2012 Prospettive li dal miglioramento dei consumi degli stessi apparati elettronici (es. stand-by), oppure, in quanto tecnologia abilitante, risparmi indiretti in altri settori industriali (es. dispositivi per la gestione dell’energia degli edifici, per l’organizzazione della logistica ecc.) Sono circa 20 anni che le tecnologie dell’ICT permettono un migliore controllo dei processi in settori quali: edilizia, trasporti, industria e distribuzione dell’energia elettrica, ma l’idea di individuare nelle tecnologie dell’ICT una opportunità per favorire l’incremento dell’efficienza energetica è un fatto relativamente nuovo, che potrebbe permettere di risolvere l’incoerenza tra il modello tradizionale di sviluppo economico e la necessità di un continuo incremento dei consumi energetici. Per contro, tra gli aspetti critici che rallentano la diffusione di queste applicazioni, figurano la rapida obsolescenza delle apparecchiature, la difficoltà di integrazione di tecnologie eterogenee, la necessita di ripartizione degli investimenti tra operatori diversi e in competizione tra loro, la mancanza di una normativa specifica, la limitata conoscenza delle tecnologie e dei relativi vantaggi da parte del decisore politico e dell’utenza. In questo articolo si intende presentare brevemente la tematica dell’ICT per l’efficienza energetica facendo riferimento alle seguenti famiglie di applicazioni tecnologiche: efficienza energetica dei dispositivi dell’ICT; smart grids, ICT per l’efficienza energetica negli edifici, ICT per l’efficienza energetica nei trasporti. Si tenga presente che esistono altri settori applicativi, qui non approfonditi, che presentano delle potenzialità di efficientamento energetico. Fra questi, citiamo le smart cities, l’illuminazione intelligente, il commercio elettronico, le teleconferenze, il telelavoro. 43 l’adozione di specifici Codici di condotta dell’ICT, che propongono linee guida, raccomandazioni e buone pratiche per l’uso efficiente di tecnologie quali: alimentatori esterni per dispositivi elettronici con ridotte perdite in modalità di stand-by, gruppi di continuità (UPS), ricevitori televisivi, dispositivi per le telecomunicazioni a banda larga e un codice di condotta per gli stessi data center. Queste iniziative, guidate dall’Istituto per l’Energia e i Trasporti del JRC, vedono la partecipazione di numerosi operatori industriali, produttori e utenti interessati a tener vivo un dibattito che riguarda mercato, prodotti e prestazioni dei sistemi dell’ICT. Maggiori informazioni sono disponibili al sito: http://iet. jrc.ec.europa.eu/energyefficiency/ict-codes-conduct. Reti elettriche intelligenti (Smart Grids) Le attuali reti elettriche sono state progettate per trasportare, in modo unidirezionale, l’energia prodotta da poche centrali di grossa potenza verso un’utenza tipicamente passiva. La recente liberalizzazione del mercato dell’energia e la tendenza a incentivare la generazione distribuita, eventualmente da fonti rinnovabili, tende oggi a rivoluzionare la concezione e la gestione delle reti elettriche. Le reti elettriche intelligenti, o smart grid, sono concetti di impianti elettrici fortemente integrati dalle tecnologie dell’ICT. Queste tecnologie consentono il controllo della rete anche in presenza di un’elevata percentuale di generatori distribuiti di piccola potenza e con flussi 44 EAI Energia, Ambiente e Innovazione 6/2012 di energia bidirezionali. Si pensi, ad esempio, a una rete con una forte presenza di piccoli impianti di generazione da rinnovabili (es. eolico e solare), che, per loro natura, possono avere forti variazioni di potenza nel tempo; condizione, questa, che rende instabile un sistema elettrico di tipo tradizionale. Una rete elettrica di tipo smart grid, oltre a gestire al meglio la generazione distribuita, porterebbe anche ad aumentare l’efficienza energetica del sistema elettrico a seguito di minor perdite in linea, in quanto l’energia verrebbe prodotta più vicino all’utilizzatore finale. Nella figura 1 è riportato un esempio di smart grid che integra varie tecnologie energetiche: grossi impianti eolici offshore (1), veicoli elettrici (2), utenze civili tradizionali (3), piccolo fotovoltaico (4), prosumers, cioè utenti al contempo produttori e consumatori (5), centrali termolettriche (6), aggregatori di consumi e sistemi ICT di controllo (7), utenze industriali (8), grossi impianti fotovoltaici (9), mini-eolico (10), sistemi di telecomunicazione (11), reti di trasmissione (12) e distribuzione (13) dell’energia elettrica, sistemi di accumulo dell’energia (14) e utenze commerciali (15). Il JRC svolge diverse attività per favorire la transizione verso le reti elettriche future quali: la raccolta e analisi di dati sui sistemi elettrici, sulle reti di trasmissione e sui progetti di reti intelligenti in Europa; l’analisi di caratteristiche e comportamenti (statici e dinamici) delle reti elettriche nell’integrazione di fonti di energia rinnovabile, auto elettriche e fonti distribuite di energia; ICT per l’efficienza energetica negli edifici Nel settore dell’edilizia, l’informatica può contribuire alla progettazione di edifici nuovi più efficienti, impiegando algoritmi che minimizzino i consumi energetici e involucri che sfruttino al meglio le tecniche di riscaldamento passive ed attive, tenendo conto delle correnti d’aria, del livello di insolazione e del microclima, consentendo di integrare più facilmente pannelli solari e impianti geotermici. Elettronica e sensoristica possono essere impiegate per gestire al meglio i flussi energetici in nuove costruzioni, ma anche nel vasto parco degli edifici esistenti, ad esempio mediante sistemi di illuminazione controllati o mediante le applicazioni tipiche della domotica o smart building. In generale, le tecnologie dell’ICT sono solo alcune delle applicazioni utilizzate nel più ampio settore del green building. Per avere degli esempi di buone pratiche di green building si veda al sito: http://iet.jrc. ec.europa.eu/energyefficiency/greenbuilding ICT per l’efficienza energetica nei trasporti Il settore dei trasporti è responsabile del consumo di circa un terzo dell’energia mondiale. Il trasporto su strada, che impiega circa il 70% di queste risorse, presenta ampi margini di riduzione dei consumi energetici, ed in particolare di riduzione delle emissioni di gas serra. Le tecnologie dell’informazione e della comunicazione applicate ai sistemi di trasporto sono tradizionalmente note con il nome di Intelligent Transport Systems (ITS). Questa definizione include molti tipi di tecnologie, anche complesse, che possono integrare sensori per il monitoraggio del traffico, centraline per la raccolta dati, sistemi di telecomunicazione per la distribuzione di informazioni e codici di calcolo per la loro elaborazione. Tra le applicazioni ITS figurano, ad esempio, l’ottimizzazione dei flussi del traffico attraverso informazioni ai viaggiatori, la navigazione satellitare, la simulazione e pianificazione delle politiche della mobilità. Risultati positivi in termini economici, produttivi e di qualità del servizio sono stati conseguiti anche nella gestione informatizzata delle flotte commerciali e dei processi logistici. Le tecnologie dell’ICT sono molto presenti anche nelle singole autovetture, sempre più pervase da dispositivi elettronici e computer di bordo. Queste tecnologie sono un grosso aiuto al miglioramento delle prestazioni di tutti i tipi di automobili ma, in questa sede, vorremmo far presente quanto siano oggi determinanti per la diffusione di quella che è per molti la nuova speranza del mercato dell’auto: l’auto elettrica. Sistemi di ricarica delle batterie ad alta velocità, inverter per la conversione CC/CA e variatori di velocità per i motori sono (insieme agli accumulatori) le tecnologie che più hanno semplificato le modalità d’uso, aumentato l’efficienza e ridotto i costi dei veicoli elettrici. In un futuro prossimo, sistemi di elettronica avanzata consentiranno di gestire al meglio l’energia elettrica immagazzinata in super-condensatori (supercapacitors) ora impiegati in autovetture elettriche o ibride per immagazzinare l’energia in frenata. Questi super (o ultra) condensatori, hanno ancora una capacità inferiore a quella delle batterie, ma potranno essere impiegati come deposito tampone, in associazione o in competizione con le batterie stesse, risultando molto più leggeri, economici, con tempi di carica/scarica più brevi e durata di vita maggiore agli attuali accumulatori. Allo scopo di testare componenti e sistemi funzionali allo sviluppo e alla standardizzazione delle auto elettriche, anche in relazione con la loro integrazione nella rete e ai concetti di smart grid, il Centro Comune di Ricerca (JRC) sta costruendo dei nuovi laboratori presso i Centri di Ricerca di Petten e Ispra. Si veda, per dettagli, al sito: http://iet.jrc.ec.europa.eu/ Nel luglio 2012 è stato rinnovato il Memorandum of Understanding tra l’Istituto per l’Energia e i Trasporti del Centro Comune di Ricerca (JRC) e l’ENEA per collaborazioni sui settori delle energie rinnovabili, degli edifici efficienti e della mobilità elettrica sostenibile. Questo accordo di collaborazione scientifica è un’importante opportunità per contribuire agli obiettivi di riduzione delle emissioni, sviluppo delle tecnologie dell’efficienza energetica e rafforzamento delle industrie europee l connesse alla nascente green economy. EAI Energia, Ambiente e Innovazione 6/2012 Prospettive la cooperazione con i principali attori europei del sistema elettrico, stimolando il dibattito e il confronto fra le molteplici visioni del sistema stesso. Maggiori informazioni sono disponibili al sito: http:// ses.jrc.ec.europa.eu 45 Prospettive CAMBIAMENTI CLIMATICI L’impatto dei cambiamenti climatici sul sistema energetico italiano: verso una strategia nazionale di adattamento Oltre alle politiche e misure di mitigazione dei cambiamenti climatici, occorre anche studiare ed attuare strategie di adattamento che minimizzino gli impatti delle variazioni climatiche. In questo articolo vengono descritte le possibili conseguenze del cambiamento climatico sul sistema energetico e suggerite le misure necessarie a ridurre le vulnerabilità n Domenico Gaudioso I l settore energetico rappresenta un esempio di settore economico particolarmente vulnerabile ai cambiamenti climatici: da un lato, la produzione e il consumo di energia sono particolarmente sensibili rispetto all’andamento delle temperature e ai fenomeni estremi e, dall’altro, i servizi energetici devono rispondere a criteri molto severi, in termini quantitativi e qualitativi, soprattutto per quanto riguarda la loro continuità. In particolare, con l’aumento della temperatura media globale, aumenteranno i consumi energetici per il riscaldamento degli ambienti e si ridurranno quelli per il loro raffrescamento; l’entità di questi cambiamenti potrà variare per le diverse regioni e stagioni. L’effetto complessivo sulla domanda di energia dipenderà dagli andamenti dei parametri meteorologici a livello locale e stagionale, come anche dalla struttura dell’approvvigionamento energetico (i sistemi di condizionamento estivo dell’aria sono infatti alimentati da energia elettrica, mentre il riscaldamento fa anche uso diretto di combustibili fossili e rinnovabili). Le variazioni stagionali eserciteranno un’influenza diretta sul picco della domanda elettrica. n Domenico Gaudioso ISPRA, Dipartimento Stato dell’Ambiente e Metrologia Ambientale – Servizio Monitoraggio e Prevenzione degli Impatti sull’Atmosfera 46 EAI Energia, Ambiente e Innovazione 6/2012 La produzione e l’offerta di energia saranno inoltre influenzate dai cambiamenti climatici: a) nel caso in cui gli eventi meteorologici estremi diventino più intensi, b) nel caso in cui si debba fare fronte a riduzioni nella disponibilità delle risorse idriche per la produzione idroelettrica o per il raffreddamento delle centrali termo-elettriche c) laddove il cambiamento delle condizioni climatiche influenzi le decisioni sulla localizzazione degli impianti e d) laddove il cambiamento delle condizioni climatiche influenzi (positivamente o negativamente) la produzione di energia eolica, solare e da biomassa. Nonostante la sua elevata vulnerabilità, raramente il settore energetico è stato oggetto di una trattazione specifica nell’ambito dei documenti di base sugli impatti dei cambiamenti climatici: ad esempio, il contributo del Gruppo di Lavoro II al Quarto Rapporto di Valutazione dell’IPCC fa riferimento all’energia all’interno del capitolo 7 “Industria, insediamenti e società” (Alcamo et al., 2007), mentre la piattaforma europea sull’adattamento “Climate-Adapt” ne parla all’interno della sezione relativa alle infrastrutture (http:// climate-adapt.eea.europa.eu/). Le tematiche relative all’energia sono oggetto di maggiore attenzione nelle strategie di adattamento sviluppate da molti Stati membri dell’Unione Europea (in particolare, in quelle della Finlandia, della Francia, della Germania, del Por- Caratterizzazione degli impatti nella regione mediterranea e in Italia Nel settore residenziale e nel terziario, con l’aumento della temperatura media globale, meno energia sarà richiesta per il riscaldamento degli ambienti e più energia sarà invece richiesta per il loro raffrescamento; l’entità di questi cambiamenti potrà variare per le diverse regioni e stagioni. Nei Paesi dell’Europa meridionale, a causa dell’aumento delle temperature massime, maggiore di quello delle minime, e della minore efficienza dei sistemi di raffrescamento rispetto a quelli di riscaldamento, la domanda di energia per il raffrescamento aumenterà più di quanto si ridurrà la domanda di energia per il riscaldamento, e anche l’incremento dei costi per il raffrescamento supererà di gran lunga i risparmi relativi al riscaldamento (Mima et al., 2011). I cambiamenti climatici previsti per l’area del Mediterraneo avranno l’effetto di incrementare molto i consumi elettrici nella stagione estiva, anche per il crescente utilizzo di sistemi di condizionamento (Apadula et al., 2008; Gaudioso et al., 2009). Questo trend sarà influenzato dall’aumento della frequenza e dell’intensità delle ondate di calore (Apadula et al., 2012). È pertanto facilmente prevedibile, date le proiezioni climatiche attese per il XXI secolo, che la richiesta estiva sarà in sostanziale continuo aumento con probabili rischi di blackout dovuti al carico di punta estivo. A compensare, sia pur parzialmente, tale aumento della richiesta elettrica nel periodo estivo vi sarà di certo la minore richiesta nel periodo invernale a causa dell’utilizzo meno intensivo dei sistemi di riscaldamento di tipo elettrico. La capacità produttiva degli impianti termoelettrici potrebbe essere influenzata negativamente da alcuni fenomeni legati ai cambiamenti climatici, come inondazioni, riduzioni nella disponibilità di acqua di raffreddamento e aumento della sua temperatura e, infine, le temperature estreme. La frequenza di questi eventi tenderà ad aumentare, con l’aumento della frequenza e dell’intensità degli eventi estremi di temperatura e di precipitazione e, di conseguenza, di quelli alluvionali. Nelle zone costiere i fenomeni di inondazione saranno inoltre influenzati dall’aumento del livello del mare. Le variazioni meteo-climatiche hanno portato e porteranno nel tempo ad una riduzione delle disponibilità idriche per la produzione idroelettrica e ad una maggiore difficoltà nella loro gestione. Mentre sinora l’andamento delle precipitazioni, in particolare sul Nord Italia, non presenta un trend significativo, per il futuro ci si attende una sensibile riduzione delle precipitazioni, in particolare, nella stagione estiva. Per l’energia eolica, le indicazioni provenienti dal downscaling di modelli AOGCM suggeriscono che, entro la fine del secolo, la densità di energia del vento nel periodo invernale potrebbe ridursi nell’Europa meridionale; le variazioni sarebbero comunque trascurabili rispetto alla variabilità naturale (Pryor e Barthelmie, 2010). L’unico impatto di entità rilevante sul funzionamento delle turbine eoliche dovrebbe essere quello legato all’intensificazione degli eventi con velocità del vento particolarmente elevate. Per quanto riguarda l’utilizzo energetico delle biomasse, l’Italia è fortemente dipendente dalle importazioni di legna da ardere, di cippato e di scarti di legno. La vulnerabilità del settore dal punto di vista dell’approvvigionamento delle materie prime è quindi collegata ai trend climatici nei Paesi esportatori, ma anche alle loro politiche forestali. Gli impatti dei cambiamenti climatici sulle tecnologie di conversione sono invece analoghi a quelli già visti per i sistemi di produzione termoelettrici. I pochi studi che analizzano gli impatti dei cambiamenti climatici sul funzionamento dei sistemi fotovoltaici nel bacino mediterraneo indicano che, a fronte di un aumento medio della temperatura di 2 C, l’efficienza delle celle solari potrebbe ridursi dell’1% (Pašičko, 2010). Questo effetto sarebbe largamente compensato da un aumento della radiazione solare – e quindi della resa delle celle – che può essere assunto pari al 7%. In ogni caso, per tutte le fonti rinnovabili diverse dall’idroelettrico (eolico, biomasse, fotovoltaico), si prevedono impatti di entità minore, che si manifesteranno peraltro con tempi più lunghi della vita media degli impianti (Rademaekers et al., 2011). Nell’area del Mediterraneo, gli impatti potenziali più si- EAI Energia, Ambiente e Innovazione 6/2012 Prospettive togallo, della Scozia e della Spagna) e da alcuni Paesi extraeuropei, come il Canada. 47 Prospettive gnificativi dei cambiamenti climatici sul funzionamento delle reti elettriche saranno quelli dovuti all’aumento delle temperature e ai fenomeni di siccità. L’aumento della temperatura determina infatti un aumento della resistenza dei cavi, e quindi delle perdite di trasmissione, e rende più difficile la dissipazione del calore prodotto. Opzioni di adattamento specifiche Nel settore residenziale e nel terziario, i criteri di costruzione applicati nella nuova edilizia hanno raggiunto buoni valori di efficienza nel risparmio energetico per ciò che concerne l’uso del riscaldamento, mentre i medesimi criteri conducono a deboli svantaggi nell’utilizzo dei sistemi di raffrescamento (Madonna, 2012). È auspicabile quindi che si realizzino interventi di adattamento, sistematici e generalizzati, del comparto edilizio nazionale atti alla riduzione dei fabbisogni di climatizzazione per la stagione invernale e, soprattutto, per quella estiva. Al fine di ridurre le conseguenze delle crisi idriche sulla produzione termoelettrica, è opportuno mettere in atto una serie di provvedimenti di razionalizzazione, programmazione e riduzione dei consumi, che non riguardano esclusivamente l’ambito della produzione di energia elettrica. Nei casi più gravi, è possibile che si debba ridurre la produzione degli impianti o addirittura sospenderne il funzionamento. Al fine di ridurre la vulnerabilità degli impianti termoelettrici all’aumento delle temperature e alla riduzione delle portate dei corpi fluviali, sarebbe opportuno sostituire i sistemi di raffreddamento a ciclo aperto con sistemi a ciclo chiuso, e dotarli di raffreddatori ad aria o di pompe addizionali, oppure di torri di raffreddamento. Per l’energia idroelettrica, a lungo termine la riduzione delle risorse idriche disponibili comporterà un calo della produzione idroelettrica e renderà necessaria una crescente attenzione nei confronti della variabilità dell’apporto d’acqua lungo l’arco dell’anno al fine di tutelare le condizioni ecologiche del corso d’acqua e evitare i conflitti legati agli altri usi della risorsa, in particolare quelli agricoli. Nella gestione ordinaria, la crescente variabilità delle precipitazioni e, di conseguenza, delle disponibilità idriche richiederà un aumento dei volumi dei serbatoi di stoccaggio. Gli impatti attesi per gli impianti eolici, quelli alimen- 48 EAI Energia, Ambiente e Innovazione 6/2012 tati a biomassa e quelli fotovoltaici sono valutati di entità talmente ridotta, da poter essere trascurati nelle strategie a lungo termine e nella gestione ordinaria per questi impianti. Per un impianto a biomassa che produce elettricità per il carico di base, un’elevata frequenza di ondate di calore può comportare riduzioni significative della produzione; in questi casi è necessario valutare, in fase di progettazione, l’opportunità di investire in sistemi di raffreddamento più efficaci. Per la trasmissione e distribuzione di energia elettrica, esistono diverse misure di tipo win-win, che possono essere prese in considerazione già oggi per i loro effetti positivi, anche senza tener conto dell’aumento della resilienza ai cambiamenti climatici: ad esempio, l’interramento di parte della rete, che riduce gli impatti visivi e ambientali, l’utilizzo di sistemi di trasmissione flessibili in corrente alternata, che rende i sistemi più controllabili, e l’installazione di sistemi di monitoraggio, che facilita l’integrazione di fonti intermittenti (Rademaekers et al., 2011). Priorità di intervento per il settore Nel 2012, il Ministero dell’Ambiente, della Tutela del Territorio e del Mare ha dato l’avvio alla preparazione della Strategia Nazionale di Adattamento ai Cambiamenti Climatici. Nell’ambito delle attività previste, un ruolo cruciale è stato attribuito al coinvolgimento degli stakeholder, con il duplice fine di garantire la coerenza delle azioni che saranno intraprese a tutti i livelli e di avviare un processo di capacity-building di tutti i soggetti coinvolti (Castellari, 2012). Per le tematiche energetiche, in particolare, è necessario tener conto del fatto che gran parte delle decisioni di sviluppo del settore sono di competenza di soggetti privati, come le società di produzione e di distribuzione di energia elettrica. È quindi necessario che la strategia si ponga l’obiettivo di coinvolgere questi interlocutori nella definizione del quadro nazionale di riferimento e nelle attività di ricerca, come è stato fatto ad esempio nel Regno Unito, anche al fine di evitare casi di maladaptation. Per quanto riguarda le scelte relative alla localizzazione e alla progettazione degli impianti energetici, è necessario che, soprattutto nel caso di infrastrutture a lunga vita media che comportano elevati investimenti, Prospettive delle misure fin qui adottate in relazione ai primi due obiettivi (diversificazione delle fonti primarie, promozione delle fonti rinnovabili e dell’efficienza energetica, demand side management, utilizzo di sistemi di stoccaggio dell’energia, integrazione e sviluppo delle reti, utilizzo di contratti che prevedano l’interrompibilità del servizio) sembrano avere un effetto positivo ai fini dell’aumento della resilienza del sistema nei confronti dei cambiamenti climatici. È quindi necessario tener conto di tutte le possibili sinergie nella definizione delle strategie aziendali, e garantire che nella valutazione delle singole iniziative si includa l’obiettivo della riduzione dei rischi e della vulnerabilità rispetto l alle conseguenze dei cambiamenti climatici. b i b l i ograf i a si tenga conto dei cambiamenti climatici a partire dalle fasi iniziali del progetto, attraverso l’utilizzo di opportuni criteri di progettazione e l’adozione di misure tecnologiche specifiche. Questo vale, in particolare, per le opere soggette a VIA (Valutazione di Impatto Ambientale), per le quali gli studi di impatto ambientale dovrebbero prendere obbligatoriamente in considerazione i mutamenti nelle condizioni climatiche di riferimento che potranno verificarsi per un periodo corrispondente alla vita media dell’opera. A questo fine, non sarà sufficiente fare riferimento ai più autorevoli scenari climatici su scala globale o continentale, ma sarà anche necessario sviluppare scenari climatici su base regionale, che permettano di seguire l’evoluzione delle principali variabili climatiche tenendo conto dell’orografia, dell’uso dei suoli e delle isole di calore urbane. L’utilizzo di questi modelli risulterà essenziale, ad esempio, nel caso della produzione idroelettrica, al fine di evitare che si accentuino i conflitti tra l’utilizzo dell’acqua per la produzione di elettricità e gli altri utilizzi (agricolo, industriale, usi civili, navigazione fluviale). Ai fini della gestione dei rischi legati alla gestione degli impianti energetici, in particolare di quelli termoelettrici, un ruolo importante potrebbe essere svolto dai sistemi assicurativi. Al momento, però, questa opzione di adattamento potrebbe risultare problematica, dal momento che le società di assicurazione sono spesso in difficoltà nel valutare i rischi del cambiamento climatico, e potrebbero essere indotte, dall’elevata incertezza, a rifiutarsi di assicurare una specifica infrastruttura, a meno che il gestore non offra garanzie addizionali. In questi casi, i Governi possono intervenire prevedendo l’introduzione di un’assicurazione obbligatoria, fornendo sovvenzioni per i costi di assicurazione per i beneficiari, intervenendo come riassicuratori di ultima istanza o compensando i danneggiati attraverso aiuti diretti su base ex post (Paklina, 2003). Infine, è molto probabile che, anche in futuro, le società elettriche continueranno a dare priorità alla mitigazione – ovvero alla riduzione delle emissioni di gas-serra – e alla riduzione della vulnerabilità rispetto all’approvvigionamento delle materie prime, invece che all’adattamento alle conseguenze dei cambiamenti climatici. È però il caso di notare che molte [1] Alcamo J., Moreno J.M., Nováky B., Bindi, M., Corobov R., Devoy R.J.N., Giannakopoulos C.. Martin E., Olesen, J.E., Shvidenko, A. (2007) Europe. Climate change 2007: impacts, adaptation and vulnerability. In Contribution of Working Group II to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change (IPCC); Parry, M.L., Canziani, O.F., Palutikof, J.P., van der Linden, P.J., Hanson, C.E., Eds; Cambridge University: Cambridge, UK; pp. 541-580. [2] Apadula, F., Bassini, A., Elli, A., Scapin, S., 2012: Relationships between meteorological variables and monthly electricity demand, Applied Energy 98 (2012) 346-358. [3] Apadula, F., Negri, A., 2008: Cambiamenti climatici: dubbi, certezze e probabili impatti sul sistema elettrico, AEIT n.11, novembre 2008. [4] Castellari, S., 2012: Verso una strategia nazionale di adattamento, presentazione alla riunione svoltasi presso la Direzione Generale per lo Sviluppo Sostenibile, il Clima e l’Energia del Ministero dell’ambiente e della tutela del territorio e del mare il 27 febbraio 2012, http://www.minambiente. it/export/sites/default/archivio/allegati/vari/incontro_27_02_2012_dgsec_ castellari.pdf. [5] Gaudioso, D., Masullo, A. 2009: Impatti dei cambiamenti climatici sul settore energetico, in “I cambiamenti climatici in Italia: evidenze, vulnerabilità e impatti”, a cura di S. Castellari e V. Artale, Bononia University Press. [6] Madonna, F., 2012: Indicatori di consumo per la climatizzazione degli edifici, Rapporto RSE per la Ricerca di Sistema, Marzo 2012. [7] Mima, S., Criqui, P., Watkiss, P., 2011: Technical Policy Briefing Note 4: Energy, The Impacts and Economic Costs of Climate Change and Energy in the European Union: Summary of Sector Results from the ClimateCost project, funded by the European Community’s Seventh Framework Programme. [8] Paklina, N., 2003: Flood Insurance, OECD, 2003. [9] Pašičko, R., 2010: Impacts of Climate Change on Renewable Energy Sources in Croatia. Joint ICTP-IAEA Workshop on Vulnerability of Electricity Systems to Climate Change and Extreme Events, UNDP Croatia, April 2010. [10]Pryor, S.C., Barthelmie, R.J., 2010: Climate change impacts on wind energy: A review. Renewable and Sustainable Energy Reviews 14, 430-437 [11]Rademaekers, K., van der Laan, J., Boeve, S., Lise, W., Kirchsteiger, C., 2011: Investment needs for future adaptation measures in EU nuclear power plants and other electricity generation technologies due to effects of climate change – Final report, European Commission – Directorate General for Energy, Contract No. TREN/09/NUCL/SI2.547222, EUR 24769, March 2011. EAI Energia, Ambiente e Innovazione 6/2012 49 Studi&ricerche REVIEW & ASSESSMENT PAPERS Persistent Organic Pollutants in a global changing climate Climate change is not only altering the structure and function of natural and human systems, but is also impacting on less visible and less apparent aspects. There is a growing body of evidence that climate change will have broad negative impacts on the behaviour and fate of environmental contaminants. This paper briefly examines the information reported in the scientific literature to provide a short review of the current state of knowledge on the environmental behaviour of persistent organic pollutants (POPs) and the potential impacts of climate change on environmental dynamics of POPs. Reference is provided to the global efforts undertaken with the Stockholm Convention to reduce environmental and human exposure to POPs and to the risk that global warming could undermine such efforts n Pasquale Spezzano Gli inquinanti organici persistenti e il cambiamento climatico globale I cambiamenti climatici non solo stanno modificando la struttura e la funzione dei sistemi naturali e umani, ma hanno effetti anche su aspetti meno visibili ed evidenti. Numerose evidenze indicano che i cambiamenti climatici avranno notevoli ripercussioni sul comportamento e sul destino dei contaminanti ambientali. Il presente articolo esamina brevemente le informazioni riportate in letteratura per fornire una breve rassegna dello stato attuale delle conoscenze sul comportamento ambientale degli inquinanti organici persistenti (POPs) ed i potenziali effetti dei cambiamenti climatici sulla dinamica ambientale dei POPs. Viene inoltre fatto riferimento all’impegno globale assunto con la Convenzione di Stoccolma per ridurre l’esposizione ambientale ed umana ai POPs ed al rischio che il riscaldamento globale possa compromettere questi sforzi Persistent Organic Pollutants (POPs) Persistent organic pollutants (POPs) are chemical substances that, by definition, have three primary attributes: environmental persistence, tendency to bioaccumulate in the fatty tissue of living organisms, and toxicity. POPs are among the most toxic chemicals known to both humans and other organisms. Specific effects associated with POPs include endocrine di- n Pasquale Spezzano ENEA, Technical Unit for Environmental Technologies 50 EAI Energia, Ambiente e Innovazione 6/2012 sruption, immunotoxicity, neurotoxicity, reproductive toxicity, mutagenicity and carcinogenicity. These effects may occur in exposed individuals as well as in their offspring. [*] An important property of POPs is that of semi-volatility, a feature that permits these compounds to occur either in the vapour phase or adsorbed/absorbed on environmental surfaces. Some POPs cycle in the global environment for many decades because of re-volatilization from environmental compartments contaminated in the past. These chemicals can undergo seasonal cycles of evaporation from warm regions and subsequent deposition in colder regions (grass-hopping)[1]. POPs in air may be degraded by photochemical re- REVIEW & ASSESSMENT PAPERS the-art and legal framework of the time. The identification of POP substances has just begun. Brown and Wania[4] used a data set of more than 100,000 industrial chemicals, subjected it to screening models and identified 120 chemicals which could be classified as POPs. Recently, applying screening criteria to a set of 93,144 organic chemicals, 510 substances were found which can be considered as POPs[5]. Presently, ten of these substances are high production volume chemicals, and 249 are pre-registered in the EU under the REACH Regulation2. POPs fall into three categories: chlorinated pesticides, industrial chemicals and unintentional by-products. Historically, many POPs were used as pesticides. Although the use of many POP pesticides has been banned or restricted in the industrialized countries since the ‘70s, their presence still remains of concern. The problem is particularly severe in many developing countries and countries with economies in transition, because of stockpiles and uncontrolled dumpsites. In Africa, it is estimated that 20% of the over 27,000 tons of obsolete pesticide stockpiles consists of POPs that have been banned under the SC[6]. Some POPs have been used in industrial processes and in the production of a range of goods. For example, polychlorinated biphenyls (PCBs) have been widely used since 1930 as dielectrics in transformers and large capacitors, heat exchange fluids, paint additives, in carbonless copy paper, and in plastics. In 1985, the use and marketing of PCBs in the European Community were heavily restricted and, successively, Studi & ricerche actions and via reactions with hydroxyl radical. Wet and dry deposition of the particle-bound fraction of POPs is, on average, the fastest and most effective of the removal processes from the atmosphere. The persistence of POPs in other environmental media (water, soil, and sediment) is significantly longer. Over long periods of time (years to decades) these compounds eventually degrade or are sequestered in deep soils and sediments. As a result of releases to the environment over the past decades, POPs are widespread and are found ubiquitously in the environment, including regions, such as the Arctic, far from the place in which they were used and released. In response to this global problem, international agreements have been ratified, such as the POPs Protocol under the UN-ECE Convention on Long Range Transboundary Air Pollution (LRTAP)[2] and the Stockholm Convention (SC) on POPs[3]. The legally–binding SC was signed in 2001 and entered into force in 2004 with the overall objective of protecting human health and the environment from POPs. Since then, 178 countries have ratified the treaty. Initially, twelve chlorinated organic chemicals (the socalled dirty dozen) were listed under the SC. Subsequently, ten new substances have been added (Table 1). Currently, five chemicals are being considered for listing1. A characteristic of most chemicals classified as POPs under the SC is that in the past they were high production volume chemicals. In addition, many of these productions were conducted according to the state-of- Annex A (elimination) Aldrin*, chlordane*, chlordecone*, dieldrin*, endrin*, heptachlor*, hexabromobiphenyl#, hexabromodiphenyl ether and heptabromodiphenyl ether#, hexachlorobenzene (HCB)*#, alpha hexachlorocyclohexane*, beta hexachlorocyclohexane*, lindane*, mirex*, pentachlorobenzene*#, polychlorinated biphenyls (PCBs)#, technical endosulfan and its related isomers*, tetrabromodiphenyl ether and pentabromodiphenyl ether#, toxaphene*. Annex B (restriction) DDT*, perfluorooctane sulfonic acid, its salts and perfluorooctane sulfonyl fluoride#. Annex C (unintentional production) Polychlorinated dibenzo-p-dioxins (PCDD), polychlorinated dibenzofurans (PCDF), hexachlorobenzene (HCB), polychlorinated biphenyls (PCBs), pentachlorobenzene * Pesticide; # Industrial chemical TABLE 1 Listing of POPs in the Stockholm Convention Source: Stockholm Convention web site, http://chm.pops.int EAI Energia, Ambiente e Innovazione 6/2012 51 Studi & ricerche production, marketing, and use were completely banned. However, about 30% of the estimated 700,000 tons of PCBs produced in Europe has already been released into the environment. Several brominated flame retardants (BFRs) have characteristics that qualify them as POPs. After manufacture, the treated products can release BFRs during use and as waste after disposal. Thus, although several BFRs-POPs such as polybrominated diphenyl ethers (PBDEs) have been banned or phased out, the long life-times of the products which they are incorporated in will lead to their continued release for several decades to come[7]. Today, disposal and recycling of POP-containing applications (such as electronic equipment) are increasingly relocated to developing countries. Unintentionally produced POPs (U-POPs) such as dioxins and furans (PCDD/F) are formed as by-products during combustion and manufacturing processes. It is thought that global releases of U-POPs have remained the same over the last decades, or even increased, due to increased global combustion and production. In addition, there has been a significant shift in the emis- sion of these substances from developed to developing countries. This suggests that, given the expected increased energy and goods demands in developing countries, global releases of U-POPs may increase in coming years. The development of global emission inventories for U-POPs is challenging. The SC request Parties to establish national release inventories. The preliminary inventories were generally made according to the methodology recommended in the UNEP Standardized Toolkit[8]. From a selection of PCDD/F inventories for 93 countries (excluding the EU), covering a wide range in terms of geographic distribution, size, population and industrial development, the total annual PCDD/F releases to the five main vectors (air, water, land, product, and residue) can be calculated in 92.8 kg TEQ3 per year. The atmosphere receives 34% of the total release (31.6 kg TEQ per year) (Figure 1). It has been estimated that in the EU-25 some 21 kg TEQ of PCDD/F are released per year, of which around 5 kg to air, and 16 kg as waste[9]. Available inventories show that in developed countries, FigurE 1 Distribution of PCDD/F releases from 93 countries Source: elaboration of data from the Stockholm Convention web site, http://chm.pops.int 52 EAI Energia, Ambiente e Innovazione 6/2012 Impact of climate change on the environmental fate of POPs Climate change induced by anthropogenic activities is one of the major global problems, with significant social, economic, ecological, and health related impacts. The growing concern about global warming has led to the establishment of international agreements such as the Kyoto Protocol and the Intergovernmental Panel on Climate Change (IPCC). Climate variability forecasted by climate change scenarios presented by the 4th IPCC Assessment Report[14] shows that the atmospheric temperature is expected to increase by 1.8–4.0 °C by the end of the century. In addition, climate change will affect the atmospheric and oceanic circulation patterns, and the precipitation rate. As the environmental behaviour of chemicals is governed by environmental factors, one of the consequences EAI Energia, Ambiente e Innovazione 6/2012 REVIEW & ASSESSMENT PAPERS of climate change is its effect on the environmental distribution of chemical pollutants[15]. The Arctic Monitoring and Assessment Programme (AMAP) has conducted several activities in recent years documenting the link between climate change and the environmental transport and fate of contaminants, including POPs[16]. A joint UNEP/AMAP expert group reported on the implications of climate change on POPs and found that climate change is likely to increase exposure to POPs in some regions[17]. The distribution of an organic compound between air, water, sediment, soil and biota depends on complex interactions between different factors within an open environmental system, and is largely dependent on some key equilibrium parameters which include vapour pressure (P), water solubility (S), Henry’s law constant (H), partition coefficient octanol/air (KOA), and partition coefficient octanol/water (KOW). Vapour pressure affects the volatility of a chemical from various substrates. It governs, through the Henry’s law constant, the exchange rate of a chemical across an air-water interface. KOA is used to describe partitioning from air to aerosols, vegetation and soils while KOW is used to describe the uptake to aquatic organisms from water. The effects of global warming on the environmental behaviour of POPs can be predicted by considering temperature-driven changes in these partitioning constants[18]. Temperature is an important factor in determining the environmental behaviour and fate of POPs, as it has a direct influence on vapour pressure[19, 20]. An increase in temperature of 1°C increases the volatility of a typical POP by 10-15%. At the local level, atmospheric temperatures can, however, increase much more: for instance, an increase from 10°C to 15°C doubles vapour pressure of PCB-153[21]. Global warming will therefore lead to enhanced volatilization of POPs from contaminated environments, stockpiles and open applications. The effect of higher temperatures on the increase of secondary emissions from contaminated environments is supported by several experimental evidences[19, 22-24]. On the other hand, an increase in temperature could accelerate the atmospheric degradation of POPs, offsetting their increase in atmospheric concentrations[1, 25, 26]. These processes respond in opposite directions Studi & ricerche the main PCDD/F sources are the ferrous and nonferrous metal industries and waste incineration, whereas the predominant sources in developing countries are releases from open burning processes as well as forest fires, and pre- and post-harvest burning in agriculture. In Europe, the contribution of domestic sources to UPOP emissions is becoming increasingly important in relative terms. It was estimated that these sources may contribute with as much as 45% of the total emissions of PCDD/F to air[9]. However, the largest sources of PCDD/F release to the environment are probably related to past events of formation and releases[10]. PCDD/F contamination from pesticide use between 1950 and 1998 has been estimated at 460 kg TEQ in Japan alone. Timber treated with pentachlorophenol (PCP) and similar compounds resulted in an estimated total of 205-250 kg TEQ incorporated in timber in Sweden. Similarly, 378 kg TEQ of PCDD/F were released from a single factory producing pesticides in Hamburg, and more than 366 kg TEQ were released from spraying of defoliants during the Vietnam War[11]. The accident at the Hoffmann-La Roche subsidiary ICMESA in Seveso, in the summer of 1976, released anything from hundreds of grams to 34 kilograms of 2,3,7,8-tetrachlorodibenzo-p-dioxin (TCDD)[12, 13]. 53 to changes in temperature and the net result is difficult to predict. Additionally, degradation of POPs often includes the formation of products that are structurally similar to the parent compound and may also be similarly toxic and persistent[27]. Winds are the most important factors for the atmospheric transport of POPs. Modified wind patterns and higher wind speeds, as expected in the future, will lead to faster and more efficient atmospheric long-range transport of POPs. Desertification induced by climate change might also lead to enhanced distribution of POPs through dust transport associated with altered wind fields[16]. Climate change will also lead to changes in precipitation patterns. Precipitation projections in a changing climate differ from region to region, indicating both decreasing and increasing trends[14]. A decrease in the precipitation rate will lead to enhanced volatilization of POPs to the atmosphere, while an increase in intensity and frequency of rain events will lead to an enhanced wet deposition of airborne POPs[15]. Snow melting is important in POPs cycling[28]. Abundant snow deposition may lead to a large contaminant release during snowmelt, with the potential to impact drinking and agricultural water supplies[29]. The IPCC[14] reports that extreme precipitation events are expected to become more frequent, widespread, and intense. The impact of extreme events on the remobilization and redistribution of POPs has been documented[30]. As storms and rainfall events become more intense and frequent, increasing amounts of POPs bounded to soil particles could be transported by erosion and transferred to rivers, lakes and oceans, making them available to the aquatic environments[29]. Flooding events may also contribute to the dissemination and redistribution of POPs formerly stored in sediment and soils[31,32]. Of particular concern is the melting of glaciers, which cover most of the Polar regions, Greenland and mountainous areas such as the Alps. Because of the global transport, the Arctic acts as a long-term sink for POPs. In addition, at low temperatures POPs degrade at a slower rate than in temperate regions. In some cases, POPs are present in aquatic and terrestrial ecosystems of the Arctic at levels similar to those in in- 54 EAI Energia, Ambiente e Innovazione 6/2012 dustrialised countries[33]. Temperature increases due to climate change are more pronounced at higher latitudes[14]. Undoubtedly the Arctic environment is the most affected and vulnerable area with respect to both global warming and POPs contamination. Melting of polar ice caps as well as loss of permafrost result in the release of stored pollutants making them available for transfer to the atmosphere or to aquatic and terrestrial ecosystems[18]. A recent study[34] provides the first evidence that some POPs, previously stored in snow, ice, ocean, and presumably soil reservoirs, are being remobilized back into the Arctic atmosphere as a result of climate change. The atmospheric and oceanic circulation patterns could carry the released POPs to other parts of the globe. Release of POPs from mountain glaciers to Alpine lakes has already been observed[35,36]. Polar ice melting and increased evaporation rates influence ocean salinity, which in turn affects the solubility of organic chemicals (POPs are less soluble in water if salinity is higher) and, consequently, air-water partitioning. Salinity and wind patterns influence oceanic currents, which are important in determining POPs cycling[37]. These modified currents can provide an increased pollution in some regions of the globe. However, changes in ocean currents will mainly affect the transport of the more water-soluble POPs, such as HCHs and perfluorinated acids[38]. In addition to the many abiotic factors that can influence the behaviour of contaminants, organic carbon cycling, lipid dynamics and food web structures in terrestrial and aquatic systems can be adversely affected by climate change, which will in turn alter POPs transfer in biota[39, 40]. A result by IPCC[14] showed that approximately 20-30% of plant and animal species assessed so far are likely at risk if increases in global average temperature are greater than 1.5°C2.5°C. Climate change will affect ecosystem functions, biodiversity and population dynamics[41-43] (Figure 2). Thus, climate change will impact on the transfer of POPs through the food chains, from the absorption of POPs in phytoplankton and zooplankton from water to the bioaccumulation and biomagnification in top predators[15, 18, 34, 43]. Migratory species, such as fish, birds, and marine REVIEW & ASSESSMENT PAPERS Studi & ricerche FigurE 2 Overview of climate change impacts on ecosystems and biota and how they may interact with contaminants fate and effects Source: Schiedek et al., 2007 mammals, can assimilate POPs in one location and transport these contaminants to other locations[44]. This biotic transport may be similar in magnitude to the atmospheric and oceanic transport[45]. Change in the species migration patterns related to climate change could be an important factor modulating the local and global transport of POPs[18,46]. Food is the main route of the potential background human exposure to POPs[47]. This dietary exposure will be affected by any changes in the structure of the relevant food webs associated with climate change. The groups of populations most at risk from exposure to POPs, and therefore more likely to be affected by climate-related influences are, in general, developing foetus, children and the elderly. There is plenty of experimental and modelling evidence to suggest that climate change impacts the environmental fate of POPs[48, 49]. Monitoring programs over long time periods performed under the AMAP indicate that both temporal and spatial patterns of POPs in the Arctic air may already be affected by various processes driven by climate change[50]. Changes in sea ice cover, temperature, precipitation rates, and primary production have been identified by modelling and sensitivity analyses as the factors that have the greatest impact on the transport and accumulation of POPs[20, 21, 28, 51-53]. Managing the problem The only long-term solution to reduce the level of POPs in the environment is to prevent these substances from being released. Intentionally produced POPs currently listed in the SC are subject to a ban on production and use except where there are generic or specific exemptions. The production and use of DDT – a pesticide still used to control malaria and other vectors of disease in developing countries – is severely restricted. The introduction in the market and, therefore, into the environment, of new chemicals with POP characteristi- EAI Energia, Ambiente e Innovazione 6/2012 55 56 EAI Energia, Ambiente e Innovazione 6/2012 thening of the national capabilities through the promotion of cooperation and exchange of information and technology transfer. A range of activities focussed on assisting developing and transition economy countries to meet their obligations under the SC are currently being led by international organisations. In this context, ENEA is providing the United Nations Industrial Development Organization (UNIDO) with consultancy services in the development of demonstration projects aimed at promoting the uptake of BAT and BEP in industry, mainly the ferrous and non-ferrous metal industry, one of the most critical sector. These activities are targeted at avoiding the creation of a technology base inefficient and highly impacting on the environment and human health. Conclusions POPs that have been banned or regulated decades ago are sometimes referred to as ‘legacy’ POPs, because present day contamination is largely a ‘legacy’ of the past. Some POPs are preserved almost indefinitely in the environment. Most of these pollutants generated by our grandparents have been stored in environmental reservoirs such as soil, ocean water and glaciers over the past decades. There is a growing body of evidence that climate change scenarios will result in a substantial release of POPs from their reservoirs and will affect the environmental fate of POPs at the global, regional and local scales. Whilst little can be done for pollutants released in the past and presently still ‘hidden under the carpet’, much can be done to avoid the production of new substances with POPs characteristics and to reduce the releases of unintentionally produced POPs. Yet, global warming could undermine the global efforts made to reduce the l environmental and human exposure to POPs. notes cs could be prevented by more restrictive legislations. In Europe, the production or import of new POPs could be prevented by the REACH Regulation. Under this framework, companies that manufacture or import more than one tonne of a chemical per year are required to register it in a central database. Substances of very high concern, including persistent, bio-accumulating and toxic substances (PBT) and very persistent and very bio-accumulating substances (vPvB) require authorisations for particular uses. The European Chemicals Agency (ECHA) has the right to request further testing if it suspects that a substance might exhibit POP characteristics. As a priority action, the SC requires the identification and safe management of stockpiles containing or consisting of POPs. Waste containing, consisting of, or contaminated with POPs should be disposed of in such a way that POPs are destroyed or irreversibly transformed. With regard to the identification and remediation of sites contaminated by POPs, the SC encourages Parties to develop strategies for identifying contaminated sites; if remediation is necessary then it must be done in an environmentally sound manner. The U-POPs flow is characterised by relatively small amounts that are constantly formed and released. Remarkable stocks that need to be disposed of do not exist. The SC requires Parties to take measures to reduce the total releases of U-POPs. The crucial point in reducing future loading of U-POPs in the environment is to reduce their formation by applying Best Available Techniques (BAT) and Best Environmental Practices (BEP). These may include end-of-pipe solutions or the development of substitute or modified materials, products and processes that avoid the formation and release of U-POPs. Guidelines on BAT/BEP have been developed under the SC[54]. Processes and technologies preventing POPs from being formed and transferred to air, water, soil and waste streams should be introduced. The obligations and objectives of the SC are very ambitious. The issue is particularly severe in many developing countries and countries with economies in transition because of limited financial and technological resources. The SC recognises the particular needs of these countries, therefore the general obligations include provisions on technical assistance and streng- 1. Hexabromocyclododecane, short-chained chlorinated paraffins, chlorinated naphthalenes, hexachlorobutadiene and pentachlorophenol. 2. Regulation (EC) 1907/2006 concerning the Registration, Evaluation, Authorisation and Restriction of Chemicals (REACH). 3. TEQ: Toxic EQuivalent. A system to calculate the total toxicity of the sum of several PCDD/F congeners by rating them against the most toxic one (2,3,7,8-tetrachlorodibenzo-p-dioxin). EAI Energia, Ambiente e Innovazione 6/2012 REVIEW & ASSESSMENT PAPERS Studi & ricerche referen ces [*] WHO (2003), Health risks of persistent organic pollutants from long range transboundary air pollution, The Netherlands, 274 pp., http://www.euro.who.int/__data/ assets/pdf_file/0009/78660/e78963.pdf [1] F. Wania, D. Mackay (1996), “Tracking the distribution of persistent organic pollutants”, Environmental Science & Technology, 37, 1352–1359. [2] Protocol on Persistent Organic Pollutants (POPs), Convention on Long-range Transboundary Air Pollution, United Nations Economic Commission for Europe (UNECE). http://www.unece.org/env/lrtap/welcome.html. [3] Stockholm Convention on Persistent Organic Pollutants (POPs), http://chm.pops.int [4] T.N. Brown, F. Wania (2008), “Screening chemicals for the potential to be persistent organic pollutants: a case study of arctic contaminants”, Environmental Science & Technologies, 42, 5202–5209. [5] M. Scheringer, S. Strempel, S. Hukari, C.A. Ng, M. Blepp, K. Hungerbuhler (2012), “How many persistent organic pollutants should we expect?”, Atmospheric Pollution Research, 3, 383-391. [6] FAO, Prevention and Disposal of Obsolete Pesticides, http://www.fao.org/agriculture/crops/obsolete-pesticides/what-dealing/en/. Accessed: August 3, 2012. [7] C.A. de Wit, D. Herzke, K. Vorkamp (2010), “Brominated flame retardants in the Arctic environment - trends and new candidates”, Science of the Total Environment, 408, 2885-2918. [8] UNEP (2005), “Standardized Toolkit for Identification and Quantification of Dioxin and Furan Releases”, Edition 2.1, UNEP Chemicals, Geneva, Switzerland. BiPRO (2006), “Identification, assessment and prioritisation of EU measures to reduce releases of unintentionally produced/releases persistent organic pollutants”, European Commission, Brussels, http://ec.europa.eu/environment/dioxin/index.htm [9] BiPRO (2006), “Identification, assessment and prioritisation of EU measures to reduce releases of unintentionally produced/releases persistent organic pollutants”, European Commission, Brussels, http://ec.europa.eu/environment/dioxin/index.htm [10] R. Weber, C. Gaus, M. Tysklind et al. (2008), “Dioxin- and POP-contaminated sites—contemporary and future relevance and challenges”, Environmental Science and Pollution Research, 15, 363-393. [11] M.J. Stellmann, S.D. Stellmann, R. Christian, R. Weber, C. Tomasallo (2003), “The extent and patterns of usage of Agent Orange and other herbicides in Vietnam”, Nature, 422, 681-687. [12] A. Di Domenico, V. Silano, G. Viviano, G. Zapponi (1980), “Accidental release of 2,3,7,8-tetrachlorodibenzo-p-dioxin (TCDD) at Seveso, Italy. II: TCDD distribution in the soil surface layer”, Ecotoxicology and Environmental Safety, 4, 298-320. [13] A. Di Domenico, S. Cerlesi, S. Ratti (1990), “A two-exponential model to describe the vanishing trend of 2,3,7,8-tetrachlorodibenzo-p-dioxin (TCDD) in the soil of Seveso, Northern Italy”, Chemosphere, 20, 1559–1566. [14] IPCC (2007), “IPCC Fourth Assessment Report: Climate Change 2007 (AR4)”, United Nations Intergovernmental Panel on Climate Change. Available at: http://www. ipcc.ch/publications_and_data/publications_and_data_reports.shtml [15] P. D. Noyes, M.K. McElwee, H. D. Miller, B. W. Clark, L. A. Van Tiem, K. C. Walcott, K. N. Erwin, E. D. Levin (2009), “The toxicology of climate change: Environmental contaminants in a warming world”, Environment International, 35, 971–986. [16] AMAP (2011), “Combined Effects of Selected Pollutants and Climate Change in the Arctic Environment” By: R. Kallenborn, K. Borgå, J.H. Christensen, M. Dowdall, A. Evenset, J.Ø. Odland, A. Ruus, K. Aspmo Pfaffhuber, J. Pawlak, L.-O. Reiersen. Arctic Monitoring and Assessment Programme (AMAP), Oslo. 108 pp. [17] UNEP/AMAP (2011), “Climate change and POPs: Predicting the impacts”, Report of the UNEP/AMAP Expert Group. Secretariat of the Stockholm Convention, Geneva, 62 pp. [18] R.W. Macdonald, T. Harner, J. Fyfe (2005), “Recent climate change in the Arctic and its impact on contaminant pathways and interpretation of temporal trend data”, Science of the Total Environment, 342, 5-86. [19] F. Wania, J. E. Haugan, Y. D. Lei, D. Mackay, (1998), “Temperature dependence of atmospheric concentrations of semivolatile organic compounds”, Environmental Science & Technology, 32, 1013– 1021. [20] A. Beyer, F. Wania, T. Gouin, D. Mackay, M. Matthies (2003), “Temperature dependence of the characteristic travel distance”, Environmental Science & Technology, 37, 766–771. [21] L. Lamon, H. Von Waldow, M. MacLeod, M. Scheringer, A. Marcomini, K. Hungerbühler, (2009), “Modeling the Global Levels and Distribution of Polychlorinated Biphenyls in Air under a Climate Change Scenario”, Environmental Science & Technology, 43, 5818–5824. [22] K. C. Hornbuckle,. J. D. Jeremlason, C. W. Sweet, S. J. Eisenreich (1994), “Seasonal variations in air-water exchange of polychlorinated biphenyls in Lake Superior”, Environmental Science & Technology, 28, 1491– 1501. [23] T. E. McKone, J. I. Daniels, M. Goldman (1996), “Uncertainties in the link between global climate change and predicted health risks from pollution: Hexachlorobenzene (HCB) case study using a fugacity model”, Risk Analysis, 16, 377–393. [24] J. Ma, Z. Cao, H. Hung (2004), “North Atlantic Oscillation signatures in the atmospheric concentrations of persistent organic pollutants: An analysis using Integrated Atmospheric Deposition Network–Great Lakes monitoring data”, Journal of Geophysical Research, 109, D12305, doi:10.1029/2003JD004435. [25] S. Sinkkonen, J. Paasivirta (2000), “Degradation half-life times of PCDDs, PCDFs and PCBs for environmental fate modelling”, Chemosphere, 40, 943–949. [26] M. Dalla Valle, E. Codato, A. Marcomini (2007), “Climate change influence on POPs distribution and fate: A case study”, Chemosphere, 67, 1287–1295. [27] U. Schenker, M. Scheringer, K. Hungerbuhler, (2007), “Including degradation products of persistent organic pollutants in a global multi-media box model”, Environmental Science and Pollution Research, 14, 145-152. [28] T. Meyer, F. Wania (2007), “What environmental fate processes have the strongest influence on a completely persistent organic chemical’s accumulation in the Arctic?”, Atmospheric Environment, 41, 2757–2767. [29] G.L. Daly, F. Wania (2005), “Organic contaminants in mountains”. Environmental Science & Technology, 39, 385–398. [30] S.M. Preslev, T. R. Rainwater, G.P. Austin, SG, Platt, J.C. Zak, G.P. Cobb, E.J. Marsland, K. Tian, B. Zhang, T.A. Anderson, S.B. Cox, M.T. Abel, B.D. Leftwich, J.R. Huddleston, R.M. Jeter, R.J. Kendall (2005), “Assessment of pathogens and toxicants in New Orleans, LA following hurricane Katrina”, Environmental Science & Technology, 40, 468-474. 57 referen ces Studi & ricerche 58 [31] M. Wilken, F. Walkow, E. Jager, B. Zeschmar-Lahl (1994), “Flooding area and sediment contamination of the river Mulde (Germany) with PCDD/F and other organic pollutants”, Chemosphere, 29, 2237-2252. [32] K. Hilscherova, L. Dusek, V. Kubik, P. Cupr, J. Hofman, J. Klanova, I, Holoubek (2007), “Redistribution of organic pollutants in river sediments and alluvial soils related to major floods”, Journal of Soils and Sediments, 7, 167–177. [33] B.M. Braune, P.M. Outridge, A.T. Fisk, D.C.G. Muir, P.A. Helm, K. Hobbs, et al. (2005) “Persistent organic pollutants and mercury in marine biota of the Canadian Arctic: an overview of spatial and temporal trends”, Science of the Total Environment, 351, 4-56. [34] J.Ma, H. Hung, C. Tian, R. Kallenborn (2011), “Revolatilization of persistent organic pollutants in the Arctic induced by climate change”, Nature Climate Change, 1, 255–260. [35] J.M. Blais, D.W. Schindler, D.C.G. Muir, M. Sharp, D. Donald, M. Lafreniere, et al. (2001), “A major source of persistent organochlorines to subalpine Bow Lake in Banff National Park, Canada”, Ambio, 30, 410–415. [36] C. Bogdal, P. Schmid, M. Zennegg, F. S. Anselmetti, M. Scheringer, K. Hungerbühler (2009), “Blast from the Past: Melting Glaciers as a Relevant Source for Persistent Organic Pollutants”, Environmental Science & Technology, 2009, 43, 8173–8177. [37] R. Lohmann, E. Jurado, M.E.Q. Pilson, J. Dachs (2006), “Oceanic deep water formation as a sink of persistent organic pollutants”. Geophysical Research Letter, 33, L12607, doi:10.1029/2006GL025953. [38] N. Yamashita, S. Taniyasu, G. Petrick, S, Wei, T. Gamo, P.K.S. Lam, K. Kannan (2008), “Perfluorinated acids as novel chemical tracers of global circulation of ocean waters”, Chemosphere, 70, 1247-1255. [39] R.W. MacDonald, D. MacKay, B. Hickie (2002), “Contaminant amplification in the environment”. Environmental Science & Technology, 36, 456A–462A. [40] L. Nizzetto, M. Macleod, K. Borgå, A. Cabrerizo, J. Dachs, A.D. Guardo, D. Ghirardello, K.M. Hansen, A. Jarvis, A. Lindroth, B. Ludwig, D. Monteith, J.A. Perlinger, M. Scheringer, L. Schwendenmann, K.T. Semple, L.Y. Wick, G. Zhang, K.C. Jones (2010), “Past, present, and future controls on levels of persistent organic pollutants in the global environment”, Environmental Science & Technology, 44, 6526–6531 [41] O.L. Petchey, P.T. McPhearson, T.M. Casey, P.J. Morin (1999), “Environmental warming alters food-web structure and ecosystem function”, Nature, 402, 69–72. [42] J.P. Harmon, N.A. Moran, A.R. Ives (2009), “Species response to environmental change: impacts of food web interactions and evolution”, Science, 323, 1347– 1350. [43] D. Schiedek, B. Sundelin, J.W. Readman, R.W. Macdonald (2007), “Interactions between climate change and contaminants”, Marine Pollution Bulletin, 54, 1845– 1856. [44] E.M. Krümmel, R.W. Macdonald, L.E. Kimpe, I. Gregory-Eaves, M.J. Demers, J.P. Smol, B. Finney, J.M. Blais (2003), “Delivery of pollutants by spawning salmon: Fish dump toxic industrial compounds in Alaskan lakes on their return from the ocean”, Nature, 425, 255-256. [45] K.A. Burek, F.M.D. Gulland, T.M. Ohara (2008), “Effects of climate change on Arctic marine mammal health”, Ecological Applications, 18, S126-134. [46] J.M. Blais, R.W. Macdonald, D. Mackey, E. Webster, C. Harvey, J.P. Smol (2007), “Biologically mediated transport of contaminants to aquatic systems”. Environmental Science & Technology, 41, 1075–1084. [47] E. Undeman, T.N. Brown, F. Wania, M.S. McLachlan (2010), “Susceptibility of human populations to environmental exposure to organic contaminants”, Environmental Science & Technology, 44, 6249- 6255. [48] R.W. Macdonald, D. Mackay, Y.F. Li, B. Hickie (2003), “How will global climate change affect risks from long-range transport of persistent organic pollutants?”, Human and Ecological Risk Assessment, 9, 643–660. [49] J. Ma and Z. Cao (2010), “Quantifying the Perturbations of Persistent Organic Pollutants Induced by Climate Change”, Environmental Science & Technology, 44, 8567–8573. [50] H. Hung, R. Kallenborn , K. Breivik, Y. Su, E. Brorström-Lundén, K. Olafsdottir, J. M. Thorlacius, S. Leppänen, R. Bossi, H. Skov, S. Manø, G. W. Patton, G. Stern, E. Sverko, P. Fellin (2010), “Atmospheric monitoring of organic pollutants in the Arctic under the Arctic Monitoring and Assessment Programme (AMAP): 1993–2006”, Science of the Total Environment, 408, 2854–2873. [51] A. Beyer, D. Mackay, M. Matthies, F. Wania, E. Webster (2000), “Assessing long-range transport potential of persistent organic pollutants”, Environmental Science & Technology, 34, 699–703. [52] K. Borgå, T.M. Saloranta, A. Ruus (2010), “Simulating climate change induced alterations in bioaccumulation of organic contaminants in an Arctic marine food web”, Environmental Toxicology and Chemistry, 29, 1349–1357. [53] C. Bogdal, D. Nikolic, M. Lüthi, U. Schenker, M. Scheringer, K. Hungerbühler (2010), “Release of Legacy Pollutants from Melting Glaciers: Model Evidence and Conceptual Understanding”, Environmental Science & Technology, 44, 4063–4069. [54] Stockholm Convention (2006), “Guidelines on best available techniques and provisional guidance on best environmental practices relevant to Article 5 and Annex C of the Stockholm Convention on Persistent Organic Pollutants”, Geneva, Switzerland. http://chm.pops.int EAI Energia, Ambiente e Innovazione 6/2012 Studi&ricerche TECHNICAL PAPERS Simulation theory applied to the LCOE analysis for Offshore Wind Power Plants and other competing technologies This work deals with the comparative “levelised cost of electricity” (LCOE) for various technologies, in particular for a typical offshore wind power plant compared to ASC coal FGD plant with CCS, and Nuclear EPR 3, onshore wind and gas CCGT plants. This paper proposes a stochastic approach based on Monte-Carlo simulation to account for various uncertainties for the most significant cost components when determining the overall cost of electricity generation: furthermore, by using forecast data, the simulation performed can help estimate the long-term reliability of the costs calculated under uncertainty. In addition, the study explains the components of unit cost calculations and includes a sensitivity analysis of investment and fuel costs, applicable discount rates and carbon emission costs n Maria Gaeta, Marco Rao Teoria della simulazione applicata ad un’analisi LCOE per l’eolico offshore e tecnologie concorrenti Il lavoro si occupa del “costo livellato dell’energia elettrica” (LCOE) comparato per varie tecnologie, in particolare per un tipico impianto eolico offshore confrontato con impianti a carbone ASC FGD con CCS, nucleare EPR 3, eolico onshore e gas a ciclo combinato CCGT. Viene proposto un approccio stocastico basato sulla simulazione Monte Carlo per tenere conto di varie incertezze per i componenti di costo più rilevanti per la determinazione del costo totale di generazione di energia elettrica: inoltre, utilizzando dati di previsione, la simulazione effettuata può essere utilizzata per stimare la affidabilità a lungo termine dei parametri di costo calcolati in condizioni di incertezza. Inoltre lo studio effettuato spiega le principali componenti del calcolo dei costi unitari e include un’analisi di sensitività sui costi di investimento e di combustibile, sul tasso di sconto applicabile e sui permessi di emissione di carbonio O ffshore Wind Technologies have played an increasingly important role in the recent strong development of RES technologies. Over the past 10 years offshore wind power cumulative capacity in EU has grown more than 1GW per year[28]. This significant growth in all renewable technologies has been strongly affected by measures like incentives scheme, resulting from climate mitigation policies[9]. Policy makers need to be able to compare costs and benefits of different types of power generation plants to make decisions about energy policy. It is crucial to “compare like with like” to increase the meaning and usefulness of this kind of work[7] and for this reason, to n Maria Gaeta, Marco Rao ENEA, Studies and Strategies Central Unit EAI Energia, Ambiente e Innovazione 6/2012 59 support policy makers, an LCOE analysis is discussed in this paper. The present analysis is based on a DECC (Department of Energy and Climate Change - UK) study (2011), integrated with other works (RAE, 2004 and others). The Levelised Cost Of Energy (LCOE) is a global standard as an economic measure for energy plants: LCOE is the average price that consumers would have to pay so that the investor/operator for the capital, operation, maintenance and fuel expenses is repaid exactly, with a rate of return equal to the discount rate[17]. Therefore, the levelised cost of energy allows to compare alternative technologies under different scales of operation, different investment and operating time periods, or both. In this paper, an LCOE analysis is supported by Monte Carlo simulations of the main generation cost parameters, subject to high unpredictability. As always, the hardest part of this work was to get reliable and fairly recent data at the basis of LCOE equation specifications. It is necessary to remark that there are important cost components not captured by this type of approach (e.g., externalities)[3,10,13]: LCOE is only one of the indicators available to evaluate investment options: it can be seen as a sort of “first order assessment of project viability”[5]; the same holds for the simulation methods used in this work, in addition to estimate indications on the robustness of the results under conditions of uncertainty[29]. Initially, the work of analysis is concerned with describing the technologies examined, in particular the major key assumptions on plant costs and their technical performance. Then, a focus of the financial part of the LCOE model is performed and Monte Carlo techniques are shown. The last sessions present the study results and summarize the main conclusions. In the Appendix, a short list of acronyms and abbreviations used in this work is given. Technical and economic data The aim of this work is to evaluate the electricity generation cost from Offshore Wind plants and to know under which conditions these costs could become economically competitive with a representative set of other power plants. 60 EAI Energia, Ambiente e Innovazione 6/2012 Applying the LCOE methodology, a typical Offshore Wind plant has been compared with the major competitors’ generation plants, considering the average technical characteristics. We chose the main base-load technologies (like CCGT), the cheapest way of generating electricity, but also “innovative” technology options that can become significant in the future, like as Coal Plants with CCS. The generation technologies set and the data and specifications, coming from the reference studies[2,5,6,7,8] and other sources[24,25,29], are: one “mature” technology: Gas fired Combined Cycle Gas Turbine, CCGT, without CCS to take account of relatively less “advanced” but economically competitive characteristics - gas CCGTs type is in a configuration based on a twin block installation with a gross capacity of 830 MW, comparable with the other plants examined. Onshore Wind plant (100 MW), located 10 km from a MV substation. Offshore Wind plant of 200 MW, located 25 km from shore in 20 meters of water, using monopole foundations. the Nuclear European Power Reactor (EPR), third generation: pressurized water reactors (PWR) of 1600 MW. the Advanced Supercritical (ASC) coal plant with Flue Gas Desulphurization (FGD) and with postcombustion Carbon Capture and Storage (CCS) with a plant capacity of 1600 MW. The selected cost and performance parameters take into account timing (like construction, operational and decommissioning period), technical data (plant heat and power output, efficiency, load factor, and so on), capital costs (like EPC), operational and maintenance costs (like fixed and variable maintenance costs). Several assumptions for the cost of CO2 disposal, waste disposal, decommissioning, fuel price projections, and other variables are also considered. LCOE is calculated for the plant lifetime and given in currency units per megawatt-hour (E/MWh). Each technology has a set of variables and parameters necessary to calculate the LCOE standard expression. Special attention is given to the distinction of characteristics for the first of a kind (FOAK)1 and the nth of Wind Offshore Key Timings Wind Onshore Gas - CCGT ASC Coal with CCS Nuclear EPR 3 Construction period years 1.5-3 2-2.2 2.5-3.2 4.8-6 5-7 Plant operation period years 21 22 28 36 60 Technical data Gross power output MW 200 100 Gross Efficiency % 100 100 Average Degradation % 0 0 Average Load Factor % 39 28 EPC cost E/kW 3000-3850 Pre-licensing cost, Technical and Design E/kW Regulatory + licensing + public enquiry E/kW 830 1600 1600 58 35 100 3,5 2,5 0 78 78 90 1450-1900 700-780 2900-3400 3100-4000 50-72 55-110 31-44 66-130 55-110 50-71.5 38.5-77 27.5-39 66-130 55-110 Capital costs O&M costs O&M fixed fee ‘000E/MW/yr 125.4-141.9 34-41.3 22.2-31.6 92.4-134 85.8-106.7 E/MWh 0 0 2.4-2.5 14.8-15.8 2-2.75 O&M variable fee TABLE 1 Key parameters for the examined technologies[2,8] a kind (NOAK)2 plant. The previous distinction is useful to compare mature and innovative technologies[30]: this is very important when considering the capital cost and forward price adjustments of new technologies about this work. Assumptions about FOAK and NOAK values for all parameters follow the main reference studies[7,8,17]. For the power plant that uses fossil fuels, the variability of the fuel price and the carbon price is very important to establish a realistic value of power generation cost. Fuel prices have been based on DECC’s[2] projections until 2030 and they are shown in Table 2. As shown in Table 2, three different scenarios of projected costs were considered, depending on varying global energy demand levels. It is worth noting that the Scenario Unit Gas Coal Low €/GJ 4.3 1.5 Mid €/GJ 8.1 2.4 High €/GJ 11.2 4.0 TABLE 2 Average fuel prices in TECHNICAL PAPERS m.u. Studi & ricerche 2015-2030[2, 7, 8] nuclear fuel price includes uranium enrichment and fabrication of fuel elements[20] (average 3-5 €/GJ). In general, a high fossil fuel price is expected in case of strong climate mitigation policies (so in the case of higher carbon prices). As mentioned above, there are many other components not captured by levelised costs[3,6], like the externalities, the system factors (e.g., transmission costs), etc. Indeed, it is possible to incorporate some of these factors. In this study we have considered the CO2 emission cost because, for fossil fuel plants, uncertainty in the damage costs by air pollutants can potentially increase significantly the LCOE in some cases. In the no-externality case, fossil fuel technologies are highly attractive, but as externalities cost increase, their fuel intensity and emissions can raise their LCOEs well above those of RES in general, and Wind Offshore in particular[6]. This work relies on the central hypothesis of the reference study[7] (CO2 price starts from 14 €/t in 2010 and rises to 18 €/t by 2020 and to 77 €/t in 2030). The problems in getting the data have been overco- EAI Energia, Ambiente e Innovazione 6/2012 61 Studi & ricerche me, where possible, using data from reference plants or time series from literature, or from institutional data sources[2,5,6,14,17,18,24,28]. For Offshore Wind Plants, special attention was dedicated to key factors affecting the final cost (Figure 1) [11,12,15,16,17,22,24,27,29]. The major problem for the operators of Offshore Wind Farms is to reduce their investment costs; furthermore, to minimize operation and maintenance costs they need to obtain higher reliability. Offshore Wind Technologies and renewables are generally more expensive than conventional generation plants, due to the immaturity of the technology and a still limited diffusion. In addition, fluctuations in the energy source itself may limit the output of generation available from these technologies. About the future of offshore, since Denmark has a primary role in the European wind industry, some forecasts from Denmark wind players have been used as a benchmark in some sensitivity analysis performed and discussed later: for example, a reasonable target for the above mentioned players is to reduce CAPEX by approximately 40% of current costs[22], an indication used in this work. LCOE model and financial analysis The LCOE approach is adopted to compare the different technologies because it takes into account the various amounts of energy produced over different technical lifetimes[29]. So the levelised cost of energy (LCOE) allows to compare alternative technologies when there are different scales of operation, different investment and operating time periods, or both. For example, the LCOE could be used to compare the cost of energy generated by a renewable power plant with that of a conventional fossil fuel power plant.[1] As always, main components of LCOE are: capital costs, O&M costs, fuel cost, carbon costs; data from plant like lifetime, load factor, and so on; discount rate and others (e.g., shape of the learning curve). For components not captured by LCOE[5], like the externalities, it is possible to incorporate some of these factors by adjusting one or more of the elements described above, so that they act as a proxy for the ‘missing’ elements. Despite its several limitations, the strength of the LCOE approach is the simplicity and effectiveness of the method: this is reflected in the large number of existing works that use it. However, it is good to be aware that in estimating the LCOE costs components a wide range of ad-hoc assumptions has been used, and each assumption is quite far from being unanimously accepted. The extended standard equation used in this work is: where: INV N O&M FigurE 1 LCOE cost structure for Offshore Wind power plants Source: Rao, Gaeta, 2012 62 EAI Energia, Ambiente e Innovazione 6/2012 2) Investment cost Economic Lifetime Total Operation and maintenance costs, fixed and variable (O&M) DR Real discount rate FC Annual fuel cost Annual cost of carbon emissions CO2 RV Residual Value (where available) P Power (in MW) LF Load factor The choice between real or nominal LCOE depends on the purpose of the analysis: this work performs a constant-euro analysis to keep tracks of the real cost The DR Model The WACC3 formulation is given by the rate that a company is expected to pay on average to all its security holders to finance its assets. The equation is: 3) WACC = wd * kd (1 – t) + ws * ks where: weight of debt proportion to total capital wd weight of equity proportion to total capital ws cost of debt k d Simulation The Monte Carlo technique is a non-parametric statistical method, based on the use of random numbers and probability to get solutions for mathematical problems which have many variables not easily solved, simulating different probability distributions of the main parameters. Simulation methods made uncertainty analysis through “the substitution of a probability distribution for any factor that has a huge uncertainty” [32]. This work implements the so-called “raw” Monte Carlo (MC): this choice relies on various considerations: there are problems in establishing the boundary delimiting the domain of integration; there are no peaks concentrated in restricted regions for variables to be integrated and, finally, raw MC allows to get an acceptable trade-off between accuracy and simplicity. The probability distribution model used is continuously Uniform: this choice was made for two main reasons. The first relates to the lack of suitable data to define evenly patterns of specific probabilities for EAI Energia, Ambiente e Innovazione 6/2012 TECHNICAL PAPERS Financial analysis and discount rate The LCOE methodology discounts time series of cost components to their present values in a specified base year by applying a discount rate (DR) value; as expected, the capital-intensive technologies are very sensitive to discount rates, and some technologies should be associated with higher discount rates because they are perceived to be riskier: DR should incorporate or reflect in some way the risk profile associated to the riskier technologies, but this is very difficult using the LCOE approach[5]. According to the IEA (International Energy Agency), different ways to finance projects (i.e., debt versus equity) reflect the indirect assumption that “equity is riskier than debt”, so high risk technologies should require higher discount rates. This work uses a classical discount rate model from the CAPM theory, considering a low randomness of the equation parameters (like β) to get a compromise solution about one of the LCOE approach limitations: different DRs should be applied to the various components of cost (typical case is O&M costs vs. fuel costs). The chosen DR model is consistent with those of other reference works[18]. DR was fixed at 10% per annum (sensitivity analysis ranges from about 2.5% to 12.5% per annum)[5,6,8,17]. Discounting is applied over the economic life of power plants, which is assumed to be somewhat longer than the typical financing terms. A fixed discount rate and a model based DR have been used. ks cost of equity t corporate tax rate Projects can be financed by both debt and equity; specifically, the after-tax weighted average cost of capital is the discount rate used in evaluating investment opportunities. Kd is equivalent to the interest-rate paid by the company (the so-called risk-free rate4): it is assumed exogenous. Capital Asset Pricing Model (CAPM) provides methods to compute the cost of equity5, which is an implied investor’s opportunity cost that reflects the specific risk of the investment. The model for such a cost is: 4) kst = kRFt + (EMRP * bequity) where cost of equity at year t kst risk-free rate at year t kRFt EMRP expected market risk premium (constant) Bequity equity beta (constant) The assumptions about the main DR model variables are based on an elaboration of hypothesis from current literature. Studi & ricerche trends with more accuracy[1,17]. For the currency unit, the same approach of the reference works has been used[1,8,18]. The model used was developed in an Excel spreadsheet: it performs calculations, comparisons and sensitivity analysis for each examined technology. 63 all the simulated variables. The second reason is that this choice corresponds to a compromise between the need to standardize methods and calculations between different technologies and various cost components and the aim of characterizing them as close as possible to the true value. The number of simulations for the random variables considered is 10000: the results are rounded to the nearest full euro. Results In this paragraph some results are presented in various graphics. They show LCOE comparison among the five technologies mentioned above. The average cost of a megawatt hour generated by Offshore Wind plants is centered around 175 €/MWh, a value significantly higher than all the other competing technologies (Figure 2). FigurE 2 Probability distribution for LCOE (discounted rate: 10%) Source: Rao, Gaeta, 2012 FigurE 3 PMain components of average LCOE for the examined power plants Source: Rao, Gaeta, 2012 64 EAI Energia, Ambiente e Innovazione 6/2012 TECHNICAL PAPERS the FGD with CCS coal plant, or maybe the nuclear EPR 3. The investment costs, changes in financing conditions, especially in greenhouse gas emissions costs, can impact deeply to get the future target. Figure 3 shows the average LCOE, total and main components. Future competitiveness of offshore wind plants, in the baseline scenario, relies mainly on the investment costs. The complete independence of wind Studi & ricerche The Gas fired CCGT is the one able to achieve the lowest cost of generation (89 €/MWh) under the assumptions made (e.g., in particular about the adopted GHG and gas prices dynamics). Offshore wind energy cost itself proves not competitive without incentives for electricity production with technologies such as CCGT, but the first reachable target could be (in a similar order of the required investments) FigurE 4 Probability distribution for LCOE (using the discounted rate model) Source: Rao, Gaeta, 2012 FigurE 5 Effects of the change of the investment cost Source: Rao, Gaeta, 2012 FigurE 6 Sensitivity of levelised costs to discount rate variation Source: Rao, Gaeta, 2012 EAI Energia, Ambiente e Innovazione 6/2012 65 Studi & ricerche FigurE 7 Sensitivity of levelised costs to fuel price variation Source: Rao, Gaeta, 2012 66 FigurE 8 Sensitivity of levelised costs to CO2 price variation Source: Rao, Gaeta, 2012 technologies from the carbon cost and fuel cost also clarifies that, in a scenario of capital costs abatement, even technologies as CCGT, now unattainable, could become a realistic target. Capital cost component is dominating in nuclear and wind generation costs (~80%). The emission trading systems gives an electricity generation cost growth of 18 €/MWh for CCGT and 6 €/MWh for coal-based plants. Minor increase in the coal plants is due to the presence of carbon capture and storage technology. In addition, the study includes a sensitivity analysis, as relevant, for various discounted rates, investment and fuels costs, and carbon emission costs[20]. The sensitivity analysis has been carried out by setting all the parameters in the respective average values and simulating it one by one in a predetermined realistic range. Using the discounted rate model early described, the nuclear, onshore and offshore cost curves are moved forward by 10 €/MWh circa, (these are the most capital intensive technologies): offshore distribution becomes very similar to normal distribution, with a remarkable change of skewness and range of variation (155-195 to 135-205 €/MWh). The analysis has incorporated the best perspective for investment and fixed cost abatement (Figure 5). A capital cost reduction for offshore wind plants of 30% compared to the average results, leads to a decrease of 40 €/MWh in power generation cost. As shown in Figure 5, even just a reduction of 15% of the investment cost allows offshore wind plants to become competitive with Coal CCS plant. Discount rate changes on LCOE are shown in Figure 6. The interval chosen for DR is from 2.5% to 12.5%[26]. As expected, the impact of changes in DR is greater for capital intensive plants as wind, nuclear and CCS (note that nuclear and offshore curves have the highest slope). About sensitivity to fuel price changes, the technologies naturally more vulnerable are the CCGT and the CCS (Figure 7). If fuel price increases by 30%, nuclear generation cost increases by 2%, coal CCS cost by 5%; gas-based plant by 18%. With regard to CO2 costs, nuclear technology is essentially neutral to the simulated changes; the emission trading improves competitiveness of carbon free power production compared to fossil fuel power plants[20] (Figure 8). EAI Energia, Ambiente e Innovazione 6/2012 Main conclusions The results obtained demonstrate that currently offshore wind technologies are not yet really competitive without an incentive scheme. The power generation cost for an offshore wind plant could seem relatively high: 175 €/MWh, almost totally due to the high capital cost. The fossil fuel based plants still appear as an appealing investment: however, the sensitivity analysis performed shows that, with a conceivable future capital cost abatement, Offshore Wind plants could become competitive with some conventional plants, like coal with CCS. Furthermore, Offshore Wind plants are not affected by fuel price volatility and carbon price market fluctuations, and could become a plausible option l in future power generation. [1] W. Short, D. J. Packey and T. Holt- A Manual for the Economic Evaluation of Energy Efficiency and Renewable Energy Technologies, National Renewable Energy Laboratory, NREL/TP-462-5173, pp. 47-50, march 1995 [2] JC. Palacios, G. Alonso R. Ramirez A Gomez, J Ortiz, L. Longoria levelised costs for nuclear, gas and goal for electricity, under the Mexicano scenario, Instituto nacional de investigaciones nucleare [3] R. D. Rowe, C. M. Lang, L. G. Chestnut - Critical factors in computing externalities for electricity resources, Resource and Energy Economics 18 (1996), USA [4] A contribution to technology forecasting from a technology dynamics perspective, Universiteit Twente, 6 november 1998 [5] Phil Heptonstall - A REVIEW OF ELECTRICITY UNIT COST ESTIMATES, UK Energy Research Centre (2006 upd. 2007) UKERC/WP/TPA/2007/2006 [6] The Cost of Generating Electricity ¬- A study carried out by PB Power for The Royal Academy of Engineering, 29 Great Peter Street, Westminster, London, SW1P 3LW, March 2004 [7] Electricity Generation Cost Model - 2011 Update Revision 1 Department of Energy and Climate Change, August 2011 [8] Mott Macdonald. UK Electricity Generation Costs Update. June 2010 [9] K. Gillingham, J. Sweeney - Market Failure and the Structure of Externalities - Stanford University, Precourt Energy Efficiency Center, Department of Management Science and Engineering, Stanford, CA 94305, USA [10] F. Roth, L. L. Ambs - Incorporating externalities into a full cost approach to electric power generation life-cycle costing Energy 29 (2004), University of Massachusetts Amherst, USA [11] Twidell, J. et al (2006) - Renewable Energy Resources [12] M. A. Lackner, C.N. Elkinton - An Analytical Framework for Offshore Wind Farm Layout Optimization, Wind Engineering, Vol. 31, n. 1, Jan 2007 UK [13] Peter Rafaj, Socrates Kypreos - Internalisation of external cost in the power generation sector: Analysis with Global Multi-regional MARKAL model, Energy Policy 35 (2007) 828–843, [14] A Brief Characterization of Gas Turbines in Combined Heat and Power Applications – EPA 2002 [15] Hisham Khatib - Review of OECD study into ‘‘Projected costs of generating electricity 2010 Edition Global Energy Award Laureate, Elsevier [16] International Energy Agency - Electricity information, 2009 edition, International Energy Agency 9, rue de la Fédération, 75739 Paris Cedex , France [17] International Energy Agency - Projected cost of generating electricity, 2005 update [18] Energy Information Administration - The Electricity Market Module of the National Energy Modeling System Model, NEMS Documentation Report, U.S. Department of Energy Washington, DC 20585 [19] Nikola Čavlina, Comparison of different options for base load production, University of Zagreb, Croatia [20] Tarjanne Risto, Kivisto Aija – Comparison of electricity generation cost, Lappeenranta Universty Technology, 2008 [21] Denmark - supplier of competitive offshore wind solutions - Megavind’s Strategy for Offshore Wind Research, Development and Demonstration – MegaVind – Danish Wind Industry Association, 2010 [22] Danish Energy Agency, Technology data for energy plants, June 2010. [23] Department of Energy (DOE), 2009 Wind Technologies Market Report. Washington 2010. [24] European Wind Energy Association, The European offshore wind industry – key trends and statistics 2009. January 2010. [25] European Wind Energy Association, The European offshore wind industry, key trends and statistics 2010, EWEA, January 2011 [26] Danish Energy Agency, Technology data for energy plants, June 2010. [27] European Wind Energy Association (2009) Operational Offshore Farms 2009 [28] W. Musial, B. Ram, Large-Scale Offshore Wind Power in the United States, National Renewable Energy Laboratory (NREL) [29] A. Arapogianni, G. Rodrigues, N. Fichaux, A. Zervos, G. Caralis, Model for comparing and projecting the levelised cost of electricity generated by New Gas, Coal, Nuclear Power Stations and Wind Energy (On and Offshore) [30] M. Matuszewski, M. Woods Quality guidelines for energy systems studies - Technology Learning Curve (FOAK to NOAK) NETL/DOE-341/042211, Mar 2012 [31] United Nations Framework Convention on Climate Change, CDM – Meth Panel - Thirty-fourth meeting – Report Annex 10 [32] S.B. Darling, F.You, T.Veselka, A. Velosa, Assumptions and the Levelised cost of energy for photovoltaics. Energy & Environmental Science, January 2011. EAI Energia, Ambiente e Innovazione 6/2012 TECHNICAL PAPERS n o t es 1. If a project activity is “first-of-its-kind”, this means that the implementation of this specific technology is not “common practice” yet [31]. 2. The definition of the (NOAK) plant is arbitrary, (often, NOAK means the fifth or higher plant). 3. Weighted Average Cost of Capital. 4. The rate of interest with no risk, typically based on public bond plus a risk component which itself incorporates a default risk. 5. The return that a firm theoretically pays to its equity investors to compensate for the risk they undertake by investing their capital. Studi & ricerche ref erences Appendix: Acronyms list Capex Capital expenditure CCGT combined-cycle gas turbine CCS Carbon Capture and Storage DECC Department of Energy and Climate Change EIA Energy Information Administration EPC engineer, procure and construction EPR European Pressurised water Reactor FGD Flue Gas Desulphurisation IGCC Integrated Gasification Combined Cycle O&M Operation and Maintenance 67 Rubriche 1234 5678 9 10 11 dal Mondo Il World Energy Council (WEC) ha presentato il rapporto Smart Grids: Best Practice Fundamentals for a Modern Energy System, in occasione della riunione tra WEC e Autorità coreane, tenutasi l’11 e 12 ottobre scorso a Daegu in Corea. Il rapporto evidenzia che le Smart Grids sono un elemento essenziale per facilitare la transizione verso un’economia a bassa emissione di carbonio e per conseguire la sicurezza energetica, l’energia a prezzi accessibili e la mitigazione dei cambiamenti climatici, i tre elementi del “trilemma energetico”. L’obiettivo del rapporto è fare luce sullo stato attuale delle reti intelligenti e dei meccanismi di finanziamento per il loro sviluppo e servire come un compendio di buone pratiche di successo per lo sviluppo di reti intelligenti in diversi paesi (India, Giappone, Cina, Corea del Sud, Brasile, Europa e Nord America). La Corea è stata indicata come esempio pionieristico delle buone pratiche di attuazione di progetti dimostrativi delle Smart Grids. Il WEC ha ripreso questi temi nel rapporto World Energy Trilemma 2012: Time to get real – the case for sustainable energy policy, pubblicato nel mese di novembre, che suggerisce ai decisori politici in materia energetica gli elementi necessari per af- 68 EAI Energia, Ambiente e Innovazione 6/2012 frontare le sfide del trilemma Energia: la sicurezza energetica, l’equità sociale e la mitigazione dell’impatto ambientale. È stato lanciato il 12 novembre il World Energy Outlook (WEO) 2012 che presenta proiezioni dei trend energetici fino al 2035 e un’analisi delle relative implicazioni in termini di sicurezza energetica, sostenibilità ambientale e sviluppo economico. L’Outlook considera tutte le fonti energetiche e la domanda mondiale di energia, la produzione, il commercio e gli investimenti nel settore energetico sono analizzati per paese, per fonte e per settore. Il WEO 2012 propone inoltre analisi strategiche sulle seguenti tematiche: le conseguenze derivanti dal pieno sfruttamento del potenziale economico di miglioramento dell’efficienza energetica; il settore energetico dell’Iraq; il legame tra acqua ed energia; i progressi compiuti per il conseguimento dell’accesso universale a forme moderne di energia. La 18a sessione della Conferenza delle Parti aderenti alla Convenzione Quadro delle Nazioni Unite sul Cambiamento Climatico (UNFCC) e l’8a sessione della Conferenza delle Parti firmatarie del Protocollo di Kyoto si sono tenute a Doha, in Qatar, dal 26 novembre al 7 dicembre, con l’obiettivo di estendere gli impegni previsti dal Protocollo di Kyoto oltre la scadenza del 31 dicembre 2012 (vedi anche, in questo numero, l’articolo di commento a pag. 26). Dopo più di 24 ore di trattativa oltre la chiusura prevista dei lavori, i delegati hanno approvato il documento finale Doha Climate Gateway. Ancora una volta un testo di transizione (gateway) che conferma il Secondo Periodo di impegni sotto il Protocollo di Kyoto per i Paesi sviluppati e inaugura un nuovo regime di negoziati per un trattato globale legalmente vincolante sul cambiamento climatico, che richiederà tagli alle emissioni a tutti gli Stati membri, da essere firmato entro il 2015 e che entrerà in vigore dal 2020. Il cambiamento climatico sta interessando tutte le regioni d’Europa, causando una vasta serie di ripercussioni sulla società e sull’ambiente, secondo l’ultima valutazione pubblicata il 21 novembre dall’Agenzia Europea per l’Ambiente e si prevedono ulteriori effetti in futuro, con danni potenzialmente elevati in termini di costi. La relazione “Climate change, impacts and vulnerability in Europe 2012” prevede che gli eventi climatici estremi diventeranno sempre più intensi e frequenti e contribuiranno ad accentuare la vulnerabilità di tale situazione. In assenza di misure di adattamento, si prevede che i costi lega- ti ai danni continueranno ad aumentare e alcune regioni saranno meno in grado di adattarsi al cambiamento climatico rispetto ad altre, in parte a causa delle disparità economiche in Europa. Gli effetti del cambiamento climatico potrebbero pertanto ampliare tali disuguaglianze. Gli investimenti stranieri che coinvolgono in modo attivo gli agricoltori locali, lasciando loro il controllo della terra, sono quelli che hanno i maggiori effetti positivi sulle economie locali e sullo sviluppo sociale, sostiene il nuovo rapporto della FAO “Trends and Impacts of Foreign Investment in Developing Country Agriculture” pubblicato il 13 novembre. Il rapporto fa notare che gli investimenti che riescono a mettere insieme i punti di forza degli investitori (capitale, competenza in materia di gestione e marketing, tecnologia) con quelli degli agricoltori locali (mano d’opera e conoscenze locali) sono quelli destinati ad avere più successo. I modelli d’investimento che lasciano ai contadini il controllo della loro terra rappresentano un incentivo a investire nel miglioramento della terra e inoltre favoriscono uno sviluppo sostenibile. Si è svolta a novembre in Malesia la II Conferenza internazionale sulle risorse idriche (ICWR2012). Il simposio ha riunito ricercatori, accademici e professionisti a vario tiolo coinvolti nella ricerca scientifica e la gestione sostenibile della risorsa acqua. Un focus particolare è stato posto sul tema del Water Related Natural Disaster e in particolare sulle risultanze del progetto Science and Technology Research Partnership for Sustainable Development (SATREP), 2011-2015, sostenuto dal Japan International Cooperation Agency (JICA)e dal Japan Science and Technology Agency (JST). Strettamente correlato alla gestione sostenibile della risorsa idrica, a Sede Boqer, Israele, ha avuto luogo la V Conferenza internazionale sulle terre aride, i deserti e la desertificazione (Drylands, Deserts and Desertification-DDD). Il convegno è stato incentrato sui risultati della Conferenza delle Nazioni Unite sullo sviluppo sostenibile Rio +20 e ha fatto il punto sui bisogni tecnologici necessari all’attuazione delle raccomandazioni ONU sulle zone aride e la desertificazione. Si è svolta a Rotterdam da 20 al 22 novembre The 2nd European Conference on Flood risk Management nel corso della quale sono stati analizzati i progressi nelle analisi e nella gestione dei rischi di alluvione, affrontando i vari aspetti del rischio di alluvioni, le cause, l’impatto sulla popolazione, sul territorio e sull’ambiente e le (Flavia Amato, Paola Cicchetti) dall’ Unione Europea Commissione Europea Le principali iniziative della Commissione europea (CE) nel periodo ottobre-dicembre 2012 riguardano: l’adozione, in data 3 ottobre, della Comunicazione sulla “Second Regulatory Review on Nanomaterials” che riesamina gli aspetti normativi in tema di nanomateriali, valuta l’adeguatezza della legislazione in materia e indica le azioni di follow-up. Fa parte di questo secondo riesame l’adozione di un documento di lavoro sugli usi e tipi di nanomateriali, incluso gli aspetti di sicurezza; l’avvio, in data 8 ottobre, di una campagna di comunicazione paneuropea a sostegno di imprese, gruppi ambientalisti e università per promuovere soluzioni innovative ai problemi climatici. La campagna, che proseguirà fino alla fine del 2013, intende dimostrare che l’azione per il clima può aumentare il benessere dei cittadini europei e portar loro vantaggi economici, e mira a valorizzare soluzioni già esistenti ed efficienti sotto il profilo dei costi, per il conseguimento dell’obiettivo dell’UE di una riduzione delle emissioni di gas a effetto serra dell’80-95% entro il 2050; la pubblicazione, in data 17 ottobre, di una proposta volta a limitare a livello mondiale la conversione dei terreni alla produzione di biocarburanti e ad aumentare gli effetti benefici dei biocarburanti usati nell’UE sul clima. Sarà limitata al 5% la quota di biocarburanti derivati da alimenti, utilizzabile ai fini del conseguimento dell’obiettivo del 10% di energie rinnovabili fissato dalla direttiva sulle energie rinnovabili. L’obiettivo è stimolare lo sviluppo di biocarburanti alternativi, derivati da materie prime non alimentari, che emettono gas a effetto serra in quantità decisamente inferiori ai carburanti fossili e non interferiscono direttamente con la produzione alimentare mondiale; l’adozione, in data 23 ottobre, del programma di lavoro per il 2013 della Commissione che riassume gli obiettivi dell’Unione in sette ambiti prioritari e le misure che devono ancora essere adottate. In termini di nuove proposte, il programma annuncia 50 nuove iniziative da presentare nel 2013 e nella prima parte del 2014; la proposta di regolamento, presentata in data 7 novembre, per ridurre in misura significativa le emissioni di gas fluorurati che concorrono al riscaldamento globale fino a 23.000 volte più della CO2 e sono aumentate del 60%, mentre quelle di tutti gli altri gas serra sono diminuite. Il regolamento proposto mira a ridurre di due terzi l’attuale livello di emissioni di gas fluorurati entro il 2030 e vieta l’uso di questi gas in determinati tipi di apparecchi nuovi, come i frigoriferi domestici, per i quali sono già disponibili soluzioni alternative maggiormente rispettose del clima; il lancio, in data 13 novembre della European Innovation Partnership Raw materials che ha come obiettivo quello di assicurare all’Europa un accesso sostenibile alle materie prime promuovendo l’innovazione lungo l’intera catena. La EIP lavorerà sul contenuto del futuro piano strategico di attuazione (Strategic Implementation Plan, SIP) del partenariato per far convergere gli sforzi di innovazione a vantaggio della ricerca nell’esplorazione, estrazione, trasformazione, sostituzione e riciclaggio delle materie prime; l’adozione, in data 14 novembre, di una relazione sulla situazione del mercato europeo del carbonio, che illustra una serie di possibili misure strutturali da adottate per affrontare il problema delle quote eccedenti. Due sono le principali proposte per ovviare al crescente squilibrio tra offerta e domanda di quote all’interno del sistema europeo di scambio di quote di emissioni (EU ETS): ritardare la messa all’asta di 900 milioni di quote nel corso della terza fase del sistema ETS che inizia nel 2013 e avviare un ampio dibattito sulle possibili misure strutturali con la massima rapidità, tra cui il ritiro permanente del numero di quote neces- sario per riassorbire l’eccedenza; pubblicazione, in data 15 novembre, di un Piano per la salvaguardia delle risorse idriche europee (The 2012 Blueprint) con l’obiettivo strategico di garantire che la disponibilità di acqua di buona qualità sia sufficiente a soddisfare le esigenze dei cittadini, dell’economia e dell’ambiente. Il Piano propone una serie di azioni e strumenti con cui gli Stati membri possono migliorare la gestione idrica a livello nazionale, regionale o a livello di bacini idrografici. L’attuazione delle proposte presentate nel Piano si baserà sulla strategia comune di attuazione prevista dalla Direttiva quadro sulle acque e sarà fondata su un processo aperto e partecipativo che coinvolgerà gli Stati membri, le organizzazioni non governative e le imprese; la proposta di direttiva della Commissione, in data 3 dicembre, per garantire a tutti l’accessibilità dei siti web degli enti pubblici. Tale proposta prevede, dalla fine del 2015, l’introduzione di elementi di accessibilità obbligatori e uniformati a livello di UE per 12 tipi di siti internet. L’obbligo di accessibilità si applicherebbe a servizi pubblici fondamentali, quali la sicurezza sociale e i servizi sanitari, la ricerca di un lavoro, le iscrizioni universitarie e il rilascio di documenti e certificati; l’adozione, in data 3 dicembre, di una strategia marittima per il Mare Adriatico e il Mar Ionio intesa a stimolare una crescita intelligente, sostenibile e inclusiva nella regione. La strategia si fonda su quattro pilastri: un’economia blu rafforzata, un ambiente marino più sano, uno spazio marittimo più sicuro e attività di pesca responsabili. Alla base vi sono l’iniziativa della Commissione “Crescita blu” e la dichiarazione di Limassol sull’agenda marina e marittima per la crescita e l’occupazione, recentemente adottata dai ministri dell’UE; la proposta, in data 4 dicembre, di un nuovo Programma d’azione per l’ambiente chiamato “Living well, within the limits of our planet”, che fissa un’agenda strategica per le politiche ambientali e individua nove obiettivi prioritari da realizzare entro il 2020. Il programma, se accolto favorevolmente dal Parlamento e dal Consiglio europeo, contribuirà a diffondere una comprensione comune delle principali sfide ambientali e delle misure da adottare per affrontarle in maniera efficace; la presentazione, in data 6 dicembre, del Quadro di valutazione 2012 degli investimenti industriali in R&S, basato su un campione di 1500 imprese (di la EAI Energia, Ambiente e Innovazione 6/2012 Rubriche misure di gestione del rischio. San Diego, California, ha ospitato infine lo scorso ottobre la XXIV Conferenza mondiale sulla Fusione organizzata dall’IAEA, con la presenza di oltre mille ricercatori provenienti da tutto il mondo. Nel corso del convegno si è discusso dei nuovi orientamenti in materia di ricerca sulla fusione alla luce delle realizzazioni in corso di ITER in Francia e Livermore negli Stati Uniti. La conferenza ha inteso costituire una piattaforma per il confronto e la condivisione dei più recenti progressi nel campo con un focus particolare sulla fisica della fusione nonché sulla tecnologia, l’ingegneria e la sicurezza della fusione quale fonte di energia nucleare. 69 cui 405 con sede nell’UE) quali maggiori investitori in R&S a livello mondiale. Il rapporto misura il valore totale degli investimenti complessivi in R&S finanziati con fondi propri, indipendentemente dal luogo in cui si svolge la relativa R&S; l’annuncio, in data 7 dicembre, di un piano d’azione (“A digital future for healthcare”) per far cadere le barriere al pieno utilizzo delle soluzioni digitali nei sistemi sanitari europei. L’obiettivo è migliorare le prestazioni sanitarie a beneficio dei pazienti, offrire a questi ultimi un maggiore controllo delle proprie cure mediche e ridurre i costi; la presentazione ufficiale, in data 11 dicembre, di “Copernicus”, il nuovo programma di osservazione della terra della Commissione, precedentemente noto come GMES (monitoraggio globale per l’ambiente e la sicurezza). Copernicus mira a monitorare le condizioni dell’ambiente terrestre, marino e atmosferico e a migliorare la sicurezza dei cittadini ed è costituito da un insieme di servizi che raccolgono dati e forniscono informazioni utilizzando i satelliti e i sensori terrestri per osservare l’ambiente e i fenomeni naturali che avvengono sul pianeta; l’adozione, in data 18 dicembre, del Piano strategico di attuazione (Strategic Implementation Plan, SIP) della EIP Water. Tale piano definisce cinque ambiti d’intervento prioritari nel settore idrico per i quali occorre trovare delle soluzioni: riutilizzazione e riciclaggio dell’acqua, trattamento dell’acqua e delle acque reflue, acqua e energia, gestione dei rischi connessi ad eventi eccezionali, servizi ecosistemici; la definizione, in dicembre, della composizione degli organi di governance (gruppo direttivo di alto livello, il gruppo Sherpa e i gruppi operativi) del Partenariato Europeo per l’Innovazione sulle materie prime (EIP Raw Materials). Continuano le consultazioni pubbliche avviate nell’ultimo periodo dalla CE riguardanti il prossimo programma quadro di ricerca e innovazione dell’UE “Horizon 2020”. Dal 1 ottobre al 23 dicembre è aperta quella sul futuro della ricerca metrologica europea (EMRP) nell’ambito di Horizon 2020. Il 26 ottobre è stata lanciata la consultazione sulle Future and Emerging Technologies (FETs), con scadenza 30 novembre, per identificare un orientamento per la ricerca su tali tecnologie e gli argomenti di ricerca d’importanza strategica. Il 10 dicembre è stata lanciata 70 EAI Energia, Ambiente e Innovazione 6/2012 la consultazione su come migliorare la politica dell’UE sulla qualità dell’aria. Scopo della consultazione, aperta fino al 4 marzo 2013, è quello di verificare come il quadro in vigore possa essere pienamente attuato, migliorato e integrato con nuovi interventi. I risultati confluiranno nella revisione globale delle politiche europee sull’inquinamento dell’aria prevista per il 2013. Parlamento e Consiglio Europeo L’11 ottobre, Il Consiglio Europeo Competitività ha approvato i principali elementi delle regole di partecipazione per il futuro programma Horizon 2020. L’11 dicembre, il Consiglio e il Parlamento europeo hanno raggiunto un consenso che apre la strada alla firma dell’accordo internazionale sulla UPC (Unified Patent Court) per creare un brevetto comune applicabile in quasi tutti i paesi europei, sulla base di una singola applicazione e senza ulteriori formalità amministrative negli Stati membri aderenti. I primi brevetti unitari potranno essere concessi nel mese di aprile 2014. (Valerio Abbadessa) dalle Istituzioni nazionali Energia È proseguita in Commissione Industria del Senato l’indagine conoscitiva sulla Strategia Energetica Nazionale, con lo svolgimento di numerose audizioni. Contestualmente, il Ministero dello Sviluppo economico ha svolto inoltre numerosi incontri e momenti di confronto per la definizione del documento finale della Strategia, sia di carattere istituzionale, sia con associazioni di categoria e parti sociali. Ha inoltre attivato la consultazione on-line sul sito del Ministero, a cui hanno partecipato tutti i cittadini con commenti, suggerimenti e documentazione. In occasione dell’audizione presso il Senato, il Ministro Passera ha illustrato i 4 obiettivi principali della strategia al 2020: competitività; ambiente; sicurezza; crescita. Il documento dà molto spazio al tema dell’efficienza energetica e contiene inoltre il riferimento al riordino dell’ENEA, con l’obiettivo di focalizzare le attività e l’organizzazione dell’ente sulle aree di ricerca prioritarie per la strategia del Paese e razionalizzare le potenziali sovrapposizioni con altri enti pubblici. All’inizio del mese di novembre è stato emanato, dai ministri dello Sviluppo economico, dell’Ambiente e delle Politiche Agricole, lo schema di decreto ministeriale che, attraverso un nuovo sistema di incentivazione, si propone il duplice obiettivo di dare impulso alla produzione di energia termica da fonti rinnovabili (riscaldamento a biomassa, pompe di calore, solare termico e solar cooling) e di accelerare i progetti di riqualificazione energetica degli edifici pubblici. Per quanto riguarda le fonti rinnovabili termiche, il nuovo sistema incentivante promuoverà interventi di piccole dimensioni, tipicamente per usi domestici e per piccole aziende, comprese le serre, fino ad ora poco supportati da politiche di sostegno. In questo modo si rafforza la leadership tecnologica della filiera nazionale in comparti con un forte potenziale di crescita internazionale. Per quel che riguarda invece gli incentivi all’efficienza energetica per la Pubblica Amministrazione, il provvedimento aiuta a superare le restrizioni fiscali e di bilancio che non hanno finora consentito alle amministrazioni di sfruttare pienamente le potenzialità offerte dal risparmio energetico. Ilva All’inizio del mese di ottobre, il Parlamento ha approvato il decreto legge “Disposizioni urgenti per il risanamento ambientale e la riqualificazione del territorio della città di Taranto”. Il Decreto si concentra sugli interventi per risanare e rilanciare la città. Prevede la nomina di un commissario straordinario, la disponibilità di 336 milioni di euro (di cui 187 per il porto) e il riconoscimento di Taranto come “area in situazione di crisi industriale complessa”. I finanziamenti previsti sono: 110 milioni di euro per le bonifiche; 30 milioni per il rilancio degli investimenti produttivi; 20 milioni per la difesa del suolo e il disinquinamento. Altri 187 milioni fanno parte dei programmi per gli interventi portuali. Il riconoscimento dell’area in “situazione di crisi industriale complessa” consente l’accesso ai programmi di reindustrializzazione previsti dal decreto Crescita del 22 giugno (Legge n. 171 del 4 ottobre 2012). Il Consiglio dei Ministri, nella riunione del 30 novembre, ha poi approvato un ulteriore provvedimento: il Decreto-legge 3 dicembre 2012, n. 207 “Disposizioni urgenti a tutela della salute, dell’ambiente e dei livelli di occupazione, in caso di crisi di stabilimenti industriali di interesse strategico nazionale”. Il decreto è finalizzato al risanamento ambientale e alla continuità Crescita Il Consiglio dei Ministri, nella riunione del 4 ottobre scorso ha approvato il decretolegge “Misure urgenti per l’innovazione e la crescita: agenzia digitale e startup”. Il decreto contiene un insieme di iniziative mirate a semplificare l’avvio di una impresa startup, un azienda che nasce e produce nuove iniziative tecnologiche a condizione che si tratti di progetti trasparenti, con un grande contenuto di innovazioni. Ulteriori importanti misure vengono assunte sul fronte dell’applicazione dell’Agenda Digitale, della defiscalizzazione delle opere infrastrutturali strategiche, dell’attrazione degli investimenti diretti esteri, del rafforzamento del sistema dei Confidi per migliorare l’accesso al credito delle PMI di significative liberalizzazioni nel settore assicurativo. Il decreto è stato approvato dal Parlamento all’inizio del mese di dicembre. (Laura Migliorini) dai Giornali Rinnovabili Mentre PIL e produzione industriale stentano, i settori delle energie rinnovabili e del risparmio energetico rappresentano oggi le principali opportunità di crescita diretta; in particolare, il settore della green economy è uno dei pochi che, nonostante la crisi globale degli ultimi anni, è cresciuto in termini di investimenti ed occupazione. Altrettanto importante viene considerato lo sviluppo dell’efficienza energetica. Il raggiungimento in Italia degli obiettivi di risparmio al 2020 richiederà investimenti anche in quest’area, stimati in circa 60 miliardi di euro. Il Governo ha varato intanto la nuova Strategia Energetica Nazionale: insieme ad una robusta serie di provvedimenti c’è l’obiettivo di puntare allo sviluppo delle rinnovabili, cercando di risparmiare sulla bolletta elettrica e sulle importazioni dall’estero. Questo significherà ridurre del 17% la nostra dipendenza energetica (l’equivalente di un punto di PIL recuperato), inoltre sono in programma investimenti per rinforzare le reti, realizzare rigassificatori e fare del nostro paese un polo del gas. Già dalla Conferenza delle Nazioni Unite di Rio si era capito che la strada per avviare una nuova fase di sviluppo era quella della green economy in grado di sollecitare cambiamenti nel modello energetico per far fronte alla crisi climatica, dando priorità all’efficienza energetica cosi come alla generazione distribuita basata su una rapida crescita delle fonti rinnovabili. In questo contesto si è collocata l’iniziativa (organizzata dal Ministero dell’Ambiente e da 39 organizzazioni di imprese green) di convocare gli “Stati Generali della Green Economy”che si sono tenuti a Rimini in occasione di Ecomondo il 7 e 8 novembre scorsi. La stampa ha dato ampio riscontro a questa “rivoluzione energetica” che può realmente contribuire a far uscire l’Italia dalla crisi che sta vivendo. Sempre ad Ecomondo, nella sezione “città sostenibile”, si è parlato di “smart city” per dimostrare come la “città intelligente” possa diventare un volano economico non solo per le città ma anche per le aziende indirizzate sempre di più verso una vera e propria “eco-convergenza”. Da un indagine realizzata da ForumPa le città più “smart” sono risultate Bologna e Parma, il sud appare ancora in ritardo. Nucleare La Commissione Europea, in seguito ai risultati dei test di resistenza (stress test) degli impianti nucleari, ha affermato: “Le norme di sicurezza degli impianti nucleari in Europa sono generalmente di alto livello ma si raccomandano ulteriori miglioramenti per quanto riguarda gli aspetti relativi alla sicurezza di quasi tutte le centrali europee”. In particolare, ogni centrale dovrebbe disporre di strumenti sismici in situ per misurare e dare l’allarme in caso di terremoto. Rilevante è stato lo spazio dedicato sulla stampa alle operazioni finali di smantellamento della centrale di Trino Vercellese in seguito all’approvazione da parte del Ministero dello Sviluppo Economico del decreto di disattivazione. Per la bonifica dell’impianto di Trino e le attività di smantellamento, il piano della SOGIN prevede circa 234 milioni di euro, di cui circa 52 milioni per il conferimento dei rifiuti al deposito nazionale. Conclusa la bonifica, il sito sarà restituito al territorio per il suo riutilizzo nel 2024. Ricerca La prima bozza della legge di stabilità, nell’art. 11 riguardante il riordino degli Enti di Ricerca, aveva previsto un “super CNR” affiancato da due nuove agenzie, una per il trasferimento tecnologico e l’altra per il finanziamento della ricerca. Il piano presentato da Francesco Profumo al governo, anticipato da un articolo del Sole 24Ore, ha alzato un vero e proprio polverone. Sono insorti i presidenti dei 12 enti di ricerca vigilati dal MIUR. Si è rivoltato l’intero mondo scientifico. Dopo giorni e giorni di bufera mediatica, la Commissione Bilancio della Camera ha stralciato l’art. 11 in quanto considerato difforme dagli argomenti propri di una legge di stabilità. Ad ottobre grande eco ha avuto sulla stampa la condanna per omicidio colposo dei membri della Commissione Grandi Rischi, colpevoli, per il tribunale dell’Aquila, di aver sottovalutato il pericolo e fornito informazioni “imprecise e incomplete” sul sisma del 2009. Molte prestigiose riviste scientifiche (Nature, Science) hanno seguito con attenzione la vicenda e molti scienziati hanno parlato di una decisione “pericolosa”, di un “processo alla scienza” affermando che i terremoti non si possono prevedere, né si può condannare uno scienziato perché non ha previsto l’imprevedibile. Per i magistrati invece non sarebbe stata attaccata la scienza, bensì quegli scienziati che avrebbero dato informazioni “inesatte, incomplete e contraddittorie”, non fornendo alla popolazione elementi sufficienti per valutare il rischio. Non si sarebbe trattato di un “processo alla scienza”, ma di un “processo alla comunicazione della scienza”. Per il resto, si è parlato molto dei principali incentivi fiscali che il Governo ha messo in campo per favorire la nascita e la diffusione delle imprese innovative, le cosiddette start-up. Infine il premio Nobel per la Fisica 2012 è stato assegnato ai ricercatori Serge Haroche e David Wineland per aver aperto le porte ai computer quantistici. Niente da fare per i ricercatori del bosone di Higgs, grandi favoriti nelle previsioni. EAI Energia, Ambiente e Innovazione 6/2012 Rubriche produttiva dell’Ilva di Taranto, nel pieno rispetto delle fondamentali esigenze di tutela della salute e dell’ambiente, imponendo lo scrupoloso rispetto di tutte le prescrizioni adottate dalle autorità amministrative competenti. Si stabilisce che la società Ilva abbia la gestione e la responsabilità della conduzione degli impianti e che sia autorizzata a proseguire la produzione e la vendita per tutto il periodo di validità dell’Autorizzazione Integrata Ambientale. Si prevede poi che la società mantenga la gestione e la responsabilità della conduzione degli impianti dello stabilimento di Taranto, anche ai fini dell’osservanza di ogni obbligo di tutela sanitaria e ambientale. Il decreto introduce la figura del Garante della vigilanza sull’attuazione degli adempimenti ambientali e di tutte le altre disposizioni del decreto, che sarà nominato con un successivo provvedimento. 71 Ambiente Continua la tormentata vicenda dell’Ilva di Taranto, primo polo siderurgico d’Europa, dopo che la magistratura ha deciso di procedere al sequestro degli impianti per disastro ambientale e nonostante l’ottenimento, nell’agosto del 2011, dell’ AIA ovvero la Autorizzazione Integrata Ambientale. Lavoratori e sindacati si sono schierati a difesa dei posti di lavoro. L’Ilva, da parte sua, ha ribadito che potrà «avviare l’applicazione dell’autorizzazione ambientale» soltanto «dopo aver ottenuto la piena e completa disponibilità dei beni» non potendo operare sugli stessi «alcun intervento manutentivo e/o modificativo» Il Ministro Clini è intervenuto affermando che l’AIA deve essere applicata subito perché da qui passano l’abbattimento delle emissioni nocive e il risanamento ambientale della fabbrica; inoltre, «come indica chiaramente l’Unione europea la strategia di risanamento ambientale degli impianti industriali avviene attraverso il loro risanamento non la loro chiusura». Chiudere l’Ilva, dice ancora Clini, equivarrebbe a «fare un grande favore ai concorrenti internazionali» che non applicano gli stessi nostri stringenti standard ambientali, inoltre “si lascerebbe lì un deserto inquinato» per non parlare degli effetti sociali enormi che la chiusura comporterebbe in questo momento, lasciando senza reddito 20.000 famiglie. La seconda fase dell’AIA «ha senso se lo stabilimento resta aperto», ha aggiunto ancora il Ministro a proposito della missione a Taranto della Commissione istruttoria che ha rilasciato l’Autorizzazione Integrata Ambientale per la fase «due» che riguarda i rifiuti, la depurazione delle acque e la gestione delle discariche. «L’iniziativa dell’AIA per l’Ilva - ha spiegato Clini - è stata presa per rendere lo stabilimento per la produzione di acciaio il più pulito e moderno d’Europa e per garantire il diritto alla salute, a un ambiente sano, e al lavoro. Anche Giorgio Napolitano è inter- venuto, insistendo per una soluzione e un accordo tra le parti che possa sbloccare la situazione al più presto. Per il resto, nel mese di novembre le conseguenze del maltempo in Liguria e Toscana hanno riacceso i riflettori sull’urgenza per l’Italia di dotarsi di un “piano nazionale per l’adattamento ai cambiamenti climatici e per la messa in sicurezza del territorio”, le cui linee guida sono delineate nel cosiddetto “Piano Clini”. Occorrono interventi che sappiano coniugare prevenzione, informazione e coordinamento, perché il rischio idrogeologico riguarda l’82% (6.633) dei Comuni italiani; Clini stesso ha confermato che servono 40 miliardi per mettere in sicurezza il territorio e ha avvertito che “più tempo si aspetta più alti saranno i costi”. Il Piano per l’adattamento ai cambiamenti climatici, la gestione sostenibile e la messa in sicurezza del territorio sarà a breve sul tavolo del CIPE. (Laura Di Pietro) 1234 5 6 7 8 Calendario eventi 9 10 11 ONLINE LEARNING EVENT ON AGROFORESTRY FOR FOOD SECURITY AND CLIMATE CHANGE MITIGATION Eventi on-line promossi da FAO assieme a Tropical Agricultural Research and Higher Education Center (CATIE) e Tropical Agricultural Research and Higher Education Center (CATIE) sul tema della mitigazione del cambiamento climatico in agricoltura. Il fine è quello di facilitare gli scambi di conoscenza e buone pratiche fra gli esperti di scienze agro-forestali, policy-maker e ONG in vista della Conferenza della FAO sulle foreste in programma a maggio. 4-26 febbraio, webinar e forum on-line http://www.pfbc-cbfp.org/news_en/items/FAO-ICRAF-CATIE-Event.html 27TH SESSION OF UNEP GOVERNING COUNCIL/GLOBAL MINISTERIAL ENVIRONMENT FORUM 27° sessione del Governing Council/Global Ministerial Environment Forum dell’ UN Environment Programme (UNEP). Forum ambientale globale annuale a livello ministeriale. 8-22 febbraio, Nairobi, Kenya http://www.unep.org/ecalendar/contents/upcoming_events.asp HIGH-LEVEL MEETING ON NATIONAL DROUGHT POLICY: TOWARDS MORE DROUGHT RESILIENT SOCIETIES Promosso da World Meteorological Organization (WMO) e Segretariato della UN Convention to Combat Desertification (UNCCD), in collaborazione con altre agenzie ONU e internazionali. Fornirà analisi approfondite per azioni fondate su cognizioni scientifiche tese ad affrontare il problema della siccità. 11-15 marzo, Ginevra, Svizzera http://www.hmndp.org/ WORLD WATER DAY 2013 L’ONU ha designato il 2013 International Year of Water Cooperation. Il 22 marzo è il giorno dedicato alla sua celebrazione. 22 marzo 2013, Parigi e altre parti del mondo http://www.unwater.org/watercooperation2013.html INTERNATIONAL CONFERENCE ON FORESTS FOR FOOD SECURITY AND NUTRITION Conferenza organizzata dalla FAO) in partnership con il Center for International Forestry Research (CIFOR), il World Agroforestry Centre (ICRAF), la World Bank and Bioversity International, con focus sull’impatto di foreste ed alberi sulla sicurezza alimentare e la nutrizione, specialmente nei Paesi in via di sviluppo. 13-15 maggio, Roma http://www.fao.org/forestry/food-security/en/ 72 EAI Energia, Ambiente e Innovazione 6/2012