Regione Toscana
mostra-convegno internazionale
terrafutura
buone pratiche di vita, di governo e d’impresa
Firenze - Fortezza da Basso
17/19 maggio 2013
produrre
2004-20
abitare
13
X edizione | ingresso libero
Dieci anni dopo: oltre la crisi,
per una nuova Europa
• appuntamenti culturali • aree espositive
• laboratori • animazioni e spettacoli
coltivare
agire
governare
www.terrafutura.it
Relazioni istituzionali e programmazione culturale
Fondazione Culturale Responsabilità Etica
tel. 049 7399726 - 055 2638745
email [email protected]
Organizzazione evento
Adescoop-Agenzia dell’Economia Sociale
tel. 049 8726599
email [email protected]
Energia, Ambiente e
Innovazione
Indice
RIVISTA BIMESTRALE DELL’ENEA
ANNO 58 - N. 6 NOVEMBRE-DICEMBRE 2012
Direttore Responsabile
Vincenzo Ferrara
2 Editoriale
4 Intervista
Comitato di Direzione
Pietro Agostini, Vincenzo Artale, Giacobbe Braccio,
Marco Casagni, Gian Piero Celata, Carlo Cremisini,
Pierino De Felice, Roberta Delfanti,
Francesco Di Mario, Roberta Fantoni, Elena Fantuzzi,
Massimo Forni, Massimo Frezzotti, Massimo Iannetta,
Carlo Manna, Carmela Marino, Paride Meloni,
Silvio Migliori, Roberto Morabito, Aldo Pizzuto,
Vincenzo Porpiglia, Rino Romani, Sergio Sangiorgi,
Massimo Sepielli, Leander Tapfer, Ezio Terzini,
Francesco Troiani, Marco Vittori Antisari, Gabriele Zanini
Comitato tecnico-scientifico
Osvaldo Aronica, Paola Batistoni, Ilaria Bertini,
Paolo Clemente, Paolo Di Lazzaro, Andrea Fidanza,
Stefano Giammartini, Rossella Giorgi, Giorgio Graditi,
Massimo Maffucci, Laura Maria Padovani, Paolo Ruti,
Emilio Santoro
Comitato editoriale
Valerio Abbadessa, Flavia Amato, Daniela Bertuzzi,
Paola Carrabba, Paola Cicchetti, Antonino Dattola,
Barbara Di Giovanni, Laura Di Pietro, Michele Mazzeo,
Laura Migliorini, Paola Molinas, Rita Pascucci,
Caterina Vinci
Traduzioni
Carla Costigliola
Progetto grafico
Paola Carabotta, Bruno Giovannetti
Per informazioni e contatti: [email protected]
Gli articoli riflettono le opinioni degli autori e non
necessariamente quelle dell’ENEA
Stampa
Varigrafica Alto Lazio
Via Cassia, km 36,300 (Zona industriale) - 01036 Nepi (VT)
Focus
20
Collasso dei Maya
20 Si può scientificamente provare il crollo
e della Comunicazione
per l’efficienza energetica
Alberto Moro
46 L’impatto dei cambiamenti climatici
Studi & ricerche
50 Persistent Organic Pollutants in a
Alessio Borriello
26 Politiche e misure di mitigazione e
adattamento ai cambiamenti climatici:
cosa è stato deciso nella Conferenza
mondiale di Doha
31 Prevenire processi dannosi
di cavitazione
con il nuovo dispositivo CASBA 2012
Simone Mannori
Maria Gaeta, Marco Rao
68 dal Mondo
69 dall'Unione Europea
72 Calendario eventi
37
Emissioni da trasporti
Patto dei Sindaci: gli impegni italiani
per il settore trasporti
Gabriella Messina, Silvia Orchi
LCOE analysis for Offshore Wind
Power Plants and other competing
technologies
71 dai Giornali
35 Presunto imminente
Emilio Santoro
59 Simulation theory applied to the
70 dalle Istituzioni nazionali
Terremoto L’Aquila
37
Pasquale Spezzano
Rubriche
Cavitazione
Primo piano
global changing climate
Technical papers
29 Un’aperta violazione della privacy
Emilio Santoro
Finito di stampare nel mese di gennaio 2013
Natale Massimo Caminiti, Sergio La Motta
Meccanica quantistica
50
Review and assessment papers
della green economy in Italia
Cambiamenti climatici
Domenico Gaudioso
Stefania Bove
23 Una opportunità di sviluppo
sul sistema energetico italiano:
verso una strategia nazionale
di adattamento
di una civiltà? Il caso dei Maya
Biometano
Registrazione
Tribunale Civile di Roma
Numero 148 del 19 aprile 2010 del Registro Stampa
N. 6/2012
8
Cambiamenti climatici
Pre-stampa
FGE Srl - Fabiano Gruppo Editoriale
Regione San Giovanni, 40 - 14053 Canelli (AT)
e-mail: [email protected]
Efficienza energetica
World view
Edizione web
Antonella Andreini, Daniela Bertuzzi, Concetta Manto
Promozione
Paola Crocianelli
42
42 Le tecnologie dell’Informazione
Direttore editoriale
Diana Savelli
Coordinamento editoriale
Giuliano Ghisu
Prospettive
68
l’editoriale
di Alberto Clò
docente di economia presso l’Università di Bologna, esperto di politiche energetiche
ed ex Ministro dell’Industria Commercio e Artigianato del Governo Dini
La Strategia Energetica Nazionale:
un compito arduo e complesso, ma necessario
A
zzardarsi sullo scivoloso terreno della ‘programmazione energetica’ è, da noi più che altrove,
compito arduo e complesso. Per più ragioni. Ad iniziare dalle infelici passate esperienze,
nonostante un tempo fosse più facile ‘programmare’: per il controllo dominante dei grandi
monopoli pubblici; il forte interventismo pubblico che influenzava gran parte delle decisioni
aziendali, ad iniziare dai prezzi; il minor rilievo del dualismo centro/periferia che oggi impedisce
o rallenta ogni scelta. Condizioni che non facilitarono tuttavia le cose. Nessuna delle scelte
programmatiche contenute nei famosi o famigerati Piani Energetici Nazionali (1975, 1977, 1981,
1985, 1988) approvati dal Parlamento con maggioranze plebiscitarie, ebbe infatti seguito mentre
quel che di nuovo è accaduto non era stato previsto. Tempi comunque lontani.
Disegnare una nuova Strategia Energetica Nazionale (SEN) – quale quella proposta nel Documento di
consultazione pubblica del Ministero Sviluppo Economico – è scelta poi complessa per i rivoluzionari
mutamenti istituzionali intervenuti negli ultimi due decenni: con la trasformazione dei grandi gruppi
da enti pubblici a società private, prodromica al loro collocamento; la liberalizzazione dei mercati
energetici; il trasferimento di un sempre maggiore potere decisionale a Bruxelles; l’istituzione
dell’Autorità di regolazione che ha sottratto poteri al Ministero dello Sviluppo Economico; la riforma
costituzionale che ha reso la materia energetica concorrente a livello locale.
L’insieme di questi mutamenti ha prodotto tre conseguenze: (a) ha reso le politiche
Coniugare politica energetica,
energetiche orfane degli strumenti di un tempo: aiuti di Stato, monopoli, enti
politica ambientale e politica
pubblici, controlli amministrativi; (b) ha spostato il centro delle decisioni dallo Stato
industriale elaborando apposite
alle imprese, tese al perseguimento di interessi particolari e non più generali; (c)
procedure per unificarle, riportando
ha ristretto il ruolo dello Stato centrale col trasferimento di potere agli enti locali e
le decisioni al livello più alto
a Bruxelles, cui si sarebbe dovuto rispondere con un rafforzamento del nostro ruolo
nei processi di negoziazione/formazione delle direttive. Quel che non è accaduto.
attraverso articolate procedure
Di questi cambiamenti non sembra esservi gran consapevolezza nel dibattito che
di indirizzo programmatico tra
va sviluppando sulla proposta di SEN: continuando i più a ragionare su quel che la
Parlamento e Governo
politica dovrebbe fare o non fare, su chi dovrebbe o meno agire, su quali soluzioni
intraprendere, con gli stessi paradigmi del passato. Come se a decidere (sul mix delle fonti, le
tecnologie, gli investimenti, la diversificazione) fosse ancora lo Stato dirigista attraverso il braccio
operativo delle aziende pubbliche. Dal che la domanda da cui bisognerebbe partire: quale valore
normativo possa assumere un disegno programmatico – di cui pure tutti sottolineano la necessità
– in un sistema di mercato in cui le decisioni spettano ai soggetti privati; con gli ex-enti pubblici
che perseguono l’interesse dei loro azionisti; col ruolo dello Stato che si limita all’individuazione di
finalità pubbliche nella speranza che le convenienze di mercato possano corrispondervi.
Nel discutere di SEN sarebbe quindi necessario aver chiaro cosa essa non è: evitando l’equivoco –
largamente presente nei commenti che vanno affastellandosi – di un ritorno al passato. Lo Stato non
ha più i margini per intervenire direttamente né è l’agente più informato a determinare le tecnologie
più efficienti, il loro sviluppo ottimale, le provenienze geografiche degli approvvigionamenti e
quant’altro. Spetta ai soggetti privati decidere se, quando, dove investire e cosa fare. Verso quale
direzione far muovere le loro decisioni e con quali strumenti (senza dover ricorrere ogni volta a
incentivi che disattenderebbero l’obiettivo della riduzione dei prezzi) è il compito della politica e
della regolazione. Il “come fare” è altrettanto se non più importante del “cosa fare”.
Asse portante di una nuova strategia non può che essere – spiace dirlo per chi detesta anche la
sola parola – una qual sorta di programmazione con una triplice funzione. Individuare, in primo
luogo, le esigenze di sviluppo che garantiscano l’equilibrio domanda/offerta e il soddisfacimento
di finalità di interesse generale, quale quelle delineate nella SEN (crescita, competitività, ambiente,
2
EAI
Energia, Ambiente e Innovazione
6/2012
e
EAI
Energia, Ambiente e Innovazione
l'editoriale
sicurezza). Assicurare, in secondo luogo, un’armonica coerenza delle decisioni dei diversi livelli
decisionali: onde evitare le incongruenze, incertezze, contraddittorietà evidenziatesi nel recente
passato. Verificare, infine, che le decisioni degli agenti muovano nel senso auspicato e, in caso
contrario, predisporre – attraverso l’Autorità di regolazione e altri organismi pubblici – gli strumenti
per colmare eventuali distonie.
Nel merito, la programmazione dovrebbe sostanziarsi nella fissazione di una scheda di priorità
verso cui si vuol tendere – data la complessità, eterogeneità, contraddittorietà dei possibili obiettivi
– da sostanziarsi in poche e chiare “linee strategiche” seguendo una politica integrata delle risorse
domanda/offerta. Non ultimo: considerare la politica energetica come parte integrante della
politica economica, perché condizione per accrescerne ricchezza, competitività, benessere. In una
tal prospettiva, la politica energetica dovrebbe costituire parte integrante della politica economica
per lo sviluppo, alla pari di quelle sul lavoro o in materia fiscale, da inserirsi nei piani nazionali di
riforma che ogni paese è tenuto a presentare agli organismi comunitari.
Questo significa, come ha recentemente evidenziato Italiadecide, “coniugare politica energetica,
politica ambientale e politica industriale elaborando apposite procedure per unificarle [….]
riportando le decisioni al livello più alto attraverso articolate procedure di indirizzo programmatico
tra Parlamento e Governo” già positivamente adottate in tema di finanza pubblica. Superare, in altri
termini, la frammentazione e incoerenza delle decisioni ed il localismo esasperato, da cui derivano
particolarismi e conflittualità che in nome di un’errata concezione della partecipazione riconosce
a ciascuno un diritto di veto costituendo la maggior barriera al perseguimento di interessi unitari.
Superare queste barriere sarebbe cosa comunque opportuna. Lo è ancor di più e in modo urgente
nella drammatica situazione della nostra economia: schiacciata dai vincoli di finanza pubblica; dalla
ristrettezza del credito alle imprese; dalla caduta della domanda interna.
L’energia può e deve costituire una delle leve per riprendere un percorso di crescita, come
accadde nel primo Novecento negli anni del “decollo” della nostra economia imperniata sulla fonte
idroelettrica, o nel Secondo Dopoguerra negli anni del “miracolo economico” con la valorizzazione
delle risorse interne di gas naturale. Quanto sin qua detto è condizione pregiudiziale, ad avviso di
chi scrive, di qualsiasi tentativo di elaborazione di un nuovo disegno di politica energetica. Come lo
è l’individuazione di una solida e condivisa metodologia con cui confrontare le diverse opzioni in
termini di costi/benefici rispetto alle diverse finalità che si intendono perseguire.
Infine, non ultima condizione: individuare il livello istituzionale deputato a svolgere questa
valutazione incrociata degli obiettivi, degli effetti delle scelte proposte per conseguirli, degli
eventuali scostamenti tra dinamica effettiva delle cose e obiettivi attesi. Chiarendo l’assetto delle
responsabilità – chi fa che cosa – dei diversi soggetti pubblici che interagiscono nel sistema
energetico italiano, ivi inclusa ENEA, definendone più puntualmente la missione e dotandola
delle risorse necessarie alla bisogna. Ridisegnare la governance energetica e conferire
valenza normativa alla SEN sono le imprescindibili pre-condizioni per garantirle una qualche
significatività.
Quel che potrebbe essere soddisfatto dall’assegnazione nel Documento – formalmente approvato
dal Governo e auspicabilmente fatto proprio dal Parlamento in un apposito ordine del giorno – di
specifiche deleghe attuative ai vari organismi pubblici deputati ad ogni specifico compito. Dibattere
dei contenuti della SEN – tra chi ne propone un’estensione a tutto lo scibile umano in una proiezione
di lunghissimo termine e chi la vorrebbe restringere a poche affermazioni; tra chi ne critica ogni
quantificazione e chi non ne vorrebbe alcuna – non fornisce alcun contributo costruttivo, tenuto
anche conto dell’incertezza politica che avvolge ogni futura decisione.
Non chiediamo, quindi, alla SEN di essere ciò che non può e non deve essere. Approfittiamo, piuttosto,
di questa opportunità per definirne sul piano metodologico presupposti e finalità partendo dalla
drammatica situazione della nostra economia che imporrebbe di puntare da subito a quelle azioni
che possono fornire un contributo all’uscita dalla crisi.
6/2012
3
l’intervista
a cura di Roberto de Ritis
Intervista con il Commissario dell’ENEA:
Giovanni Lelli
N
el corso dei recenti Stati Generali della Green Economy (vedi riquadro in fondo) è stato presentato il Rapporto “Green Economy per uscire dalle due crisi“, realizzato dalla Fondazione
per lo Sviluppo Sostenibile e dall’ENEA. Il Rapporto ha posto l’accento su otto settori strategici per
una conversione “green” dell’economia italiana: ecoinnovazione, efficienza e risparmio energetico,
fonti energetiche rinnovabili, uso efficiente e rinnovabilità dei materiali e riciclo dei rifiuti, servizi
ambientali, filiere agricole di qualità, mobilità sostenibile, finanza e credito per la green economy.
Abbiamo intervistato il commissario dell’ENEA, ing. Giovanni Lelli, appena riconfermato alla guida
dell’Agenzia, sulle prospettive della “green economy”, e, in particolare, sul contributo che l’ENEA,
quale Agenzia che opera attivamente in campo energetico e dell’innovazione tecnologica, può
dare allo sviluppo socio-economico sostenibile dell’Italia. Ecco qui di seguito cosa ci ha detto.
• Innanzitutto partiamo da cosa si intende precisamente per green economy
La green economy è uno strumento di sviluppo sostenibile basato sulla valorizzazione del capitale economico (investimenti e ricavi), del capitale naturale (risorse primarie e impatti ambientali) e del capitale sociale (lavoro e benessere). Non rappresenta quindi un segmento dell’economia riferito alla cosiddetta industria ambientale, ma un nuovo concetto da applicare a tutti i
settori della produzione di beni e servizi, alla conservazione e all’utilizzo sostenibile delle risorse naturali, ai fini di una transizione verso un nuovo modello di sviluppo, in grado di garantire un
migliore e più equo benessere per tutto il genere umano, nel rispetto dei limiti del pianeta.
• Tra i 27 paesi membri dell’Unione europea, l’Italia occupa soltanto il 16° posto nella classifica dell’ecoinnovazione 2011. Quale cammino virtuoso possiamo intraprendere nell’immediato per migliorare
questa posizione?
Il passaggio alla green economy si può realizzare tramite lo sviluppo e la messa in pratica
dell’ecoinnovazione, che può essere definita come lo sviluppo e la realizzazione di prodotti, processi, sistemi gestionali e servizi nuovi o ripresi dalle buone pratiche della cultura e della tradizione industriale. All’interno del gruppo di lavoro sull’ecoinnovazione che
l’ENEA ha coordinato in vista degli Stati Generali della Green Economy, abbiamo messo in
rilievo la necessità di varare una “Strategia nazionale per lo sviluppo e l’implementazione
dell’ecoinnovazione made in Italy” che sappia coniugare la competitività delle imprese alla
sostenibilità dei sistemi produttivi. L’ecoinnovazione rappresenta, infatti, un percorso indispensabile per il nostro sistema produttivo verso un “nuovo” modello economico a basso
tenore di carbonio, efficiente nell’uso delle risorse e socialmente inclusivo.
Per fare un esempio concreto dell’impegno dell’ENEA in questo settore, nel 2011 abbiamo
avviato il progetto “Ecoinnovazione Sicilia”, che consiste in una serie di interventi sul territorio nell’ambito del turismo sostenibile e del recupero dei materiali pregiati da rifiuti di apparecchiature elettriche ed elettroniche, i cosiddetti RAEE, oltre all’avvio di una piattaforma regionale per la “simbiosi industriale”, vale a dire lo scambio di risorse tra due o più industrie
dissimili. Nel settore dei RAEE, gli interventi prevedono la realizzazione di un impianto per il
recupero di metalli preziosi da schede elettroniche e la progettazione di strutture pilota per
la valorizzazione energetica della plastica riciclata e per il recupero di terre rare da vecchi
televisori a tubo catodico. Nel campo del turismo sostenibile, il progetto mira alla gestione
sostenibile dell’acqua, dei rifiuti e delle risorse naturali nelle isole Egadi, con interventi per
il trattamento e il riuso delle acque reflue, la riduzione dei consumi idrici, la realizzazione di
un impianto pilota di compostaggio e studi sulla qualità dell’ambiente marino e costiero. In
4
EAI
Energia, Ambiente e Innovazione
6/2012
i
l'intervista
un’ottica di replicabilità in altre zone d’Italia, tutte queste azioni vedono il coinvolgimento di
attori e portatori di interesse pubblici e privati presenti sul territorio, in modo da promuovere
la consapevolezza delle imprese, soprattutto delle PMI, riguardo la necessità di interagire tra
loro per sviluppare concretamente uno dei principali concetti alla base della green economy,
vale a dire la chiusura dei cicli delle risorse. Inoltre, con l’obiettivo di trasferire sul mercato il
grande patrimonio di metodologie e strumenti che l’ENEA ha sviluppato negli ultimi 15 anni
sull’ecoinnovazione e sull’approccio del ciclo di vita, abbiamo costituito una società spin-off,
Ecoinnovazione srl, che offre analisi degli impatti ambientali di prodotti e servizi, per rendere
la variabile ambiente un elemento vincente per la competitività dell’azienda.
• A che punto è lo sviluppo delle fonti rinnovabili in Italia?
Nel 2011 le fonti rinnovabili hanno rappresentato oltre il 13% del consumo totale lordo di
energia, con una crescita del 7% rispetto all’anno precedente, l’incremento maggiore tra tutte
le fonti di energia. Nel nostro Paese questo settore dà lavoro a oltre 100 mila persone e siamo
diventati il primo mercato al mondo nel fotovoltaico, con 9,3 GW installati nel 2010, pari ad
un incremento di cinque volte e mezzo. Ciò è stato possibile grazie agli incentivi che hanno
determinato una grande promozione della domanda. Adesso, però, gli incentivi al fotovoltaico
dovranno sempre più tener conto della necessità di premiare la qualità e non la quantità degli
impianti, in modo da stabilizzare la domanda e sviluppare un’offerta nazionale al momento
decisamente carente, visto che continuiamo ad importare tecnologia dall’estero. Non in tutti
i settori delle rinnovabili l’offerta nazionale è così deficitaria. Fa eccezione, ad esempio, il
solare termodinamico a concentrazione ad alta temperatura, una tecnologia di cui l’ENEA
può rivendicare con orgoglio la paternità. Con un piccolo contributo finanziario dello Stato,
abbiamo sviluppato in 10 anni un prototipo, arrivando a realizzare nel 2010, insieme all’ENEL,
il primo impianto industriale in Sicilia. Contemporaneamente, abbiamo qualificato una filiera
nazionale di imprese, che sono diventate leader mondiali nella fornitura di componenti per
questo tipo di tecnologia, basati su brevetti ENEA e per quali percepiamo royalties. Se oggi
un’azienda straniera volesse realizzare un impianto di questo tipo, deve acquistare i pezzi in
Italia dalle industrie che fanno parte di questa filiera. Vorrei poi aggiungere un altro esempio
che riguarda la biomassa, una delle fonti rinnovabili più interessanti, in quanto si può accumulare e conservare e non è quindi soggetta alla saltuarietà delle altre fonti rinnovabili: l’ENEA
ha sviluppato una tecnologia di produzione di bioetanolo, ingegnerizzata e industrializzata da
un gruppo italiano, Mossi & Ghisolfi, che sta realizzando in Piemonte un impianto per la produzione di 40 mila tonnellate annue di questo biocombustibile, ricavato dalla canna di fiume.
• Ci sono altri esempi di filiere nazionali che si sono sviluppate grazie al contributo dell’ENEA?
Sicuramente posso citare l’esempio della fusione nucleare, dei cui programmi europei, primo
tra tutti “ITER”, l’ENEA è da 20 anni coordinatore nazionale. Le aziende italiane che hanno
lavorato con noi in questo programma si sono qualificate in prodotti ad alto contenuto tecnologico, arrivando ad aggiudicarsi oltre la metà dei primi ordini fatti dall’Unione Europea.
• Efficienza e risparmio energetico rappresentano un altro dei settori strategici in cui investire, che ruolo
può giocare l’ENEA in qualità di Agenzia nazionale per l’efficienza energetica?
L’efficienza energetica è tornata al centro dell’attenzione come lo strumento più idoneo
al raggiungimento degli obiettivi di riduzione dei consumi energetici europei al 2020 e il
documento di Strategia Energetica Nazionale, che ha presentato recentemente il Ministro
dello Sviluppo Economico, la indica tra le sette priorità del medio periodo per il rilancio
dell’economia italiana. Una maggiore efficienza energetica comporta il contenimento dei
consumi senza diminuire i livelli produttivi e le prestazioni energetiche, potendo ottenere
EAI
Energia, Ambiente e Innovazione
6/2012
5
l’intervista
di conseguenza risparmi economici, vantaggi ambientali, minor dipendenza energetica e
maggior competitività delle imprese. Oltre a supportare la pubblica amministrazione con
azioni tecnico-scientifico, l’ENEA conduce attività di ricerca e sviluppo per aumentare l’efficienza nella produzione e nell’utilizzo dell’energia da oltre 30 anni. Vorrei poi sottolineare
il fondamentale supporto fornito dai nostri tecnici nell’ambito dei Certificati Bianchi, uno
dei più importanti sistemi di finanziamento oggi a disposizione delle aziende italiane per
gli interventi di efficienza energetica, e dei meccanismi di detrazione fiscale per interventi
di riqualificazione energetica delle abitazioni, il cosiddetto 55%. Infine, ricordo che l’ENEA,
nell’ambito dalla “Ricerca di sistema elettrico”, svolge attività nel campo delle nuove tecnologie per il risparmio elettrico nell’illuminazione pubblica che hanno portato anche alla
costituzione del network Lumière per la diffusione dei risultati sul territorio e le tecnologie
smart per l’integrazione dell’illuminazione pubblica con altre reti di servizi energetici.
• A proposito di “smart”, che ruolo potranno svolgere le smart grid nell’efficienza complessiva del
sistema elettrico?
Il ruolo delle smart grid sarà sempre più rilevante alla luce della previsione di un crescente
ricorso alle fonti rinnovabili, a seguito dell’attuazione della Direttiva comunitaria del 2009. Il
nostro sistema attuale è ancora basato sulla produzione di energia da poche grandi centrali e
non riesce a gestire molte fonti distribuite sul territorio e con le caratteristiche dell’aleatorietà tipica dell’eolico e del fotovoltaico: sarà quindi inevitabile il passaggio a una generazione
diffusa in grado di integrare le azioni di tutti gli utenti connessi per distribuire l’energia in
modo “intelligente”, efficiente, sostenibile, sicuro ed economicamente vantaggioso. Non più
solo una rete di distribuzione sostanzialmente passiva, che trasporta l’energia in una sola
direzione, con un controllo centralizzato, linee, interruttori e trasformatori, ma anche flussi di
potenze bidirezionali e reti attive, fatte di elettronica, informatica e comunicazione. La rete
elettrica dovrà assomigliare sempre più al web, in cui ogni sistema di microgenerazione sia
connesso in rete in modo da comunicare e ricevere dati: ogni utente potrà diventare un “prosumer”, vale a dire un consumatore e, al tempo stesso, produttore di energia.
• In quali ambiti della mobilità sostenibile si concentrano le attività di ricerca e sviluppo dell’ ENEA?
Le nostre attività nei diversi settori della mobilità sono improntate, da un lato, a ottimizzarne
l’efficienza, dall’altro, a ridurne l’impatto ambientale. Stiamo sviluppando sistemi di accumulo dell’energia elettrica e dell’idrogeno, celle a combustibile e sistemi di ricarica veloce
per i veicoli full-electric, ma anche materiali più leggeri per le vetture e sistemi intelligenti
per la gestione del traffico. Nello sviluppo di sistemi accumulo di energia per la mobilità e
per le reti elettriche che devono assorbire una quota crescente di fonti rinnovabili, abbiamo
puntato molto sulle batterie a ioni di litio, che garantiscono notevoli prestazioni ed elevati
livelli di sicurezza. A queste attività si aggiungono le nostre ricerche sul miglioramento
della qualità dei combustibili, in particolare sui biocarburanti di terza generazione, vale a
dire quelli che non entrano in competizione con la catena alimentare.
• Come si può conciliare l’investimento nella ricerca pubblica in tempi di crisi economica e spending review?
In momenti di crisi economica e sociale, la capacità di sviluppo del know-how può aiutare il
Paese a vedere la luce in fondo al tunnel, perché è solo la ricerca che produce innovazione
e rende competitive le aziende e l’intero sistema. Essendo l’Italia un paese importatore di
materie prime, le esportazioni devono puntare sul valore aggiunto conferito ai prodotti; ed
è la ricerca pubblica e privata che ha la capacità di innestare questo valore nei cicli produttivi. L’importanza di investire in ricerca dipende anche dal fatto che molte tecnologie
sviluppate per un progetto di “nicchia” trovano poi applicazione anche in prodotti di largo
6
EAI
Energia, Ambiente e Innovazione
6/2012
l'intervista
consumo, come nel caso del teflon per le padelle antiaderenti, che all’inizio era servito per
l’arricchimento dell’uranio nell’ambito del Progetto Manhattan guidato da Enrico Fermi e
in seguito per la costruzione della serie di razzi Saturno V, usati per le prime missioni lunari
USA. Per restare in ambito ENEA, ricerche realizzate in programmi energetici, come nel caso
del nucleare da fissione o dei film sottili per il fotovoltaico o per il solare termodinamico,
hanno consentito di sviluppare tecnologie che ora utilizziamo per valorizzare e preservare
il patrimonio artistico, per la diagnostica medica e per dispositivi antisismici da applicare
agli edifici civili. In poche parole, il potenziale del trasferimento tecnologico rende esponenziale qualsiasi tipo d’investimento in ricerca, ma questo non sembra essere percepito in
Italia, che resta ancora largamente sotto la media europea; anzi, stiamo accentuando questo
divario con ulteriori tagli, nonostante i dipendenti dei vari enti di ricerca rappresentino
oggi appena il 5 per mille del pubblico impiego. Nel caso dell’ENEA, le erogazioni dello
Stato non coprono neanche il costo per il nostro personale, senza poi contare che abbiamo l’onere di mantenere in efficienza un enorme patrimonio strumentale, da preservare e
valorizzare al servizio del Paese. Comunque, di fronte a questo scenario vorrei ricordare
che negli ultimi tre anni abbiamo aumentato di oltre il 100 per cento la nostra capacità di
acquisire risorse sul mercato, attraverso la partecipazione a programmi europei e nazionali
e fornendo servizi alle imprese e alle Amministrazioni pubbliche.
Gli Stati Generali della Green Economy
Gli Stati Generali della Green Economy si sono tenuti a Rimini il 7 ed 8 novembre 2012 nell’ambito di Ecomondo-Key Energy, la Fiera internazionale del recupero di materia ed energia e dello sviluppo sostenibile.
La manifestazione è stata promossa da 39 organizzazioni di imprese italiane rappresentative del settore, in
collaborazione con la Fondazione per lo Sviluppo Sostenibile e il Ministero dell’Ambiente.
“Le imprese che hanno preparato gli Stati Generali sono imprese che fanno, che hanno risultati e che dimostrano che la green economy in Italia è la chiave per uscire dalla crisi”, ha detto il Ministro dell’Ambiente, Corrado
Clini, in apertura dei lavori, che sono stati poi chiusi dal Ministro dello Sviluppo Economico, Corrado Passera.
Otto gruppi di lavoro hanno preparato questo evento, elaborando un Programma di sviluppo della green economy per contrastare la doppia crisi, economica e ambientale, che sta coinvolgendo il nostro Paese. Questo
programma è articolato in 70 proposte per lo sviluppo dei seguenti settori chiave dell’economia “verde”:
1.ecoinnovazione;
2.ecoefficienza, rinnovabilità dei materiali e riciclo dei rifiuti;
3.efficienza e risparmio energetico;
4.fonti energetiche rinnovabili;
5.servizi ambientali;
6.mobilità sostenibile;
7.filiere agricole di qualità ecologica;
8.finanza e credito sostenibili per la green economy.
Queste proposte rappresentano una strada concreta da intraprendere non solo per promuovere un nuovo
orientamento generale dell’economia italiana che apra nuove possibilità di sviluppo, durevole e sostenibile,
ma anche per far fronte alle due crisi, attraverso l’analisi dei potenziali positivi, degli ostacoli, nonché delle
politiche e delle misure necessarie per lo sviluppo di un primo gruppo di settori strategici.
Oltre a questa piattaforma programmatica, gli Stati Generali hanno discusso il rapporto “Green Economy
per uscire dalle due crisi”, realizzato dalla Fondazione per lo Sviluppo Sostenibile e dall’ENEA, che offre
una dettagliata analisi sulla posizione dell’Italia in un processo che sta investendo le economie mondiali,
mettendo a fuoco i nodi irrisolti e gli ambiti rispetto ai quali è più urgente un deciso cambio di marcia.
Nonostante permangano alcune debolezze, soprattutto nel settore dell’ecoinnovazione e del riciclo dei
rifiuti, gli Stati Generali hanno confermato che in Italia la green economy costituisce il settore più innovativo
che crea occupazione, contrasta la recessione ed è proiettato sui mercati internazionali.
EAI
Energia, Ambiente e Innovazione
6/2012
7
World View
Nazioni Unite: regole obsolete
rendono inconcludenti i negoziati
L
e strutture e i processi che
regolano i negoziati delle
Nazioni Unite sono ormai obsoleti
e inadeguati, anzi costituiscono un
ostacolo per giungere ad accordi
efficaci. E’ questo il risultato di
una ricerca dell’Università della
“East Anglia” e del “Tyndall
Centre for Climate Change
Research”, pubblicata sul numero
del 19 ottobre della rivista “Nature
Climate Change” (http://www.
nature.com/nclimate/journal/vaop/
ncurrent/full/nclimate1742.html).
L’esempio più clamoroso è
rappresentato dal negoziato
sui cambiamenti climatici che
si trascina da 18 anni in modo
assolutamente inconcludente e
fallimentare. Uno dei principali
ostacoli alle decisioni è costituito
dalla regola del “consenso” in
vigore alle Nazioni Unite. Questa
regola, infatti, interpretata come
unanimità, blocca i negoziati,
facendo rimandare di volta in volta
le decisioni e alla fine impedisce
l’attuazione di azioni, a danno
soprattutto dei paesi più poveri.
Inoltre, la regola del consenso che
è già di difficile attuazione quando
i delegati sono in numero limitato,
non permette di decidere quando
8
EAI
Energia, Ambiente e Innovazione
6/2012
il numero dei delegati diventa
enorme.
Se si intende rivedere la regola
del consenso, allo stesso
modo deve essere rivista la
partecipazione ai negoziati.
Infatti, per quanto riguarda quelli
sui cambiamenti climatici, dopo
una iniziale fase costruttiva,
la situazione è andata via via
peggiorando in un crescendo di
inconcludenza quasi proporzionale
alla numerosità delle delegazioni.
Ogni sessione negoziale
che si tiene annualmente,
vede aumentare il numero di
delegazioni e soprattutto di
delegati. Dai 757 delegati in
rappresentanza di 170 paesi nella
prima sessione negoziale (COP1)
tenuta a Bonn nel 1995, siamo
passati a 10.591 delegati di 194
paesi nella quindicesima sessione
(COP-15) di Copenhagen, quella
più famosa per un clamoroso
fallimento. In pratica, nei primi
15 anni di negoziati c’è stato
un incremento di delegati del
1400 %, ma l’incremento non
ha riguardato solo i delegati
governativi, ma anche i delegati
delle organizzazioni non
governative che, scarsamente
presenti nelle prime sessioni
negoziali, hanno raggiunto nel
2009 la cifra record di 13.500
delegati in rappresentanza di 937
organizzazioni non governative.
Tuttavia, l’aumento a dismisura
del numero di delegati non ha
riguardato tutte le delegazioni, ma
principalmente quelle dei paesi
industrializzati, esclusi gli USA, e
quelle dei cinque paesi emergenti
(Cina, India, Brasile, Messico e
Sud Africa), mentre viceversa i
paesi più poveri hanno addirittura
ridotto il numero dei loro delegati.
Gli Stati Uniti, dopo l’uscita dal
Protocollo di Kyoto nel 2001,
hanno mantenuto una delegazione
limitata.
Con l’aumento del numero dei
delegati non sono parimenti
cresciuti la qualità e il profilo
dei negoziatori, infatti ora tra
nelle delegazioni ci sono molti
meno esperti sui problemi trattati
e molti più politici e, questo
ha comportato nel tempo una
variazione del processo negoziale.
In conseguenza di ciò, i paesi
con un numero maggiore di
delegati, per lo più politici, hanno
maggiori capacità di indirizzare ed
egemonizzazione le discussioni sui
propri obiettivi politici.
Gli autori dello studio
raccomandano di stabilire regole
precise di partecipazione e di
(Caterina Vinci)
Sussidi:
combustibili fossili
battono rinnovabili 6 a 1
I
l quadro energetico mondiale sta
evolvendo in modo inaspettato e,
per quanto riguarda i cambiamenti
climatici, anche drammatico.
La produzione di combustibili
fossili nel Nord America (USA e
Canada) si sviluppa velocemente
diffondendo nel mondo petrolio e
gas non convenzionale. Aumenta
fortemente la produzione
petrolifera in Iraq, tanto da
superare tendenzialmente la
produzione di idrocarburi della
Russia e nello stesso tempo si
diffondono ulteriormente le
tecnologie eoliche e solari e l’uso
efficiente dell’energia, mentre
diminuisce in alcuni paesi il
ricorso all’energia nucleare.
Quali nuovi scenari si prospettano
per il futuro in campo energetico?
È quanto affronta ed esamina
l’ultimo rapporto World Energy
Outlook 2012 dell’Agenzia
Internazionale dell’Energia
(IEA) presentato a Londra il
12 novembre scorso (http://
www.worldenergyoutlook.org/
publications/weo-2012/).
La domanda mondiale di energia
crescerà entro il 2035 di oltre un
terzo rispetto ad oggi. Il Nord
America diventerà un esportatore
netto di petrolio e gas non
convenzionale, modificando così
gli attuali equilibri mondiali dii
flussi energetici. La produzione di
petrolio e gas del Medio Oriente
sarà assorbita per circa il 90%
dall’Asia, ma soprattutto da Cina
e India, dove aumenterà del 21%
anche la domanda di carbone.
L’Iraq diventerà il secondo
esportatore mondiale di petrolio.
Ma la cosa più clamorosa
evidenziata dal nuovo Rapporto
IEA è che, nonostante la crescita
delle fonti energetiche rinnovabili
che diventeranno la seconda fonte
energetica mondiale, i combustibili
fossili continueranno a mantenere
nel mondo la loro posizione
dominante come fonte di energia.
Questo dominio è sostenuto da
una quota crescente di sussidi
che vengono costantemente
elargiti ai combustibili fossili. A
livello globale nel 2011 i sussidi
ammontavano alla cifra record
di 523 miliardi di dollari, con
un balzo del 30% in più rispetto
all’anno precedente. In pratica, i
combustibili fossili hanno goduto e
godono di sussidi che sono di ben
sei volte superiori agli incentivi
(circa 88 miliardi di dollari) che
vengono erogati per promuovere
le fonti rinnovabili compresi i
biocombustibili.
Secondo il rapporto, con la
prospettiva di sussidi crescenti
ai combustibili fossili non vi è
dubbio che i livelli di emissione di
anidride carbonica tenderanno di
certo a diminuire, anzi cresceranno
senza sosta portando il
surriscaldamento climatico globale
al 2100 a ben 3,6 °C rispetto
all’epoca preindustriale, un valore
questo ben al di sopra del valore
massimo di 2 °C necessario per
non destabilizzare il clima globale.
EAI
Energia, Ambiente e Innovazione
6/2012
World View
rappresentatività limitando il
numero dei delegati per ciascuna
delegazione e imponendo
che in ogni delegazione vi sia
un’equilibrata rappresentanza della
società civile del proprio paese.
Non è più logico mantenere regole
stabilite circa 65 anni fa quando
furono fondate le Nazioni Unite
e la missione delle Nazioni Unite
era principalmente focalizzata a
prevenire i conflitti armati dopo la
terribile esperienza della seconda
guerra mondiale, a risolvere in
modo partecipato e consensuale
i contenziosi internazionali, a
combattere le discriminazioni di
ogni genere per promuovere la
dignità di ogni persona e i diritti
umani, e ad aiutare i paesi più
poveri a uscire dalle loro condizioni
di sottosviluppo.
Come aveva già affermato Ban
Ki-moon, Segretario Generale
delle Nazioni Unite, nel consueto
messaggio d’inizio anno, in un
mondo che è profondamente
cambiato rispetto a più di mezzo
secolo fa, pur rimanendo intatti
i valori di base della pace, dei
diritti umani, del disarmo e
della sicurezza dei popoli, le
Nazioni Unite devono ora essere
in grado di affrontare le grandi
sfide che attendono l’umanità nel
prossimo futuro. E tra le grandi
sfide, quella dei cambiamenti
climatici è prioritaria, perché i
cambiamenti del clima, al di là
delle conseguenze ambientali,
costituiscono una minaccia per la
sicurezza energetica, la sicurezza
alimentare, la sicurezza idrica
e la qualità della vita di una
popolazione mondiale in rapida
crescita.
9
L’impegno del limite di 2 °C era
stato assunto nella Conferenza
di Copenhagen nel 2009 dai 194
Paesi della UNFCCC (Convenzione
quadro delle Nazioni Unite sui
cambiamenti climatici), poi
ribadito nella Conferenza di
Cancún del 2010 e in quella di
Durban del 2011.
In questo scenario, che appare
insostenibile anche sotto il
profilo dell’energia elettrica che
continua a rimanere inaccessibile
per 1,3 miliardi di persone, il
rapporto IEA raccomanda di
puntare su un “mondo efficiente”
e a consumi più bassi di energia,
riducendo nel contempo i sussidi
ai combustibili fossili che vanno
invece convertiti in incentivi per
lo sviluppo di tecnologie e azioni
che massimizzino l’efficienza
energetica, ma anche l’uso
efficiente delle risorse idriche
nella produzione di energia. Il
potenziale di efficienza energetica,
10
EAI
Energia, Ambiente e Innovazione
6/2012
infatti, se sfruttato può dimezzare
la domanda globale di energia
senza penalizzare le esigenze di
sviluppo socio economico, ma
con grandi benefici, oltre che
economici, anche sull’ambiente
e il clima. La strategia per un
“mondo efficiente” dovrebbe
essere supportata da maggiori
investimenti nella capacità
di governance e di gestione
dell’efficienza energetica e
dell’uso efficiente delle risorse
naturali a tutti i livelli.
Poiché l’obiettivo climatico
di limitare l’aumento della
temperatura globale entro i 2 °C sta
diventando, ogni anno che passa,
sempre più difficile e costoso, con
un “mondo efficiente” è possibile
guadagnare tempo prezioso nei
prossimi dieci anni per conseguire
un urgente accordo globale sulla
riduzione delle emissioni di gas ad
effetto serra.
(Daniela Bertuzzi)
Smart Grid: energia
sicura, accessibile e
rispettosa dell’ambiente
Il World Energy Council (WEC)
ha lanciato un nuovo rapporto dal
titolo “Smart Grids: Best Practice
Fundamentals for a Modern
Energy System” (http://www.
worldenergy.org/publications/3940.
asp), presentato in occasione del
congresso mondiale del WEC a
Daegu, in Corea del Sud, dal 13
al 17 ottobre 2013 e dedicato alle
“azioni che devono essere prese
oggi per la sicurezza energetica di
domani”.
Nella presentazione del rapporto
è stato evidenziato che le Smart
Grid sono di rilevanza prioritaria
per dare una concreta risposta
al trilemma energetico: energia
sicura, energia accessibile,
energia rispettosa dell’ambiente,
un trilemma particolarmente
critico nei paesi emergenti come
Cina, India, Brasile e altri. Nel
discorso dei rappresentanti WEC,
la Corea del Sud è stata indicata
come esempio pioneristico delle
buone pratiche di attuazione di
progetti dimostrativi delle Smart
Grid. Il progetto dimostrativo in
corso nell’isola di Jeju è, infatti,
un esempio concreto di successo
grazie all’azione combinata del
settore pubblico e privato. La
Smart Grid realizzata risponderà
ai bisogni energetici di circa
6.000 abitazioni e dimostrerà la
possibilità di commercializzazione,
anche all’estero, del know-how
coreano acquisito. Per il futuro, su
un orizzonte temporale esteso fino
al 2030, il Governo sud-coreano
esistenti, oltre che in Corea, in
Europa, Nord America, Giappone,
Cina, India e Brasile.
Tra le “best practices” citate
dal rapporto figurano quelle
dell’Unione Europea nell’ambito
del Settimo Programma Quadro
che ha finanziato alcuni progetti
dimostrativi, tra cui due (Grid4EU
e EcoGrid) che hanno come
obiettivo lo sviluppo di tecnologie
avanzate per le Smart Grid e
l’ottimizzazione del funzionamento
delle reti di distribuzione in
presenza di generatori di energia
rinnovabile.
Nel Nord America, sia USA che
Canada, le “best practices”
riguardano le strategie
di promozione di progetti
dimostrativi che stimolano
l’iniziativa privata e i meccanismi
di mercato. L’esempio è
quello della General Electric
Corporation (GE) che ha siglato
diverse partnership con alcune
città della Georgia e ha avviato
un progetto cofinanziato dal
“Department o Energy” (DoE)
per l’efficientamento del
funzionamento della rete elettrica.
Per il Giappone, dopo l’incidente
di Fukushima, viene evidenziato lo
sforzo verso le energie rinnovabili
e i diversi progetti dimostrativi
di Smart Grid in quattro città del
paese.
Per quanto riguarda i paesi
emergenti sono riportate le
iniziative della Cina che si avvale,
per lo sviluppo delle Smart Grid,
di un grande piano nazionale
di elettrificazione del 90% del
territorio, in modo da rendere
accessibile l’energia elettrica ad
almeno un miliardo di persone
entro il 2020. L’India ha, invece,
scelto di sviluppare le Smart
Grid attraverso una “Task Force”
nazionale di coordinamento dello
sviluppo delle migliori pratiche e
mediante un “Forum delle Smart
Grid”, un consorzio di operatori
pubblici e privati per accelerare
l’attuazione dei progetti operativi.
Infine, il Brasile viene citato come
esempio perché, pur in assenza
di meccanismi di finanziamento
governativi, ha realizzato progetti
dimostrativi di Smart Grid
attraverso incentivi che hanno
stimolato meccanismi di mercato.
“Il quadro descritto – ha
affermato Giorgio Graditi,
esperto ENEA di reti elettriche
intelligenti – mostra che lo
sviluppo delle Smart Grid,
che vedono fonti rinnovabili e
generazione distribuita come loro
principali “drivers”, rappresenta
un passaggio chiave per la
transizione verso un modello
“low carbon”, caratterizzato da
una massiva e diffusa presenza di
generazione da fonti energetiche
rinnovabili”. “L’evoluzione verso
la ‘rete intelligente’ richiederà
tempi lunghi e investimenti
importanti – ha aggiunto Giorgio
Graditi – tuttavia le Smart Grid
possono generare benefici
notevoli considerando l’effetto
moltiplicatore nella resa di ciò che
si spende. Le ricadute positive
potranno essere ancora maggiori,
se si considerano benefici quali
la creazione di posti di lavoro e
il conseguente volume di affari
che le Smart Grid sono in grado
di originare in un percorso di
rivoluzione del sistema elettrico
per l’affermazione di un nuovo
modello energetico”.
World View
ha approvato un programma
per promuovere le tecnologie
più avanzate necessarie alla
realizzazione delle Smart Grid,
compresa la possibilità di quelle
in corrente continua.
Come illustrato nel rapporto,
diversi sono i motivi che
impongono lo sviluppo e la
realizzazione di Smart Grid. Nei
paesi industrializzati la spinta
proviene soprattutto dalle
necessità legate all’efficienza
energetica e a una crescita
economica a basse emissioni
di anidride carbonica, ma
anche dalla necessità di
modernizzazione delle reti e
delle infrastrutture elettriche
che, nella maggior parte di
paesi industrializzati, sono
obsolete e non più adeguate alle
nuove esigenze e prospettive di
sviluppo. Nei paesi emergenti,
invece, l’impulso verso le
Smart Grid deriva soprattutto
dall’esigenza di dotare i propri
territori di infrastrutture elettriche
efficienti, per garantire a tutta la
popolazione l’accesso all’energia
elettrica e consentire una rapida
crescita della qualità della vita dei
cittadini. In entrambi i casi (paesi
industrializzati ed emergenti)
l’obiettivo comune è di sviluppare
le nuove tecnologie per le energie
rinnovabili e la generazione
distribuita che le Smart Grid sono
in grado di favorire e accelerare.
Il report WEC identifica,
per i diversi paesi presi in
considerazione e trattati più in
dettaglio negli allegati, i principali
“driver” che faciliteranno la
realizzazione delle Smart Grid
in futuro, mettendo in evidenza
le diverse “best practices” già
(Daniela Bertuzzi)
EAI
Energia, Ambiente e Innovazione
6/2012
11
World View
Cambio di rotta europeo:
biocarburanti “a metà”
C
ontinua il dibattito a livello
europeo sulla sostenibilità
dei biocarburanti. Il 17 ottobre
scorso, la Commissione Europea
ha presentato al Parlamento e al
Consiglio Europeo una proposta
(COM (2012) 595 final) finalizzata
ad apportare delle importanti
modifiche alla Direttiva del 1998
sulla qualità della benzina e del
diesel (Direttiva 98/70/CE) e alla più
recente Direttiva sulla promozione
delle energie rinnovabili (Direttiva
2009/28/CE).
La proposta deriva dall’esigenza di
considerare in maniera differente
l’impatto ambientale delle
varie tipologie di biocarburanti
immessi sul mercato, soprattutto
dal punto di vista delle emissioni
aggiuntive derivanti da un cambio
di destinazione d’uso dei suoli
(ILUC: Indirect Land Use Change).
In altre parole, l’intenzione della
12
EAI
Energia, Ambiente e Innovazione
6/2012
Commissione è quella di evitare
che la crescente domanda di
biocarburanti nell’Unione Europea
(+3% nel 2011, dati EurObserv’ER)
provochi un eccessivo spostamento
delle produzioni alimentari
verso terre non agricole, come
foreste e zone umide, provocando
“indirettamente” un aumento
delle emissioni ad effetto serra
e riducendo, di fatto, i benefici
ambientali derivanti dal consumo di
biocarburanti.
In quest’ottica la Commissione
Europea ha avanzato le seguenti
proposte di emendamento delle due
direttive:
 limitare, nel raggiungimento degli
obiettivi al 2020 della Direttiva
europea sulle energie rinnovabili,
il contributo dei biocarburanti
convenzionali la cui coltivazione è
a elevato rischio di ILUC;
 aumentare il rendimento dei
processi di produzione dei
biocarburanti riducendone le
emissioni di almeno il 60% e
scoraggiando nuovi investimenti
in impianti poco efficienti;
 incrementare la quota di mercato
dei biocarburanti di nuova
generazione (a basso ILUC), in
modo tale da aumentare il loro
contributo al raggiungimento
degli obiettivi al 2020;
 obbligare gli Stati Membri e i
fornitori di carburanti a dare stime
relativamente all’effetto ILUC dei
propri biocarburanti.
Aspetto fondamentale della proposta
della Commissione, è di contenere
al 5% la quantità di biocarburanti
e bioliquidi derivanti da colture
alimentari (cereali, amido, zucchero
e oli) che può essere presa in
considerazione nel calcolo della
quota di biocarburanti sui consumi
finali di energia utilizzati nei trasporti
ai fini dell’obiettivo europeo del
10%. A ciò si aggiunge la proposta di
incentivare i biocarburanti che hanno
un impatto basso o nullo dal punto
di vista delle emissioni da ILUC,
come quelli di seconda (derivati
da prodotti agricoli e vegetali
di scarto come paglia e rifiuti) o
terza generazione (biocombustibili
prodotti dalle alghe o che non
impattano sull’uso dei suoli).
La Commissaria per l’Azione per il
clima dell’UE, Connie Hedegaard,
ha sottolineato come “… I
biocarburanti che usiamo devono
essere autenticamente sostenibili.
In futuro l’aumento nell’impiego
dei biocarburanti deve basarsi
su biocarburanti avanzati, perché
qualsiasi alternativa risulterà
insostenibile”.
“La linea della Commissione
Europea è assolutamente
condivisibile” – ha detto Giulio Izzo
esperto ENEA sulle bioenergie
– perché cerca di bilanciare
sia le esigenze di limitare la
conversione dei terreni agricoli
alla produzione di biocarburanti
e di scoraggiare, quindi, gli
investimenti in questa direzione,
sia la necessità di sviluppare
biocombustibili di seconda e terza
generazione e incoraggiare, invece,
lo sviluppo di pratiche e processi
di produzione rispettosi del clima e
ambientalmente sostenibili”.
(Andrea Fidanza)
A
umenta il movimento dei
rifiuti tra gli Stati membri
dell’Unione Europea, ma anche
dall’ UE verso i paesi extraeuropei.
Tra il 1999 e il 2011 l’esportazione
di rottami di ferro, acciaio, rame,
alluminio e nickel è raddoppiata,
quella a base di metalli preziosi
è nel frattempo aumentata di
un fattore tre e quella di rifiuti
plastici addirittura di un fattore
cinque. Tra il 2000 e il 2009 è
raddoppiata anche l’esportazione
di rifiuti pericolosi, compresi
i rifiuti elettronici, anche se i
volumi trasportati sono diminuiti,
probabilmente a causa della
depressione economica. Questo
in sintesi il contenuto del nuovo
rapporto dell’Agenzia Europea
dell’Ambiente: “Movements of
waste accross the EU’s internal and
external borders”.
La maggiore movimentazione
di rifiuti in Europa ha aspetti
positivi e negativi. Tra i primi
vanno annoverate le maggiori
opportunità di recupero e
riciclaggio, con benefici sia dal
punto di vista economico (recupero
di materie prime a minor costo),
sia ambientale (eliminazione
discariche e riduzione dell’impatto
ambientale) sia dell’uso efficiente
delle risorse (il riciclaggio riduce la
pressione delle attività antropiche
sulle risorse ambientali).
Tra gli aspetti negativi vanno
evidenziati non solo l’aumento
dei trasporti, che implicano
maggiori consumi energetici e
maggiori emissioni di gas serra,
ma, per le esportazioni fuori UE,
soprattutto i rischi connessi con
l’uso di processi di riciclo e di
recupero non sempre rispettosi
dell’ambiente e della salute
umana, cui si aggiungono i rischi
di traffici illegali di materiali che
portano al “dumping” ambientale
ed economico, quando gli stessi
prodotti riciclati o recuperati
rientrano poi in Europa.
Un’analisi più approfondita
sull’aumento dei trasporti di
rifiuti dentro e fuori dell’Europa
mostra come l’aver introdotto in
Europa un mercato comune che
comprende anche il riciclo dei
rifiuti e migliora la collaborazione
tra paesi europei, ma soprattutto
l’efficienza complessiva del
sistema industriale europeo, sia
senz’altro proficuo. Tuttavia, per
quanto riguarda i rifiuti esportati al
di fuori dell’Europa è necessario
superare le carenze interne
europee, sia di tipo industriale,
per ampliare i processi e gli
impianti di smaltimento per tipi
particolari di rifiuti, sia di tipo
normativo, armonizzando le leggi
e i regolamenti, comprese le
norme per migliorare i controlli e
contrastare azioni illegali.
I paesi a rapida crescita
economica, come sono molti
paesi asiatici, hanno bisogno di
materie prime spesso ricavate
dal riciclaggio dei rifiuti europei,
ma questa loro necessità
deve favorire la cooperazione
internazionale, in modo da passare
da una crescente competizione
globale sull’accaparramento
delle materie prime naturali, a
una consapevolezza maggiore del
“valore” del rifiuto come risorsa
fondamentale per lo sviluppo socio
economico. Questa cooperazione,
se ben impostata, scoraggerebbe
anche i traffici illegali di rifiuti
che spesso si traducono in un
danno per l’Europa e gli operatori
industriali ed economici europei.
L’aumento della movimentazione
dei rifiuti non va, comunque, visto
come un aspetto di per sé negativo
se il materiale trasportato viene
riciclato e utilizzato al meglio
in altri luoghi. “In un mondo
con risorse limitate e vincolate,
l’obiettivo di fondo da non perdere
di vista” – come ha affermato
Jacqueline McGlade, direttore
esecutivo dell’Agenzia Europea
dell’Ambiente – “deve essere
in primo luogo quello di ridurre
clamorosamente l’ammontare dei
rifiuti che l’Europa produce”.
World View
L’UE esporta più rifiuti, inclusi quelli pericolosi
(Daniela Bertuzzi)
EAI
Energia, Ambiente e Innovazione
6/2012
13
Luci e ombre sulla sicurezza nucleare in Europa:
conclusi gli stress test dopo Fukushima
I test di resistenza (stress test)
condotti sugli impianti nucleari
hanno mostrato che le normative
di sicurezza nucleare in Europa
sono generalmente di alto livello.
Tuttavia è emerso che non tutte
le norme promosse dall’Agenzia
Internazionale per l’Energia Atomica
(AIEA) e non tutte le migliori
pratiche internazionali vengono
applicate negli Stati membri e,
dunque, è necessario procedere con
misure legislative dirette a rafforzare
ulteriormente la sicurezza nucleare
in Europa. Alla luce dei risultati
acquisiti, la Commissione Europea,
infatti, intende presentare agli inizi
del 2013 una revisione dell’attuale
direttiva sulla sicurezza nucleare, con
particolare riferimento ai requisiti
di sicurezza, al ruolo e ai poteri
delle autorità di regolamentazione
nucleari e alla trasparenza
sull’attività di monitoraggio. A ciò
faranno seguito proposte aggiuntive
sia sugli aspetti concernenti
l’assicurazione e la responsabilità
in materia nucleare, sia sui massimi
livelli consentiti di contaminazione
radioattiva negli alimenti e nei
mangimi.
È questo in sintesi il contenuto della
“Comunicazione della Commissione
Europea” presentata il 4 ottobre
2012 al Consiglio e al Parlamento
Europeo (COM(2012)571 final) a
seguito dell’attuazione, su tutti gli
impianti nucleari europei, degli
“stress test” decisi dal Consiglio
14
EAI
Energia, Ambiente e Innovazione
6/2012
Europeo nel marzo 2011, dopo
l’incidente nucleare di Fukushima.
Gli “stress test” erano finalizzati a
valutare la sicurezza e la robustezza
degli impianti delle centrali
nucleari in caso di eventi naturali
estremi, in particolare inondazioni e
terremoti, inclusi anche gli incidenti
aerei particolarmente gravi e tali
da portare all’interruzione del
normale funzionamento degli
impianti di sicurezza e dei sistemi di
raffreddamento.
I reattori nucleari europei esaminati
sono stati 145, di cui, però, 132
funzionanti, dislocati in 15 dei 27
paesi membri dell’Unione Europea.
La maggior parte dei reattori (sono
58) si trova in Francia, segue la
Gran Bretagna con 19 reattori e
la Germania con 17, poi la Svezia
con 10 reattori, la Spagna con 8, il
Belgio con 7, la Repubblica Ceca
con 6, la Finlandia con 4 e, infine,
gli altri sette paesi rimanenti con
1 o al massimo 2 reattori ciascuno.
Agli stress test dell’Unione Europea
hanno partecipato anche la Svizzera
e l’Ucraina.
I risultati degli “stress test” hanno
messo in risalto alcuni problemi di
attuazione delle migliori pratiche e
dei migliori standard internazionali,
tra cui:
 Rischio sismico: in 54 reattori
(circa il 37% del totale) gli attuali
standard di prevenzione relativi
al rischio sismico non sono stati
presi in considerazione. Invece
di considerare terremoti di
riferimento la cui probabilità ha
tempi di ritorno superiori ai 10
mila anni, sono stati considerati
terremoti di riferimento con tempi
di ritorno molto più brevi.
 Rischio alluvioni e inondazioni: in
62 reattori (circa il 43% del totale)
i moderni standard di prevenzione
per questo tipo di rischio non
sono stati presi in considerazione.
Anche qui sono stati considerati
riferimenti aventi una probabilità
corrispondente a tempi di ritorno
anche molto inferiori ai 10 mila
anni, contrariamente a quanto
richiede, invece, lo standard
internazionale.
 Attrezzature per far fronte a
incidenti severi: in 81 reattori
(circa il 56% del totale) le
attrezzature non sono collocate in
aree protette accessibili anche in
caso di catastrofe.
 Strumentazione di monitoraggio
sismico in loco per le allerte e gli
allarmi: tale strumentazione non è
disponibile in 121 reattori (circa
83% del totale).
 Sistemi di ventilazione con filtro
all’involucro del contenimento per
permettere la depressurizzazione
sicura del contenitore del reattore
in caso d’incidente: tali sistemi
non sono disponibili in 32 reattori
(circa il 22% del totale).
Difettano, inoltre, le procedure
per le operazioni di emergenza
in 57 reattori (39% del totale), la
predisposizione di linee guida per
la gestione delle emergenze in 79
reattori (54% del totale), le misure
passive in 40 reattori (28% del
(Daniela Bertuzzi)
World View
totale), la mancanza di una seconda
sala di emergenza in 24 reattori
(17% del totale) e altri problemi di
sicurezza minori.
Pertanto, la Commissione
ha formulato una serie di
raccomandazioni da attuare al
più presto possibile da parte
degli Stati membri, tra cui la
ratifica, da parte dei paesi che non
hanno ancora provveduto, degli
emendamenti alla Convenzione
sulla protezione fisica e sui
materiali nucleari, l’applicazione
delle raccomandazioni dell’AIEA
sulla protezione fisica e le attività
di cooperazione di ciascuno
Stato membro nello scambio
di informazioni sulla sicurezza
nucleare, con gli Stati confinanti.
La Commissione ha, inoltre, fatto
sapere che nel frattempo intende
procedere con il rafforzamento delle
misure sulla sicurezza nucleare in
Europa, attraverso la revisione, entro
il 2013, della direttiva europea sulla
sicurezza nucleare, includendo in
questa revisione anche gli eventi
derivanti da atti di terrorismo e da
commercio illegale di materiale
radioattivo.
Infine, la Commissione porterà
avanti azioni collaterali di sostegno,
quali un maggiore impegno per
la preparazione professionale e
l’addestramento degli addetti alle
operazioni nucleari e la presentazione
di una serie di proposte di ricerca
scientifica sulla sicurezza nucleare e
la protezione sanitaria da inserire nel
nuovo programma quadro europeo
“Horizon 2020”.
Disinquinare corpi idrici dal petrolio?
Si può, grazie alle nanotecnologie
R
icercatori del MIT di Boston
(Massachusetts Institute of
Technology) hanno sviluppato
una nuova tecnica che consente
di separare magneticamente il
petrolio dall’acqua.
Questa tecnica farebbe
finalmente fronte al problema
dell’inquinamento causato
dalle fuoriuscite di greggio e
consentirebbe inoltre una notevole
riduzione di costi per la ripulitura
delle acque inquinate, in quanto
il petrolio recuperato potrebbe
essere riutilizzato.
I risultati della ricerca, condotta
da un’equipe guidata da Shahriar
Khushrushahi del Dipartimento di
Ingegneria Elettrica e Informatica
del MIT, di cui fanno parte anche
i professori Markus Zahn e T. Alan
Hatton, verranno presentati alla
13th International Conference on
Magnetic Fluids che avrà luogo a
New Delhi nel gennaio 2013.
La ricerca condotta, sulla quale
l’equipe ha già presentato due
brevetti, si basa sull’inserimento
di nano-particelle ferrose idrorepellenti all’interno del petrolio,
in grado di trasformarlo in un
liquido magnetico noto con il
nome di ferro fluido. Una volta
avvenuta questa trasformazione,
il ferro fluido potrà essere
separato dall’acqua mediante
magneti che attireranno la miscela
nell’impianto di pompaggio, dove
questa verrà lavorata al fine del
suo riutilizzo.
“I risultati di questa ricerca
sono molto interessanti per
il disinquinamento dei corpi
idrici contaminati da petrolio,
soprattutto perché in grado di
facilitare un rapido recupero
del petrolio sversato” – ha detto
Massimo Maffucci, esperto ENEA
di bonifiche e riqualificazione
ambientale – “Tuttavia, questa
tecnologia potrebbe non essere
economicamente conveniente,
nonostante la sua efficacia
tecnologica” – ha aggiunto
Maffucci – “perché l’aggiunta di
additivi (nano-particelle ferrose) al
petrolio per la sua trasformazione
in ferro fluido comporta dei costi
presumibilmente elevati”.
(Paola Molinas)
EAI
Energia, Ambiente e Innovazione
6/2012
15
World View
Più cambiamenti climatici più i rischi per la salute,
ma l’informazione può aiutare
C
on il cambiamento del clima
globale aumentano i rischi
per la salute umana. È quanto
emerge dall’Atlante della salute
e del clima, pubblicato dalla
WMO (World Meteorological
Organization) lo scorso autunno,
che illustra alcuni dei maggiori e
pressanti cambiamenti che stanno
emergendo.
Siccità, alluvioni e cicloni
colpiscono ogni anno la salute di
milioni di persone. La variabilità
del clima e le condizioni estreme,
come le alluvioni, possono anche
innescare epidemie di malattie
come dissenteria, malaria,
dengue e meningite, che causano
morte e sofferenza di milioni di
persone. L’Atlante fornisce esempi
pratici di come l’utilizzo delle
informazioni sul tempo e sul clima
possano proteggere la salute
pubblica.
“Prevenzione e preparazione sono
il cuore della salute pubblica.
La gestione del rischio è il
nostro pane e burro quotidiano.
L’informazione sulla variabilità del
clima e il cambiamento climatico
è uno strumento scientifico molto
importante che ci assiste in
questo compito”, secondo quanto
ha dichiarato Margaret Chan,
direttore generale del WHO. “Il
clima ha un profondo impatto
sulla vita e la sopravvivenza
delle popolazioni. L’informazione
16
EAI
Energia, Ambiente e Innovazione
6/2012
climatica può avere un profondo
impatto per migliorare le nostre
vite e le conseguenze sulla
salute”.
Fino ad ora le informazioni sul
clima sono state una risorsa
sottoutilizzata per la tutela della
salute pubblica. “Una più stretta
collaborazione tra le comunità
meteorologiche e quelle degli
operatori della salute è essenziale
per assicurare un’informazione
sul clima aggiornata e accurata
integrata nella gestione della
salute pubblica a livello
internazionale, nazionale e locale”.
“Questo Atlante è un esempio
pratico e innovativo di come
possiamo lavorare al servizio della
società”, ha affermato il segretario
generale della WMO, Michel
Jarraud.
Nell’Atlante sono riportate
numerose mappe, tavole e grafici
che esplicitano il collegamento
esistente tra salute e clima; in
alcune zone del pianeta, infatti,
l’incidenza di malattie infettive
come la malaria, la dengue,
la meningite e il colera può
variare tra le stagioni, e in modo
significativo anche tra gli anni,
a seconda del meteo e delle
condizioni climatiche. Servizi
climatici dettagliati possono
“aiutare a predire l’insorgenza,
l’intensità e la durata delle
epidemie”.
Casi di studio mostrano come
la collaborazione tra servizi
meteorologici, di emergenza e
sanitari stia già salvando delle
vite. Ad esempio, il bilancio delle
vittime “di cicloni di intensità
simile in Bangladesh si è ridotto
da circa 500.000 persone nel
1970, a 140.000 nel 1991, a 3.000
nel 2007, in gran parte grazie
al miglioramento dei sistemi di
allarme rapido e di preparazione”.
Anche nel caso delle ondate di
calore estive, le previsioni meteo
sono state importanti per tutelare
le persone a rischio, specie gli
anziani, in città. E ancora: “Il
passaggio a fonti di energia pulita
per la casa permetterebbe di
ridurre i cambiamenti climatici,
e di salvare la vita di circa
680.000 bambini l’anno grazie
all’inquinamento atmosferico
ridotto”.
L’Atlante è stato realizzato nella
sessione straordinaria del World
Meteorological Congress di
Ginevra (29-31 ottobre 2012)
dove si è discusso della struttura
e dell’implementazione della
bozza del Global Framework for
Climate Services, lanciato con
l’obiettivo di rafforzare i servizi
climatici per il miglioramento
della società, specialmente
di quella più vulnerabile. La
salute è uno dei quattro settori
prioritari di intervento insieme
a sicurezza alimentare, gestione
dell’acqua e riduzione del
rischio dei disastri.
(Daniela Bertuzzi)
L’
estate del 2012 è stata la
seconda estate più calda dal
1800, secondo le analisi effettuate
dal CNR sul clima italiano (http://
www.isac.cnr.it/~climstor/climate/
latest_season_TMM.html). Il record
di surriscaldamento climatico
nazionale appartiene all’estate del
2003.
Invece, secondo le analisi effettuate
dalla NOAA sul clima globale
(http://www.ncdc.noaa.gov/sotc/
global/2012/8), l’estate del 2012 è
stata la terza estate più calda dal
1880. Il record di surriscaldamento
globale appartiene all’estate
1998 seguita dall’estate del
2010. Tuttavia, se si escludono
le temperature degli oceani e si
analizzano le sole temperature
dei continenti dell’emisfero nord,
l’estate 2012 è la più calda estate
mai verificatasi dal 1880.
Queste anomalie climatiche,
che hanno causato anche siccità
record negli Stati Uniti e in area
mediterranea, sono state causate
principalmente dall’intensificazione
e dall’espansione verso nord degli
anticicloni subtropicali. Si tratta di
eventi rari o eccezionali?
Secondo un recente studio
effettuato da ricercatori americani
(Duke University e Columbia
University) e cinesi (Accademia
Cinese delle Scienze) pubblicato
su “Nature Geoscience” (http://
www.nature.com/ngeo/journal/
vaop/ncurrent/full/ngeo1590.html),
si tratta, in realtà, di una tendenza
in atto causata dal riscaldamento
climatico globale. Lo studio
ha, infatti, rianalizzato i dati di
circolazione atmosferica globale
degli ultimi 40 anni, per valutare in
dettaglio tutti gli scambi di calore
fra basse e alte latitudini e ricavare
le tendenze attuali e la possibile
evoluzione futura, in funzione del
riscaldamento climatico, della
dinamica e della termodinamica
degli anticicloni subtropicali.
I risultati ottenuti mostrano che
gli anticicloni subtropicali, a
causa di questo riscaldamento
climatico globale, tenderanno a
intensificarsi sempre più durante
la stagione estiva. Il fenomeno,
però, interesserà soprattutto quelli
localizzati sugli oceani a ridosso
dei continenti, per il concomitante
rafforzamento della circolazione
termica generata dal contrasto di
temperature fra oceani e continenti.
E con l’intensificazione degli
anticicloni subtropicali, le situazioni
di ondate di caldo eccessivo e
di siccità prolungata nelle aree
prospicienti la fascia subtropicale,
come il sud dell’Europa e la regione
sud-occidentale del nord America,
diventeranno la norma piuttosto che
l’eccezione.
Questi risultati non sono comunque
una novità, come hanno rilevato
i climatologi dell’ENEA, perché
già l’IPCC (http://www.ipcc.
ch/) nel suo quarto “Assessment
Report” del 2007 aveva rilevato
che la grande circolazione
atmosferica globale, dovuta al
diverso riscaldamento tra equatore
e poli e all’effetto della rotazione
terrestre (forza di Corilolis)
era in fase di cambiamento. La
grande circolazione atmosferica
globale è quella che determina
una catena quasi permanente di
alte pressioni “dinamiche” calde,
che oscilla mediamente attorno ai
30° di latitudine, e un’altra catena,
anch’essa quasi permanente, di
basse pressioni “dinamiche” fredde,
che oscilla invece attorno ai 60° di
latitudine. Tra queste due catene di
alte e basse pressioni, alle nostre
latitudini intermedie, corrono veloci
le cosiddette correnti occidentali.
Già allora l’IPCC aveva mostrato che,
con il riscaldamento climatico del
nostro pianeta, le aree intertropicali
e subtropicali più calde saranno
soggette a fenomeni di espansione
verso latitudini più alte, spostando di
conseguenza a più alte latitudini, sia
la catena degli anticicloni dinamici
caldi subtropicali, sia la fascia delle
correnti occidentali delle medie
latitudini.
Ora il recente studio dei ricercatori
americani e cinesi, non solo
conferma le precedenti valutazioni
IPCC, ma chiarisce soprattutto
l’aspetto di interconnessione
fra circolazione atmosferica
globale e le diverse circolazioni
termiche a scala continentale e
sub continentale, generate dalla
differente capacità termica della
superficie terrestre, tra continenti
e oceani e tra mare e terra. Sono
proprio queste circolazioni che
estremizzano, poi, alle latitudini
medio-basse, e in particolare in
area mediterranea, le ondate di
calore e di siccità, così come i
fenomeni termo-convettivi estremi
quali i cicloni extratropicali, i
temporali e le trombe d’aria.
World View
Estati torride? C’è lo zampino degli anticicloni
subtropicali in intensificazione
(Caterina Vinci)
EAI
Energia, Ambiente e Innovazione
6/2012
17
40 milioni di euro nell’innovazione tecnologica
del settore idrico: approvato
il Piano strategico europeo sull’acqua
Lo scorso 18 dicembre è stato
compiuto un passo importante nella
ricerca di soluzioni per le grandi
sfide poste all’Europa in materia
di gestione dell’acqua. Sotto la
presidenza del Commissario
per l’ambiente Janez Potocnik,
il Partenariato europeo per
l’innovazione (PEI), meglio
conosciuto come European
Innovation Partership (EIP) relativo
all’acqua ha, infatti, adottato il Piano
strategico di attuazione (SIP) che
definisce gli ambiti d’intervento
prioritari per i quali occorre trovare
soluzioni. Una dotazione di 40
milioni di euro per attività di ricerca
sarà destinata nel 2013 al sostegno
di progetti che contribuiscono agli
obiettivi del PEI relativo all’acqua.
Il PEI è una nuova iniziativa
strategica che l’UE ha lanciato per
sostenere sempre più lo sviluppo
sostenibile, creando nel contempo
più e nuovi lavori, costruire una
società più verde e migliorare in
generale la qualità della vita dei
cittadini europei, mantenendo la
competitività delle aziende europee
nel mercato globale. Il suo scopo
principale è quello di creare un
nuovo modo di collaborazione tra il
settore pubblico e privato al fine di
stimolare l’innovazione tecnologica
e gestionale.
Esistono, e verranno creati, diversi
Partenariati nei vari settori, tra cui
quello dell’acqua, con l’obiettivo
18
EAI
Energia, Ambiente e Innovazione
6/2012
di indirizzare le attività di ricerca
in un dato settore concentrandosi
sui vantaggi per la società e sulla
sua rapida modernizzazione, allo
scopo di rinnovare i rispettivi
mercati. Inoltre, il Partenariato ha
lo scopo di snellire, semplificare e
coordinare meglio gli strumenti e le
iniziative esistenti e integrarle con
nuove azioni se necessario. Questo
dovrebbe rendere più facile per i
partner di co-operare e ottenere
risultati migliori e in tempi più
brevi.
Nel maggio 2012, la Commissione
Europea ha avviato la European
Innovation Partnership on Water per
facilitare lo sviluppo di soluzioni
innovative e affrontare le grandi
sfide sociali, come l’acqua, e
allo stesso tempo creare nuove
opportunità di mercato per tali
soluzioni. Essa raccoglie istituzioni
nazionali e locali, imprese,
mondo accademico e tutte le
parti interessate a collaborare
e a sviluppare innovazioni
multidisciplinari a livello europeo
ed extraeuropeo.
Le priorità individuate riguardano
sfide e opportunità nel settore
dell’acqua nonché le azioni
innovative che consentiranno
di ottenere l’impatto più
rilevante. La governance
dell’acqua, i modelli di gestione
e monitoraggio, il finanziamento
a favore dell’innovazione sono
stati individuati come priorità
trasversali che incidono sulle
condizioni generali, promuovono
i collegamenti tra i diversi ambiti
d’intervento prioritari e fungono
da catalizzatori per tutte le altre
azioni. Le tecnologie intelligenti
costituiscono un altro fattore di
sviluppo fra tutte le priorità.
È stato aperto un invito a presentare
proposte che si chiuderà il
4 aprile 2013 (http://cordis.
europa.eu/fetch?CALLER=FP7_
NEWS&ACTION=D&RCN=34831).
Per le parti interessate è inoltre
aperto un invito alla manifestazione
d’impegno per i gruppi d’azione
del PEI relativo all’acqua: http://
ec.europa.eu/environment/water/
innovationpartnership/index_en.htm
Janez Potocnik, Commissario
europeo per l’ambiente, ha
dichiarato in proposito: “Occorre
innovazione per risolvere le sfide
in materia di acqua e contribuire a
realizzare gli obiettivi del Piano per
la salvaguardia delle risorse idriche
europee recentemente adottato.
Il Partenariato per l’innovazione
relativo all’acqua riunisce i soggetti
privati e pubblici in grado di
fornire idee al mercato. La messa
in opera del Piano strategico di
attuazione non si limiterà a garantire
una quantità sufficiente di acqua
di buona qualità per soddisfare
le esigenze della popolazione,
dell’economia e dell’ambiente,
ma servirà a rafforzare il settore
idrico europeo sui mercati globali,
le cui dimensioni sono destinate a
raddoppiare entro il 2030”.
(Roberto Farina, Daniela Bertuzzi)
Come diceva Einstein, non si
possono risolvere i problemi
usando la stessa mentalità e gli
stessi metodi che li hanno generati.
Pertanto, per trovare soluzioni
sostenibili ai diversi problemi
di sviluppo insostenibile, che
sono presenti nella vita di oggi
(dall’inquinamento dell’aria,
ai cambiamenti climatici, alla
distruzione della biodiversità),
occorre utilizzare una diversa
mentalità e altri metodi. È
necessario cambiare!
La proposta provocatoria di un
gruppo di ricercatori francesi e
canadesi, coordinati dal “Centre
for Sustainable Enterprise”
dell’Università Concordia di
Montreal in Canada, è quella di
utilizzare l’arte come il metodo
più idoneo ed efficace per
raggiungere lo sviluppo sostenibile
(http://www.concordia.ca/now/
media-relations/communiquesde-presse/20121019/lart-dudeveloppement-durable.php)
L’arte, che suscita sensazioni,
emozioni e sentimenti, è ritenuta
quindi lo strumento più efficace
per aumentare in noi la passione
verso il pianeta che ci permette
la vita. E l’arte, per queste sue
caratteristiche, può essere
considerata la soluzione più idonea
per accendere in noi il desiderio,
sia di vivere in armonia con la
natura, sia di procedere con uno
sviluppo che sia sostenibile per il
nostro pianeta.
L’arte, in questo caso viene intesa
in tutti i suoi multiformi aspetti, che
vanno dalle grandi manifestazioni
artistiche (dalla poesia, alla pittura,
dalla musica alla danza ecc.), al
contributo individuale fino a tutti
gli aspetti della vita quotidiana.
La passione, che dovrebbe poi
sovraintendere ogni gesto, è
in grado di sollecitare in ogni
essere umano tutte le sue capacità
creative e di innovazione che
comprendono, oltre l’ambito delle
sue attività domestiche e del lavoro,
i suoi rapporti sociali, le iniziative
produttive e tutte le azioni di vita
quotidiana. Una tale condivisione
responsabile permetterebbe agli
esseri umani di unire gli sforzi, ma
anche di integrarsi profondamente
nell’ambiente naturale del pianeta
di cui sono parte essenziale.
I nostri lontani antenati, con le
scarse conoscenze e le poche
tecnologie disponibili in quei
tempi, avevano sviluppato l’arte
della sopravvivenza, quella che
ha permesso loro di continuare a
vivere ed evolversi fino all’uomo
moderno dei nostri giorni. L’arte
della sopravvivenza veniva
tramandata attraverso favole, storie
mitologiche, musiche e danze
tribali, canti e poemi fantastici,
cioè tutte manifestazioni artistiche
ricche di significati, di riflessioni
e di insegnamenti indiretti, utili
per sviluppare istintivamente
meccanismi di difesa contro
gli animali feroci e i possibili
predatori, contro le incognite e
le insidie della vita e, non ultimo,
contro i rischi delle catastrofi
naturali.
Analogamente, lo sviluppo
sostenibile deve diventare
un meccanismo istintivo di
difesa dell’uomo moderno. Un
meccanismo che rappresenti
anche uno stimolo alle azioni più
opportune da intraprendere per
garantire la sopravvivenza delle
future generazioni. Scienza e
tecnologia, insomma, non possono
essere estranee né separate dalle
complesse caratteristiche della
personalità umana.
La proposta di “arte dello sviluppo
sostenibile”, frutto della ricerca
franco-canadese, sarà pubblicata
sulla rivista International Journal of
Technology Management.
World View
Arte e scienza,
un binomio per lo sviluppo sostenibile
(Caterina Vinci)
EAI
Energia, Ambiente e Innovazione
6/2012
19
Focus
COLLASSO DEI MAYA
Si può scientificamente provare il
crollo di una civiltà? Il caso dei Maya
Sul fascicolo del 9 novembre 2012 della rivista Science (vol. 338, n. 6108, pp. 788-791,
doi: 10.1126/science1226299) è apparso un articolo sui risultati di una ricerca che ricostruisce
in modo dettagliato il clima centro-americano tra 1000 e 2000 anni fa. Secondo gli autori della
ricerca i dati acquisiti dimostrano una stretta correlazione fra collasso della civiltà dei Maya e
cambiamento brusco del clima. Sull’improvvisa scomparsa della civiltà Maya abbiamo chiesto un
commento ad una archeologa e divulgatrice scientifica
n Stefania Bove
L’
improvviso crollo della civiltà Maya è uno dei
misteri archeologici dei tempi nostri ed è molto
dibattuto dagli studiosi. Vi sono varie teorie che spiegano il collasso, alcune si riferiscono a un’esplosione
demografica, altre al degrado ambientale o alla deforestazione, ma la più popolare sostiene che a causare la fine dei Maya fu un lungo periodo di siccità, che
avrebbe innescato un peggioramento e inasprimento
dei conflitti sociali e infine il crollo. La conferma di ciò
viene da uno studio coordinato da Dougla Kennet, della
Pennsylvania State University, e Sebastian Breitenbach
del Politecnico di Zurigo, pubblicata sulla rivista Science. Gli studiosi hanno ricostruito i dati sulle precipitazioni nel corso dei secoli, grazie ai campioni raccolti da
stalagmiti nella Grotta di Yok Balum, nel sud del Belize.
I risultati sono stati poi confrontati con le vicende storiche scolpite sui monumenti. Essi sostengono che:
“Una quantità insolitamente elevata di precipitazioni abbia favorito un’esplosione della popolazione tra il 450
e il 660 d.C. che avrebbe portato alla proliferazione di
città come Tikal, Copan e Caracol. A questo periodo
prospero sarebbe seguito un periodo con una generale
tendenza alla siccità durato ben quattro secoli, che ha inn Stefania Bove
Archeologa e paletnologa, divulgatrice scientifica,
autrice testi RAI
20
EAI
Energia, Ambiente e Innovazione
6/2012
nescato un calo della produttività agricola contribuendo
alla frammentazione sociale e al disordine politico dei
centri maya. Infine una siccità più grave si è verificata tra
il 1000 e il 1100 d.C. quando i centri maya erano già in
forte declino. Nei secoli successivi, le città subirono un
calo nel numero degli abitanti e i re maya persero il loro
potere e la loro influenza”.
Il punto è perché le variazioni di precipitazioni avrebbero innescato tutta quella serie di problemi?
Per capire ciò dobbiamo ricostruire l’ambiente in cui
si è sviluppata la civiltà maya. Oggi chiunque visiti i
siti archeologici sparsi tra lo Yucatan (Messico), il Belize e il Guatemala si accorge della giungla impenetrabile in cui si trovano gli imponenti resti delle città
maya, ma non è sempre stato così, anzi l’ambiente era
completamente diverso. Intanto dobbiamo fare una distinzione fra nord e sud della regione, e sulla diversa
disponibilità di risorse idriche; poi sul tipo di sfruttamento agricolo e sul clima.
Per secoli sembra che in questi territori ci sia stato un equilibrio, tanto da determinare il fiorire della
civiltà e la nascita e lo sviluppo di centri importanti
che furono abitati anche da migliaia di persone. Ma
c’era una grande differenza fra il nord e il sud della penisola dello Yucatan a causa delle precipitazioni,
decisamente più intense a sud (si stima che a nord la
media delle precipitazioni sia stata di 457 millimetri
che. Si conoscono, infatti, moltissimi bacini artificiali
di raccolta dell’acqua piovana in città, riserve d’acqua che potevano però soddisfare i bisogni urbani al
massimo per due anni. Questo ci lascia quanto meno
un po’ perplessi: non erano a conoscenza dei rischi
derivanti dalla siccità?
È evidente che questo precario equilibrio idrico possa
essere stato messo in crisi a causa di una prolungata
siccità e che questo abbia innescato una serie di problemi relativi alla produzione agricola e agli equilibri
sociali, scatenando conflitti e abbandoni. Quando il
raccolto non dava i frutti previsti ad essere messo in
discussione era il re, perché tra questi e i contadini
esisteva una specie di “accordo”: questi ultimi garantivano l’approvvigionamento, la costruzione dei palazzi,
insomma l’agiatezza e il lusso della corte, e il re prometteva loro pace e abbondanti raccolti. Se questi non
avvenivano era ritenuto direttamente responsabile.
Analizzando le vicende delle città maya ci si accorge
che sviluppo e declino dei vari centri non avvenne nel
medesimo periodo ma in epoche diverse. Copàn è una
delle città più studiate: tra il 750 e l’800 d.C. raggiunse
l’apogeo ma un’insensata deforestazione innescò i fe-
EAI
Energia, Ambiente e Innovazione
6/2012
Focus
all’anno mentre al sud arrivava a 2.540 millimetri); qui
si concentrano anche i suoli più ricchi e profondi, che
determinarono un maggiore sviluppo della produzione agricola ed un’esplosione demografica superiore a
quella della nord.
Ma, perché la siccità comprovata dagli studiosi avrebbe fatto più danni nel sud piovoso che nel nord più
asciutto? C’è voluto molto per capire questo e la spiegazione probabile è l’esistenza di una lunga falda di
acqua dolce che scorre sottoterra lungo tutta la penisola, unitamente ad un diverso spessore del terreno
che aumenta da nord a sud. Nella parte settentrionale
la superficie del suolo non è molto distante dalla falda,
mentre a sud lo è e poteva essere raggiunta solo attraverso la creazione di pozzi. Nei periodi di maggiori
precipitazioni la disponibilità di acqua e la capacità di
approvvigionamento della stessa erano in equilibrio
ma nei periodi di siccità, nelle città meridionali, asciugandosi i pozzi, sarebbe stato impossibile raggiungere
la falda di acqua dolce. Una situazione resa ancor più
critica dal fenomeno carsico diffuso un po’ in tutta la
penisola dello Yucatan.
I Maya avevano presente la gestione delle risorse idri-
21
nomeni di siccità nel fondovalle, che
causarono una grave crisi agricola,
con una contrazione della disponibilità di terra da coltivare, ed una inevitabile e durissima lotta contro i re,
il cui palazzo venne bruciato intorno
all’850 d.C. La popolazione sopravvisse a quegli eventi, per scomparire
qualche secolo dopo, nel 1250. Anche Chichèn Itzà cadde nello stesso
periodo, Mayapàn nel 1450. Invece il
crollo della grande Tikal si ebbe tra il
VI e il VII secolo.
Questi dati farebbero emergere un
quadro del declino della civiltà maya
forse meno enigmatico di quello che si
vuol far apparire (in ambiti più “umanistici” s’intende!). Sembra piuttosto
che ci sia stata una diversa occupazione dei territori e che gli “spostamenti”
della popolazione siano stati determinati da vari fattori come un uso indiscriminato delle risorse naturali che
hanno provocato intense deforestazioni e impoverimento dei suoli. A rendere ancora più critica questa situazione
è stato il sopraggiungere di periodi di
siccità, scientificamente provati (ricordiamo anche gli studi di Mark Brenner e David Hodell
dell’Università della Florida che hanno studiato a lungo
i sedimenti depositati sul fondo di alcuni fiumi).
Di tutt’altro parere sembrano essere gli archeologi
della Brigham Young University di Provo nello Utah.
Per anni, i ricercatori hanno scavato e studiato una città perduta, Piedras Negras, in Guatemala; dimostrando
che questo centro si disintegrò intorno all’anno 1000
(alla fine di un periodo di grande siccità) ma il declino non dipese dal cambiamento climatico, perché la
città si trovava lungo un fiume che non si è mai prosciugato, che avrebbe potuto garantire sufficiente approvvigionamento idrico. In questo caso le lotte per la
sovranità e la crisi dell’establishment, sarebbero stati
determinanti. In realtà, la società maya era molto bellicosa e le città erano in perenne lotta fra loro. I Maya
non costruirono mai un impero come fecero gli Inca,
22
EAI
Energia, Ambiente e Innovazione
6/2012
anche se per poco tempo, o come gli
Aztechi, che dominarono il Messico.
Forse il destino di Piedras Nigras andrebbe letto in relazione ai rapporti
con le città vicine.
In definitiva in una situazione politicosociale così delicata non sorprende
che i periodi più intensi di siccità,
avvenuti tra il 760 e il 910, abbiano
determinato la scomparsa di molti
centri, risparmiando quelli dotati di
riserve e pozzi. Stiamo parlando soprattutto delle pianure meridionali,
dove la siccità si fece sentire maggiormente e che si spopolarono già
alla fine dell’età classica.
Tuttavia la scomparsa dei centri non
vuol dire scomparsa della popolazione. Quando gli europei arrivarono
nello Yucatan agli inizi del 1500 (il primo contatto ci fu nel 1502), vi trovarono i discendenti dei Maya e la conquista definitiva di quei territori avvenne
solo nel 1697.
È ipotizzabile che a partire dal 900
molte popolazioni si siano trasferite nel nord dello Yucatan, quello che
meno di tutti risentì dei periodi di siccità, dando vita a nuovi insediamenti. Questa migrazione deve essere avvenuta lentamente e deve essere
stata preceduta da lotte che hanno decimato la popolazione e da un generale crollo demografico dovuto ad
un equilibrio molto precario di tutto il sistema.
In conclusione c’è da chiedersi se i Maya avevano la
percezione dei rischi che stavano correndo e un’idea
di come poter affrontare la situazione. La loro vicenda
può insegnarci qualcosa? Forse rispetto a loro siamo
più consapevoli dei rischi derivanti da un eccessivo
sfruttamento delle risorse disponibili sulla Terra. Di
fatto, però, non conosciamo il processo che portò al
declino di questa civiltà e non conosciamo nemmeno
i rimedi che ebbero un qualche successo nel passato.
Continuare a studiare per cercare di capire potrebbe
insegnarci qualcosa da questo passato; starà a noi cerl
care di trarne una lezione per il futuro. Focus
BIOMETANO
Una opportunità di sviluppo
della green economy in Italia
L’Italia cambia rotta sulla promozione dei combustibili alternativi: meno spazio ai biocarburanti
di prima generazione a favore di quelli di seconda e, soprattutto, sostegno al biometano (gas
prodotto dalla digestione anaerobica di sostanze organiche). Questo gas potrebbe avere
un grande potenziale nel nostro Paese data la grande presenza di allevamenti, imprese di
trasformazione alimentari e discariche. Il biometano, inoltre, presenta il vantaggio di essere
commercializzabile attraverso la rete di distribuzione del gas naturale, a differenza dei
biocarburanti di importazione. L’Italia, insomma, ha ora davanti a sé una strada chiara da
percorrere per favorire la diffusione delle rinnovabili nei trasporti. Qui di seguito, i chiarimenti di
un esperto del Governo
n Alessio Borriello
L’
attivazione della filiera agro-energetica del
biometano si presenta come una opportunità da
perseguire con forza nell’ottica dello sviluppo della
green economy nel nostro Paese. Ormai da quasi
10 anni, la legislazione europea impone agli Stati
membri che sia immessa sul mercato una percentuale minima di biocarburanti e di altri carburanti
rinnovabili. La logica alla base dell’adozione della
direttiva 2003/30/CE muoveva da almeno due considerazioni: da un lato, che “l’energia impiegata dal
settore dei trasporti rappresenta[va] oltre il 30% del
consumo finale di energia nella Comunità”, stimando un’ulteriore crescita del 50% negli anni successivi; dall’altro la disponibilità di “un’ampia gamma di
biomassa che potrebbe essere usata per produrre
biocarburanti”.
In realtà, l’uso della biomassa per la produzione di
biocarburanti ha, negli anni successivi, subito alcuni
attacchi (e la crescita del consumo di energia nei
trasporti è stata ridimensionata). Prima di tutto, si è
imputato alla quota d’obbligo di biocarburanti l’effetto paradossale di aver incentivato la distruzione
di aree naturali al fine di potervi coltivare piante
destinate alla produzione dei biocarburanti medesimo; inoltre, posto che poteva essere più remunerati-
vo destinare determinate tipologie di granaglie alla
produzione di biodiesel piuttosto che al consumo
umano, si è attribuito ai nuovi utilizzi a fini energetici la responsabilità, almeno parziale, di alcune ondate di rincari di alcune derrate alimentari di base.
Tanto è vero che la direttiva 2009/28/CE, di modifica della 2003/30, si preoccupava di osservare nelle
premesse che “l’aumento della domanda mondiale
di biocarburanti e gli incentivi all’uso dei biocarburanti previsti dalla presente direttiva non dovrebbero avere l’effetto di incoraggiare la distruzione di
terreni ricchi di biodiversità.”
In Italia, il decreto legislativo 3 marzo 2011, n. 28,
che recepisce la direttiva europea 2009/28, oltre a
stabilire che la quota minima di energia da fonti
rinnovabili in tutte le forme di trasporto sia pari al
10% sul consumo finale di energia nel settore dei
trasporti al 2020, equipara anche il biometano agli
altri biocarburanti, promuovendone l’uso nel settore
trasporti.
n Alessio Borriello
Ministero Ambiente, Segreteria Tecnica Sottosegretario di Stato
EAI
Energia, Ambiente e Innovazione
6/2012
23
Focus
In effetti, a ben vedere, il metano è già da tempo,
almeno in alcune aree del paese, un diffuso combustibile alternativo a benzina e gasolio e il biometano potrebbe immediatamente affiancarsi ad esso. La
sola sostituzione diretta al consumo di metano per
autotrazione con biometano costituirebbe già un
passo significativo nel raggiungimento della quota
d’obbligo del 10%. Per di più, ciò potrebbe avvenire senza la necessità di importare materia prima
da altri Stati (e limitando quindi le distorsioni che
potrebbero determinarsi in altri settori e territori),
ma anzi mettendo a frutto le potenzialità – spesso
inespresse – del territorio nazionale.
Per la sua conformazione geomorfologica e la sua
antropizzazione, infatti, il nostro paese non è vocato alla produzione di una quantità significativa
di biocarburanti di origine vegetale ed è costretto
ad importare materia prima da trasformare, se non
addirittura prodotti finiti, con dubbio beneficio ambientale, scarso impatto industriale ed occupazionale ed impatto negativo sulla fattura energetica.
Al contrario, l’Italia può estrarre consistenti quantità
di biometano da allevamenti, imprese di trasformazione alimentare, discariche. Anche senza prendere
in considerazione il potenziale massimo teorico del
paese (che alcuni collocano oltre gli otto miliardi di
metri cubi/anno), è certamente possibile incrementare significativamente la produzione attuale che già
si attesta attorno al miliardo di metri cubi. L’utilizzo
del biometano per soddisfare, anche parzialmente,
la quota d’obbligo del 10% determinerebbe quindi vantaggi per il sistema paese dal punto di vista
fiscale, industriale e occupazionale, realizzando anche risparmi economici per via del costo minore rispetto ad altri biocarburanti.
Una ulteriore vantaggiosa precondizione caratterizza poi il nostro paese in relazione all’uso del
biometano per autotrazione: esso potrebbe infatti
essere commercializzato direttamente attraverso la
rete di distribuzione del gas naturale ad un prezzo
industriale competitivo rispetto ai biocarburanti di
importazione, anche includendo il margine per gli
operatori e tenendo conto degli oneri di compressione e immissione (questi ultimi stimabili sui costi
dello stesso servizio in Germania, mentre in Italia
24
EAI
Energia, Ambiente e Innovazione
6/2012
la determinazione dovrà assoggettarsi alle prescrizioni dell’Autorità per l’energia elettrica e il gas).
Per ottenere questo risultato occorrerebbe solo un
periodo iniziale e transitorio di incentivazione (comunque meno gravosa di quella già riconosciuta
alla produzione elettrica da biogas), oltre che, naturalmente, un assetto regolamentare definito.
Peraltro, questa commercializzazione potrebbe benissimo avvenire su base contrattuale e non fisica.
Così come oggi l’utilizzo di energia elettrica da fonte rinnovabile comporta la stipula di un contratto
con il produttore, ma non implica necessariamente
che gli elettroni siano quelli prodotti dall’impianto
rinnovabile, anche per il biometano dovrebbero essere resi possibile l’immissione in rete ed il ritiro in
punti di riconsegna diversi: quindi su base contrattuale, appunto, e non fisica. Infatti, come gli elettroni
prodotti da fonti rinnovabili sono indistinguibili da
quelli generati in altro modo, allo stesso modo una
molecola di CH4 non cambia la sua natura in funzione della sua origine. Va poi sottolineato, oltre alla
elevata land efficiency (energia producibile per unità di superficie agricola), anche il fatto che la relativa filiera tecnologica è già sviluppata interamente,
dalla produzione alla immissione in rete.
raltro, l’Italia parte avvantaggiata, avendone già la
leadership europea e potendo quindi, con maggiore
credibilità, puntare ad un posto di primo piano anche su altri mercati.
Meno immediato, ma non impraticabile, è poi la
crescita dell’utilizzo del metano, e in prospettiva
del biometano, nel settore dei trasporti attraverso
le nuove tecnologie del settore della raffinazione.
In questo campo, sono particolarmente interessanti quelle che consentono l’utilizzo di metano,
in misura più o meno rilevante, per la produzione
di carburanti quali, ad esempio, la tecnologia EST
(Eni Slurry Technology) o GTL (gas to liquids). Nel
primo caso, si tratta di produzioni assai avanzate
e che potranno determinare significativi vantaggi
competitivi in maniera ambientalmente compatibile. Nel secondo caso, si producono combustibili di qualità ambientale (e tecnologica) particolarmente elevata per l’assenza, nel metano,
delle tipiche impurità dei prodotti petroliferi. I
suddetti vantaggi determinati dall’uso del metano in raffinazione potrebbero aumentare ancora
se si creassero le condizioni (anche contrattuali, sfruttando ancora una volta le reti di trasporto
e distribuzione del gas) per l’utilizzo allo stesso
fine del biometano.
La filiera del biometano, insomma, sfrutta materie
prime, tecnologie e capitale umano interamente
nazionali. Ciò attribuisce a questo prodotto una valenza assai alta, in quanto capace di conseguire diversi importanti risultati per il sistema paese: quello
ambientale, attraverso la riduzione nel consumo di
combustibili fossili e quindi la riduzione di emissioni di gas climalteranti e inquinanti; quello industriale, attraverso la crescita di una tecnologia nazionale
che potrà, in prospettiva, essere efficacemente diffusa in molti altri paesi; quello della bilancia dei pagamenti, in cui il peso dell’import potrà essere ridotto,
almeno per quanto riguarda le necessità legate al
raggiungimento della quota d’obbligo sui biocombustibili.
L’attivazione della filiera agro-energetica del biometano si presenta dunque come una opportunità
da perseguire con forza nell’ottica dello sviluppo
l
della green economy nel nostro Paese.
EAI
Energia, Ambiente e Innovazione
6/2012
Focus
Un’attenzione particolare merita poi il fatto che il
metano può contribuire in maniera non minore alla
decarbonizzazione del sistema dei trasporti. L’impatto della riconversione a metano di una parte del
parco auto nazionale, oltre a costituire un vantaggio assoluto in termini ambientali (come è noto, la
combustione del metano determina emissioni radicalmente più basse rispetto a quella dei prodotti
petroliferi) potrebbe offrire opportunità interessanti
anche all’industria dell’auto in termini di progettazione, produzione e commercializzazione di nuovi
modelli alimentati a gas; segmento nel quale, pe-
25
Focus
CAMBIAMENTI CLIMATICI
Politiche e misure di mitigazione e
adattamento ai cambiamenti climatici:
cosa è stato deciso nella Conferenza
mondiale di Doha
Prolungato al 2020 il periodo di validità del Protocollo di Kyoto, un Gruppo ad hoc elaborerà il nuovo
strumento legale per la riduzione delle emissioni di gas serra che entrerà in vigore dopo il 2020.
Queste e altre decisioni prese nella Conferenza delle Parti firmatarie della Convenzione sui
Cambiamenti Climatici e del Protocollo di Kyoto, tenutasi nel dicembre scorso a Doha (Qatar),
vengono qui illustrate dai ricercatori ENEA che vi hanno partecipato
n Natale Massimo Caminiti, Sergio La Motta
D
al 26 novembre all’8 dicembre 2012 ha avuto luogo a Doha la 18° sessione della Conferenza delle
Parti firmatarie della Convenzione sui Cambiamenti
Climatici e la 8° sessione della Conferenza delle Parti
firmatarie del Protocollo di Kyoto. Obiettivo del meeting era quello di definire il futuro del Protocollo di
Kyoto, di portare a conclusione il gruppo di lavoro sulla “Long Term Cooperative Action” istituito a Bali nel
20071 e di accordarsi sul piano di lavoro del gruppo
“Ad Hoc sulla Piattaforma di Durban” istituito a Durban nel 20112.
Un risultato della Conferenza di Doha è stato quello di
decidere di dare continuità al Protocollo di Kyoto accordandosi per obiettivi di riduzione delle emissioni
dei gas ad effetto serra per il periodo fino al 2020. Il
Protocollo di Kyoto rimane, quindi, al momento, l’unico
strumento legale che vincola alcuni Paesi industrializzati a impegni di riduzione delle emissioni. Tale strumento, sebbene la sua architettura generale possa
n Natale Massimo Caminiti, Sergio La Motta
ENEA, Unità Tecnica Modellistica Energetica Ambientale
costituire un modello per accordi futuri, non risulta
tuttavia in grado di assicurare la stabilizzazione delle
concentrazioni in atmosfera dei gas ad effetto serra a
livelli tali da contenere l’aumento della temperatura
media del pianeta entro i 2 gradi centigradi come auspicato dagli accordi di Copenhagen3, visto che i Paesi
industrializzati che si sono impegnati a ridurre le proprie emissioni, ovvero Unione Europea più pochi altri
Paesi4, rappresentano soltanto il 15% delle emissioni
mondiali. I profili di emissione compatibili con l’obiettivo dei 2 °C richiederebbero ben altri impegni: si dovrebbe, infatti, arrivare al picco delle emissioni mondiali entro questo decennio e bisognerebbe dimezzare
tali emissioni entro il 20505. Purtroppo le conclusioni
di Doha rendono questo obiettivo molto più difficile
da raggiungere; le speranze a questo punto sono affidate ai lavori del Gruppo ad Hoc sulla Piattaforma di
Durban incaricato di arrivare ad un accordo entro il
2015 per un Protocollo che abbia un valore legalmente
vincolante a partire dal 2020.
Le conclusioni relative al Protocollo di Kyoto
A Doha si è deciso di prolungare il periodo di validità
26
EAI
Energia, Ambiente e Innovazione
6/2012
al CDM che alla JI mentre i Paesi che non assumono
impegni di riduzione delle emissioni al 2020 non possono utilizzare i crediti derivanti dalla partecipazione
a tali meccanismi nella contabilità delle loro emissioni.
Si tratta chiaramente di un tentativo di incentivare i Paesi industrializzati che non hanno assunto obblighi di
emissioni, ad assumerne.
Per quanto riguarda la gestione dei surplus di riduzione delle emissioni, si è deciso che i Paesi che hanno accettato di assumere impegni di riduzione delle
emissioni per il secondo periodo possono istituire nel
loro registro delle emissioni una riserva per i surplus
relativi al primo periodo. Gli eventuali surplus possono essere utilizzati per ottemperare agli obiettivi del
secondo periodo. Un Paese con obblighi di riduzione
per il secondo periodo può acquistare unità di riduzione delle emissioni dai surplus di altri Paesi fino a un
limite del 2% delle sue emissioni consentite nel primo periodo. Questa decisione, quindi, è un ulteriore
incentivo per i Paesi, soprattutto quelli ad economia in
transizione, ad assumere impegni di riduzione delle
emissioni per il secondo periodo.
Focus
del Protocollo di Kyoto fino al 2020; questa decisione
si presenta, nella sua forma legale, come un emendamento al Protocollo stesso così come previsto dagli
articoli 20 e 21 del Protocollo stesso ed è contenuto
nel documento FCCC/KP/CMP/2012/L.9, scaricabile
dal sito del Segretariato ONU del Clima.
Nel documento di cui sopra viene definito il nuovo
assetto del Protocollo di Kyoto con modifiche che riguardano il periodo di validità, portato al 2020, i nuovi
obiettivi quantificati di riduzione delle emissioni per
i Paesi che, volontariamente, hanno accettato di assumerne, le nuove regole per il funzionamento dei meccanismi flessibili, ovvero la Joint Implementation (JI) e
il Clean Development Mechanism (CDM) e, infine, le
regole che definiscono l’uso dei surplus delle quote
di riduzione relative al primo periodo di vigenza del
Protocollo e dovute alle crisi economiche dei Paesi ad
economia in transizione, surplus che alcuni Paesi definiscono “hot air” evidenziandone la natura estemporanea, non dovuta a precise politiche climatiche ma a
contingenze economiche.
Il secondo periodo di validità del Protocollo è stato
definito come segue: inizio al 1 gennaio 2013 e fine al
31 dicembre 2020; viene quindi accettata la posizione
europea che spingeva verso un secondo periodo di
validità abbastanza lungo, in modo da assicurare una
maggiore stabilità di regole ai possibili investitori, rispetto a quello proposto dai Paesi in via di sviluppo
che avrebbero preferito un secondo periodo di validità con scadenza al 2017 in modo da non precludere,
secondo la loro visione, un accordo più ampio nell’ambito del Gruppo ad Hoc della Piattaforma di Durban.
Per quanto riguarda gli obiettivi di riduzione, l’Unione
Europea ha assunto ufficialmente l’impegno di riduzione al 2020 del 20% rispetto ai livelli del 1990 coerentemente con tutta la sua strategia nota come 20-20-20
e ha reiterato la propria intenzione di aumentare l’impegno di riduzione al 30% nel caso che gli altri Paesi
industrializzati assumessero impegni analoghi. Il Canada ha deciso di ritirarsi dal Protocollo, il Giappone
e la Federazione Russa hanno deciso di non assumere
impegni di riduzione al 2020, gli Stati Uniti continuano
a non fare parte dei Paesi firmatari il Protocollo.
Per i meccanismi flessibili si è deciso che i Paesi firmatari del Protocollo abbiano diritto a partecipare sia
Long Term Cooperative Action
Il gruppo di lavoro sulla “Long Term Cooperative Action” si è concluso con risultati davvero modesti se
confrontati con il mandato derivante dalla Conferenza
di Bali, il cosiddetto ”Piano di Azione di Bali”. Molte
delle tematiche più rilevanti sono state rinviate ai lavori futuri degli organismi sussidiari della Convenzione; in particolare, il gruppo di lavoro per assicurare il
finanziamento sul lungo periodo delle azioni di mitigazione e adattamento dei Paesi in via di sviluppo è
stato prorogato di un anno, fino alla fine del 2013, con
lo scopo di individuare meccanismi che possano assicurare la possibilità da parte dei Paesi industrializzati
di contribuire, con fondi privati o pubblici, al meccanismo di finanziamento di lungo periodo per un totale
di 100 miliardi di euro all’anno entro il 20206.
Il Gruppo ad hoc sulla Piattaforma di Durban
Il Gruppo ad Hoc sulla Piattaforma di Durban (ADP) è
stato istituito con una decisione della COP17 (Durban
EAI
Energia, Ambiente e Innovazione
6/2012
27
Focus
2011) con il compito di elaborare un Protocollo o altro
strumento legale applicabile a tutte le Parti firmatarie
della Convenzione; tale lavoro deve essere finalizzato
il più presto possibile e comunque non oltre il 2015 in
modo da poter sottoporre la bozza di Protocollo per la
sua approvazione in occasione della COP21 che avrà
luogo nel dicembre 2015.
L’ADP è nella fase di pianificazione del proprio lavoro
che è stato diviso in due grandi filoni.
Il primo filone o “workstream 1” riguarda l’avvio del
processo per arrivare a definire una bozza di un Protocollo o un altro strumento legale da approvare entro il
2015, contenente impegni per tutti i Paesi a partire dal
2020. Tali impegni dovranno coprire i temi della mitigazione, dell’adattamento, della copertura finanziaria
per le azioni di cooperazione, lo sviluppo e il trasferimento delle tecnologie e la capacity building.
Il secondo filone o “workstream 2” riguarda l’elaborazione di un piano di lavoro per sviluppare le ipotesi
di aumento delle ambizioni di mitigazione di ciascun
Paese, di identificare ed esplorare le azioni che possono chiudere il gap con la prospettiva di assicurare
il maggior sforzo possibile di mitigazione per i Paesi
sviluppati.
È stato approvato un piano di lavoro che affronta i due
filoni di attività durante riunioni, workshop e tavole rotonde per tutto il 2013 e il 20147; è stato inoltre deciso
che l’ADP dovrà presentare entro il 2014, in occasione
della COP20, una bozza di Protocollo o altro strumento
legale in modo da rendere disponibile un testo negoziale entro la COP21 come da mandato di Durban8.
luppo riducano sostanzialmente i loro trend emissivi.
Che cosa fare a livello globale è quindi molto chiaro,
le difficoltà sorgono quando bisogna decidere il livello
di impegno di ciascun Paese; in questo caso tendono
a prevalere gli interessi di ciascuna delle Parti che,
interpretando in maniera strumentale il principio “responsabilità comuni ma differenziate”, pregiudicano il
raggiungimento di un accordo appropriato a gestire
il cambiamento climatico. Questo stato di incertezza
normativa disincentiva gli investimenti nel campo della mitigazione dei cambiamenti climatici e può portare, soprattutto nel caso dei Paesi in via di sviluppo,
al fenomeno cosiddetto del “lock in” ovvero i capitali
internazionali vanno o continuano a finanziare tecnologie non climaticamente sostenibili, a tempi di ritorno
molto lunghi, rischiando di bloccare (lock in) qualsiasi
sforzo futuro teso alla riduzione delle emissioni di gas
clima alteranti.9
Sarà compito della Comunità scientifica, dunque, aiutare la politica a trovare le migliori soluzioni, chiarendo sempre di più il quadro del funzionamento del sistema clima, riducendo le incertezze delle valutazioni
e indicando strumenti di mitigazione delle emissioni a
costi sopportabili, aiutando al contempo a identificare
e superare le barriere per la loro implementazione. La
strada per il raggiungimento dell’obiettivo dei 2 °C,
l
anche se molto in salita, è ancora aperta. A Doha la comunità internazionale ha sperimentato
ancora una volta la difficoltà di gestire adeguatamente
la problematica dei cambiamenti climatici. I termini
del problema sono stati definiti dall’Intergovernmental Panel for Climate Change (IPCC), nel suo rapporto
scientifico del 2007; in tale rapporto, l’IPCC ha affermato che, per limitare l’aumento della temperatura
media del pianeta a 2 °C, è necessario da una parte
che i Paesi industrializzati riducano, nel loro insieme,
le emissioni del 25-40% entro il 2020 e dell’80-90%
entro il 2050, e dall’altra parte che i Paesi in via di svi-
28
EAI
Energia, Ambiente e Innovazione
6/2012
bibliogra fia
Conclusioni
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
Bali Action Plan FCCC/CP/2007/6/Add.1.
Durban Platform FCCC/CP/2011/9/Add.1.
Copenhagen Accord FCCC/CP/2009/11/Add.1.
Australia, Kazakistan, Liechtenstein, Monaco, Norvegia, Svizzera e
Ucraina.
IPCC Fourth Assessment Report 2007 in http://www.ipcc.ch/
Draft decision –/CP18 https://unfccc.int/files/meetings/doha_nov_2012/
decisions/application/pdf/cop18_long_term_finance.pdf
FCCC/ADP/2012/L.4.
Draft decision –/CP18. https://unfccc.int/files/meetings/doha_nov_2012/
decisions/application/pdf/cop_advanc_durban.pdf
Vedi Low Carbon Society Research Network in http://lcs-rnet.org/
Focus
MECCANICA QUANTISTICA
Un’aperta violazione della privacy
Una recente ricerca ha messo in dubbio uno dei pilastri della strana fisica dell’infinitamente
piccolo, il principio di indeterminazione di Heisenberg, su cui si fonda la meccanica quantistica,
cioè l’incertezza insita nella misura e quindi nella conoscenza contemporanea di alcune variabili
che possono descrivere un sistema, come ad esempio la posizione e la quantità di moto di
una particella elementare. La grandezza “ineliminabile” dell’errore registrata dall’osservatore,
secondo questa ricerca, sarebbe in realtà inferiore a quanto finora ipotizzato dal fisico tedesco,
con tutto quello che ne consegue per la comprensione dei fenomeni a livello atomico e nucleare.
Riportiamo di seguito il divertito commento di un fisico dell’ENEA
n Emilio Santoro
Q
uando studiavamo sui banchi di scuola l’algebra
prendendo confidenza per la prima volta con i numeri relativi, spesso ripetevamo a memoria la tabellina
dei prodotti tra segni recitando tra l’altro: “meno per
meno dà più...”. Ora, sulla base di ciò che l’Università
di Toronto pare abbia dimostrato, sembra che qualcosa di concettualmente analogo si sia verificato sperimentando al banco l’inatteso “infragilimento” di uno
dei pilastri della meccanica quantistica, il principio di
indeterminazione che Werner Heisenberg elaborò per
quantificare l’influenza dell’osservazione sull’osservato. La sua più nota formulazione è legata alla determinazione di alcune variabili associate al moto degli
elettroni, ma il suo campo di applicazione si estende
all’intero mondo dell’infinitamente piccolo. La conoscenza esatta e simultanea della posizione e della velocità (quantità di moto) di un elettrone è una chimera: la
precisione di misura dell’una influenza negativamente
la corretta determinazione dell’altra. Un recentissimo
articolo [Phys. Rev. Lett. 109, 100404 (2012), “Violation of
Heisenberg’s Measurement-Disturbance Relationship
by Weak Measurements”] espone il metodo con cui i
ricercatori hanno invece verificato che il principio di
Heisenberg farebbe previsioni un po’ troppo pessimistiche rispetto alla realtà. Cioè a dire che l’incertezza
formulata nel 1927 pare sia un po’ meno incerta. Ma
tornando alla famosa tabellina dei segni, potremo mai
mutuare da questa una sorta di filosofia che ci tranquillizzi sul fatto che l’incertezza sull’incertezza dia
alla fine una certezza?
L’articolo mostra il modo in cui viene iniettato maggiore ottimismo nel principio suddetto, in definitiva
offrendo una speranza alla possibilità di descrivere
con un grado più elevato di compiutezza un sistema
assieme a tutte le variabili che sono in gioco. In particolare, la tecnica utilizzata va sotto il nome di misura
debole, che consente la stima di quanto l’osservazione possa incidere sulla precisione della misura o, per
meglio dire, sul disturbo che pregiudicherebbe la sua
esattezza. Per far ciò, i fisici, da autentici voyeurs, hanno sbirciato (con molte cautele, evidentemente, per
non perturbarli troppo) il comportamento dei fotoni
di un fascio di luce (interessandosi alla polarizzazione
di quest’ultimo) all’ingresso e all’uscita dell’apparato
sperimentale attraverso cui erano stati fatti passare. Il
risultato, provato e riprovato, sembra portare a un’unica conclusione: il disturbo che la misura introduce è
inferiore al rapporto precisione/disturbo che il principio di indeterminazione porrebbe come limite irriducibile.
Non è la certezza assoluta suggerita dalla “nuova tabellina” ma, concettualmente, il fatto che si sia ristretto
il campo di incertezza nella misura produrrebbe una
ricaduta importante sulla teoria quantistica. Evidentemente nel 1927 c’era maggiore pessimismo anche nelle teorie scientifiche (e come dar torto? Nei due anni
successivi sarebbe esplosa una delle peggiori crisi
economiche e poco più di dieci anni dopo si sarebbe
n Emilio Santoro
ENEA, Unità Tecnica Tecnologie e Impianti per la Fissione
e la Gestione del Materiale Nucleare
EAI
Energia, Ambiente e Innovazione
6/2012
29
acceso anche un terribile conflitto mondiale), ma questa informazione avrebbe reso felice ancora una volta
Einstein: non pago delle dimostrate e ridicole velleità
dei neutrini, egli avrebbe goduto anche della certezza
(questa sì!) che in fondo a Dio il gioco dei dadi non
interessi poi granché (magari, alla luce delle attuali
scoperte, forse il gioco a un sol dado!).
Stiamo diventando più ottimisti nelle scoperte scientifiche? Buffo, perché non è che anche ora la crisi economica mondiale ci disponga proprio all’euforia. Leggendo però tra le righe di ciò che abbiamo scritto più
sopra, notiamo subito l’affermazione: la misura disturba meno gli osservati... Che il mondo infinitamente piccolo fosse più permaloso in passato rispetto a quanto
lo sia ora? Mmh... difficile credere che gli elettroni un
tempo fossero più irritabili e altezzosi, ma tutto può
essere: adesso sembra che più permaloso di tutti sia
l’infinitamente grande, visto che la materia oscura che
occupa in modo così invasivo l’universo pare non gradisca manifestarsi ad alcun metodo di indagine (altro
che disturbo, misure deboli, sbirciatine e tecnici riservati e delicati...!).
E allora? Che sia aumentato il voyeurismo di sperimentatori perversi molto più attenti, grazie a sofisticati apparecchi di controllo, a non farsi beccare dagli
elettroni mentre questi volteggiano eterei attratti dai
nuclei e violando maggiormente in tal modo la loro
benedetta privacy, che Heisenberg aveva così pudicamente protetto con il suo principio fino ad ora? Già si
possono pregustare titoli da gossip atomico e foto di
povere particelle paparazzate nella loro intimità: “Appena scoperto l’indirizzo esatto (posizione) dell’elettrone, questo è stato visto fuggire via alla velocità precisa
di tot chilometri al secondo (quantità di moto). Ma niente sfugge ai segugi dell’informazione corretta!”.
Nessuna paura. Forse si stanno solo “rivisitando” i concetti di misura e dei relativi metodi di misurazione. Oltre infatti all’indeterminazione come proprietà intrinseca di un sistema quantistico, possiamo annoverare
una indeterminazione caratteristica delle particelle e
un’altra legata alla modalità di misurazione delle loro
proprietà. Gli effetti delle “misure deboli” dovrebbero
agire su queste ultime.
Uno straordinario effetto quantistico chiamato entanglement attribuisce una proprietà molto “romantica”
alle particelle. Se, nella loro storia, due di queste hanno avuto occasione di interagire reciprocamente, anche dopo un certo tempo, pur trovandosi magari agli
estremi opposti dell’universo, accadrà che se qualcosa
dovesse interferire con la prima alterandone lo stato,
istantaneamente andrà a modificarsi lo stato dell’altra.
30
EAI
Energia, Ambiente e Innovazione
6/2012
Proprio come talvolta la letteratura segnala nei forti
legami esistenti tra gemelli omozigoti. È quell’istantaneamente a dare le vertigini... anche se esse dovessero
trovarsi agli estremi opposti dell’universo... Come se tra
le due particelle intervenisse un’azione a distanza e a
velocità infinita... Einstein, Podolsky e Rosen si opposero a questa descrizione dell’effetto e formularono un
famoso teorema che porta il nome dalle loro iniziali,
EPR, che avrebbe dovuto mettere in luce l’aspetto paradossale del fenomeno. Una prova sperimentale ha
dato però conto della sua esistenza reale e consistente
(Alain Aspect, Francia 1982).
Incertezze più o meno grandi, esattamente come
quelle che affliggono anche il nostro vivere quotidiano; rapporti tra osservatore e osservato come nelle
migliori storie di spionaggio; relazioni tra particelle
come tra gemelli... Che succede alla fisica? Dove sta
la realtà?
David Bohm propose un’interpretazione affascinante.
Immaginiamo che la realtà vera ma inconoscibile sia
nascosta dietro un sipario chiuso, e che consista per
esempio in un acquario con un pesce solitario che
nuoti al suo interno, posto tra due telecamere che riprendano quest’ultimo da angolazioni completamente differenti. L’osservatore è in platea e segue esclusivamente i due diversi monitor, ciascuno collegato alla
corrispondente telecamera, di cui egli non è a conoscenza: l’uomo infatti vede solo due pesci, distinti
perché le differenti angolazioni di ripresa forniscono
immagini diverse, che corrisponderebbero alla sua
versione della realtà. Poi però inizia a ragionare. Osserva che il movimento di un pesce ha un’istantanea
corrispondenza con un movimento complementare
dell’altro, come se tra i due pesci esistesse una stretta correlazione, un entanglement... Tutto questo non
rimanda al famoso “mito della caverna” di Platone,
all’interno della quale dei prigionieri immobilizzati
interpretano come realtà le ombre, proiettate sulla
parete, di ciò che non sono in grado di vedere perché
è alle loro spalle?
Forse l’incertezza intrinseca nella meccanica quantistica non è che un difetto intrinseco nell’ombra
proiettata sulla “parete” che abbiamo di fronte, i cui
contorni stanno assumendo solo ora tratti leggermente più definiti. C’è sempre però il rischio, in queste
sperimentazioni sofisticatissime, che l’incertezza sia
imparentata anche con l’errore (e in queste pagine
abbiamo avuto occasione di parlarne). Occorrerà attendere altre indagini. Ma col conforto di una grande vera certezza, come insegnava Agostino: “Si fallor
l
sum”. Se sbaglio, esisto. Focus
CAVITAZIONE
Prevenire processi dannosi
di cavitazione
con il nuovo dispositivo CASBA 2012
L’ENEA ha depositato un nuovo brevetto che consiste in un dispositivo in grado di rilevare
i segnali provenienti da trasduttori elettrici sensibili alle vibrazioni prodotte dai fenomeni di
cavitazione o di ebollizione che avvengono in un fluido e di effettuarne l’analisi qualitativa
e quantitativa della frequenza e dell’andamento nel tempo. Il brevetto, realizzato da Simone
Mannori dell’Unità Tecnica Ingegneria Sperimentale del Centro ENEA Brasimone, è stato
depositato il 19 settembre 2012 (n. RM2012A000448). È consultabile nella banca dati Brevetti
ENEA ed è disponibile per licensing. L’autore ci spiega nell’articolo di che cosa si tratta
n Simone Mannori
I
l dispositivo brevettato, denominato CASBA 2012, è
un dispositivo in grado di rilevare la formazione di
bolle di gas in un fluido in rapido movimento (cavitazione o ebollizione), misurare la frequenza con cui esse
si formano e l’andamento nel tempo del fenomeno.
Il dispositivo può essere utilizzato per la diagnostica e
la protezione degli impianti industriali soggetti a danneggiamento derivante dalla formazione e implosione
di bolle costituite dal fluido stesso in fase gassosa e da
eventuali altri gas disciolti nel fluido.
Il CASBA 2012 è un’evoluzione del CASBA 2000, una tecnologia sviluppata presso il Centro Ricerche ENEA Brasimone negli anni ’80 (brevettata da ENEA) e utilizzata
nell’impianto ELTL, EVEDA Lithium Test Loop (Figura 1).
ELTL (Centro ricerca JAEA di Oarai, Giappone) è stato costruito per validare il circuito a litio liquido dell’impianto
sperimentale IFMIF (International Fusion Material Irradiation Facility) che verrà utilizzato per caratterizzare i materiali impiegati nei futuri reattori a fusione ITER e DEMO.
Figura 1 Impianto ELTL di Oarai (Giappone)
n Simone Mannori
ENEA, Centro Ricerche Brasimone,
Unità Tecnica Ingegneria Sperimentale
EAI
Energia, Ambiente e Innovazione
6/2012
31
Focus
Perché è necessario monitorare la formazione
di gas in un liquido
Ad esempio, nell’impianto di riscaldamento di una
casa l’acqua è fatta circolare forzatamente mediante
una pompa. Per come è stata progettata e costruita,
la pompa diminuisce la pressione del fluido al suo
ingresso e ne aumenta la pressione alla sua uscita.
Se la pressione diminuisce al di sotto di un certo valore critico (dipendente dalla temperatura) l’acqua
in fase liquida può trasformarsi in vapore in fase
gassosa. In un secondo momento, quando le bolle
si spostano in una zona a pressione maggiore, esse
implodono istantaneamente creando un rumore caratteristico. L’implosione (Figura 2) della bolla di
vapore crea dei micro-getti ad altissima velocità di
liquido che possono danneggiare in maniera significativa gli organi della pompa (Figura 3).
Lo studio del fenomeno della cavitazione è molto
importante per le eliche delle navi (Figura 4): una
velocità di rotazione troppo elevata può innescare
fenomeni di cavitazione potenzialmente molto distruttivi.
La cavitazione diventa molto difficile da gestire per
un sommergibile: infatti la velocità dell’elica oltre
la quale si innescano fenomeni di cavitazione è funzione della profondità, della salinità e della temperatura dell’acqua, tutti fattori che possono variare
molto rapidamente. Per un sommergibile la cavitazione non è tanto pericolosa per gli eventuali danni
all’elica ma perché il suono delle implosioni delle bolle di gas è facilmente individuabile, facendo
così perdere al sommergibile la sua caratteristica
fondamentale: quella di essere “invisibile”.
Negli impianti dove il fluido di scambio è un metallo liquido, si possono utilizzare delle pompe che
non hanno parti meccaniche in movimento. La differenza di pressione è indotta da un campo magnetico variabile con una struttura analoga a quella di
un motore asincrono trifase dove la parte in movimento (rotore) è il fluido stesso. Questa soluzione è
possibile solo quando il fluido è un buon conduttore
dell’elettricità (es. sodio, litio ed altre leghe metalliche usate allo stato liquido in impianti di fusione
e fissione nucleare). Il fenomeno della cavitazione
32
EAI
Energia, Ambiente e Innovazione
6/2012
Figura 2 Formazione e implosione della bolla di gas
Figura 3 Girante di una pompa danneggiata dalla cavitazione
Figura 4 Elica con danni provocati dalla cavitazione, in particolare
in vicinanza del bordo, dove la velocità della lama è
massima
Caratteristiche tecniche
Il CASBA 2012 misura e analizza i segnali elettrici provenienti da sensori piezoelettrici sensibili alle vibra-
zioni prodotte durante i fenomeni di cavitazione ed
ebollizione di un liquido.
Le vibrazioni sono captate da un sensore piezoelettrico installato in prossimità della zona dove si sospetta l’insorgenza del fenomeno di cavitazione. Il
sensore trasforma le vibrazioni in segnali elettrici
che, attraverso un cavo coassiale, vengono elaborati
e rappresentati su di un display LCD a colori.
Il CASBA 2012 può collegare fino a 4 canali di acquisizione dati. In ognuno il segnale è campionato da
una coppia di circuiti funzionanti in parallelo con un
preciso sfasamento temporale. Questo consente di
aumentare l’accuratezza delle misure e di individuare con maggiore precisione la sorgente primaria e i
meccanismi di propagazione dei fenomeni.
Focus
può essere pericoloso anche in questo caso perché
si potrebbero creare delle bolle di metallo in fase
gassosa sulle pareti del condotto della pompa, in
particolare al suo ingresso, dove la pressione è più
bassa.
Questo è il caso dell’impianto ELTL (EVEDA Lithium
Test Loop di Oarai, Figura 1) dove ENEA installerà
un sistema CASBA all’ingresso della pompa elettromagnetica (Figura 5) adibita alla circolazione forzata del litio in fase liquida.
Figura 5 Posizioni dei sensori CASBA nell’impianto ELTL (evidenziate in rosso)
EAI
Energia, Ambiente e Innovazione
6/2012
33
Oltre alle quattro unità di acquisizione dati che convertono il segnale da analogico a digitale, il dispositivo è costituito da un processore digitale di segnali,
una unità di visualizzazione con grafica interattiva a
colori con pannello tattile, una unità di memorizzazione dati e interfacce standard per bus di campo
e reti locali che permettono una facile integrazione
nei moderni sistemi di controllo.
Il “cervello” del CASBA 2012 è un microprocessore
ad alte prestazioni del tipo ARM, lo stesso tipo che
equipaggia gli smartphone di ultima generazione.
Anche il display tattile LCD usa la stessa tecnologia
“touch” degli smartphone. Come sistema operativo viene utilizzata una versione su misura di Linux
preparata da Evidence. L’utilizzo di un sistema operativo Open Source come Linux realizza un’elevata
affidabilità senza un ulteriore aggravio dei costi per
l’acquisto di licenze. La libreria grafica QT, permette
di realizzare rapidamente interfacce utente di facile utilizzo per l’operatore. Gli algoritmi di elaborazione dati digitali sono sviluppati con ScicosLab
(un software Open Source sviluppato in INRIA) ed
implementati tramite suo generatore automatico di
codice.
Problema tecnico risolto
Come abbiamo detto, il CASBA 2012 è una evoluzione del CASBA 2000. A distanza di 20 anni si è potuti
passare da una tecnologia di tipo analogico a una
di tipo digitale. Il CASBA 2000 ha un solo canale
di rilevazione, mentre il CASBA 2012 ne ha quattro.
Inoltre il CASBA 2000 fornisce solo una indicazione
integrale della potenza del segnale di cavitazione.
Per ulteriori misure più dettagliate sia nel dominio del tempo che nel dominio della frequenza, è
necessario utilizzare della strumentazione esterna
(es. un oscilloscopio digitale con analisi di Fourier
integrata). Il CASBA 2012 è invece capace di rappresentare fino a quattro canali in tempo reale, sia
nel dominio del tempo che nel dominio della frequenza. Il sistema di acquisizione dati multicanale
del CASBA 2012 permette inoltre misure di correlazione tra due canali (misure non possibili con il
precedente modello).
34
EAI
Energia, Ambiente e Innovazione
6/2012
Un’altra innovazione del CASBA 2012 è la presenza
di interfacce standard per la rete Ethernet e per bus
di campo di tipo CAN. L’Ethernet viene utilizzata per
la comunicazione con la rete d’impianto, ad esempio per accedere allo storico delle misure, mentre il
CAN bus permette elevate (e garantite) velocità di
risposta qualora si volesse utilizzare il CASBA all’interno di un sistema automatico di protezione capace
di reagire immediatamente prima che il fenomeno
della cavitazione danneggi l’impianto (il bus CAN è
stato ideato e utilizzato da BOSCH per applicazioni
come l’ABS delle auto dove sono richiesti tempi di
riposta rapidi e certi).
Le altre possibili applicazioni
Oltre all’analisi e alla misura di segnali di cavitazione e ebollizione, la struttura modulare del CASBA
2012 lo rende utilizzabile come analizzatore di sistemi con elevata dinamica (120 dB) e bande passanti
fino a 50kHz in ambiente industriale.
Il CASBA 2012 combina un modulo CPU/LCD “touch”
ad alte prestazioni con una piastra madre che può
ospitare fino a quattro moduli per il condizionamento e la conversione in digitale di segnali provenienti
da trasduttori industriali. La scheda d’ingresso progettata per il CASBA 2012 è stata ottimizzata per segnali di cavitazione, ma può essere facilmente adattata per segnali di tipo generico, ad esempio per
l’analisi e la misura di vibrazioni provenienti da altre
parti dell’impianto con altri obiettivi (es. valutazione
dell’usura di cuscinetti a sfere).
Futuri sviluppi
Evidence, una società spin-off della Scuola Superiore Sant’Anna di Pisa, specializzata nello sviluppo di
software per sistemi in tempo reale e nella realizzazione di schede elettroniche con microprocessori
e logiche programmabili, ha realizzato il progetto
dettagliato del CASBA 2012 sulla base delle linee
guida definite nel brevetto ENEA. Attualmente è in
costruzione un prototipo “da banco” che verrà utilizzato per testare e validare lo strumento prima di
l
passare alla produzione in serie. Focus
TERREMOTO L’AQUILA
Presunto imminente
Il 22 ottobre scorso il Tribunale di L’Aquila ha condannato a sei anni di reclusione tutti i sette
componenti della Commissione Grandi Rischi, in carica nel 2009, che alla riunione del 31
marzo 2009, pochi giorni prima del devastante terremoto, avevano rassicurato gli aquilani circa
l’improbabilità di una forte scossa sismica che invece si verificò alle 3,32 del 6 aprile 2009.
Il Tribunale ha ritenuto i sette membri della commissione tutti colpevoli di omicidio colposo
plurimo e lesioni colpose. I sette sono stati condannati anche all’interdizione perpetua dai
pubblici uffici. Qui di seguito il commento su questo avvenimento
n Emilio Santoro
S
tiano attenti anche i meteorologi. Dal 22 ottobre
2012, la giurisprudenza italiana ha stabilito ufficialmente, con una sentenza di portata storica e unica nel pianeta, che effettuare stime statistiche sulla
probabilità di eventi sia un reato. Sbagliare le previsioni del tempo, permettendo che un modesto temporale locale sfuggito alle maglie dei modelli matematici predittivi possa trasformarsi in un’alluvione
catastrofica, adesso potrebbe costare la galera.
Ci riferiamo alla sorprendente sentenza che condanna in primo grado la Commissione Grandi Rischi per aver sottovalutato l’incidenza dello sciame
sismico che ha insistito per giorni nell’area aquilana, prima dell’evento che ha seminato morte e distruzione nell’aprile del 2009. È pur vero che nella
sentenza si riafferma il principio dell’impossibilità
di prevedere i terremoti, alla luce delle attuali conoscenze: ciò che viene pesantemente sanzionata è la
rassicurazione da parte della Commissione e rivolta
alla popolazione della zona interessata dallo sciame
pochi giorni prima dell’evento, sulla possibilità che
lo stesso potesse produrre eventi di magnitudo elevata. Di fatto, invitando la gente a restare tranquillamente nelle proprie abitazioni.
Premettendo il rispetto che è necessariamente e
moralmente dovuto alle vittime e ai feriti di quel
tragico giorno, in questo ragionamento c’è qualcosa
che non torna, che non è solo questione di semplice
semantica. Se si ammette che i terremoti non siano
eventi prevedibili, come si può attribuire certezza
riguardo alla loro assenza? In altre parole, come si
può essere sicuri che un terremoto non avrà luogo
in un paese che attribuisce peraltro a un’ampia distribuzione di territorio un elevato rischi sismico? E
se anche si fosse certi di un mainshock generato in
uno sciame, come si potrà comunicare utilmente a
chicchessia quando questo si verificherà? Siamo infatti certi che in Italia continueranno a esserci eventi
sismici, anche di elevata magnitudo, e possiamo anche prevedere in quali aree, con maggiore frequenza e probabilità. Ma per il quando? Si è parlato di
evacuare un’intera città... ma per quanto tempo? E
se poi il sisma non si fosse presentato? Sicuramente
alla Commissione sarebbe stato contestato il reato
di procurato allarme per disagi, per eventuali malori
se non addirittura per decessi, per perdite economiche.
Con l’ironia a volte crudele che ci riserva il destino,
dopo quasi due anni di sciame sismico pressoché
continuo e tre giorni dopo questi fatti, il Pollino ha
registrato il 25 ottobre un evento di magnitudo 5,
con danni sensibili e disagi diffusi ma per fortuna
senza feriti o decessi. E se fosse stato di intensità
n Emilio Santoro
ENEA, Unità Tecnica Tecnologie e Impianti per la Fissione
e la Gestione del Materiale Nucleare
EAI
Energia, Ambiente e Innovazione
6/2012
35
Focus
più elevata? Si sarebbe dovuta evacuare la zona con
quanti mesi di anticipo?
Il vero problema è che gli scienziati parlano una lingua che il diffuso e radicato analfabetismo scientifico
rende talvolta mal interpretata laddove addirittura
incomprensibile. Le motivazioni si basano sul concetto di probabilità. La possibilità che uno sciame
sismico produca un evento severo è di 1 a 30, cioè
a dire nel 3% dei casi. Ogni cento sciami sismici,
tre di questi potrebbero dar luogo a un terremoto
di elevata magnitudo. Siamo in un mondo in cui i
numeri ci forniscono indicazioni e non certezze. La
“rassicurazione” si basa su questi numeri, che si
chiamano probabilità.
La probabilità di morire per incidente stradale è solo
un terzo più piccola, pari all’1%, eppure non solo non
rinunciamo a prendere l’auto, ma forse nemmeno ci
poniamo il problema ogni volta che saliamo a bordo.
Teniamo conto di questo numero, che è dello stesso
ordine di grandezza del precedente, solo per “autorassicurarci” (“auto” potrebbe avere un doppio significato, in questo caso). Le probabilità di contrarre
gravi patologie per il fumo sono ben più alte, eppure
i fumatori, pur coscienti di questo, restano liberi di
continuare o di smettere con la loro abitudine.
La rassicurazione che si è tradotta in un invito a restare nelle proprie case non poteva essere intesa
come un’imposizione. Ciò che ha pesato è stata la
sua cattiva interpretazione, derivata dal fatto che la
grande maggioranza della gente sia a digiuno delle più elementari cognizioni scientifiche: gli eventi
sismici non sono prevedibili e, per contro, nessuna
rassicurazione sulla loro assenza potrà mai essere
“deterministica”.
Non è mai un buon segno quando la Scienza finisce
in Tribunale. E in Italia, questa sembra sia un’abitudine che riemerge in modo sinistro da un lontano
36
EAI
Energia, Ambiente e Innovazione
6/2012
passato. E allora, ci chiediamo, perché accanirsi contro la Scienza per l’umiltà socratica che la contraddistingue e che non vive di dogmi, invece di rivolgersi
contro coloro che, in totale dispregio di ciò che pure
la stessa Scienza suggerisce, continuano a edificare
in zone dichiarate ad alto rischio senza assolutamente preoccuparsi di adeguare i fabbricati alle norme
che regolano la protezione antisimica?
A questo punto, in tribunale forse dovrebbe finirci lo
stesso Newton e la sua “scellerata” legge di gravitazione: se infatti gli oggetti non cadessero al suolo, forse
non ci sarebbero neppure i crolli e nessuno rimarrebbe ferito a seguito di un forte terremoto. Se qualcuno
lanciasse l’idea di un referendum abrogativo di tale
nefasta legge, sono certo che troverebbe ugualmente
qualche strampalato sostenitore. La legge dell’uomo
sembrerebbe superiore a quella della natura, altrimenti non si costruirebbe a due passi dal cratere di
un vulcano attivo e cattivo come il Vesuvio...
I vulcani però dànno segni premonitori, hanno
comportamenti meno impulsivi e si è a conoscenza soprattutto di dove siano dislocati. Ma, almeno
nell’esempio che è stato portato, non sarebbe come
entrare in una gabbia di tigri che hanno appena completato il pasto, trattenendosi però fin quasi all’ora
di quello successivo? In cosa ci si potrebbe sentire
“rassicurati” ragionando in tal maniera?
Vivere in un’area classificata a rischio sismico significa “convivere col rischio” più o meno elevato
e mitigare possibilmente quest’ultimo adeguando
le strutture ad esso, non aspettare (o sperare) che
qualcuno, magari con la con la divisa dell’ufficialità, ci dia rassicurazione che “tutto va bene”, solo
perché è più facile scaricare le responsabilità sugli
altri che assumersele in proprio. La divinazione non
è una scienza. È sconcertante che molti diano per
esempio meno credito alle previsioni meteorologiche che a quelle astrologiche.
Dalla presunzione di imminenza di un evento sismico si dovrebbe passare alla presunzione di innocenza della Scienza (sempre parafrasando il titolo
di un libro di Turow e il successivo film di Pakula),
affinché, soprattutto nel nostro paese, il giorno che
segue eventi del genere, ancorché tragici, non sia
l
sempre il… Mattino dei Maghi… Primopiano
Emissioni da trasporti
Patto dei Sindaci: gli impegni italiani
per il settore trasporti
Il Patto dei Sindaci, iniziativa europea finalizzata a raggiungere e superare gli obiettivi della Politica
Energetica e Climatica Comunitaria al 2020, ha ricevuto in Italia un’ampia adesione con circa
1.300 sottoscrizioni; l’82% dei Comuni ha anche redatto il Piano di Azione per l’Energia Sostenibile
(PAES), richiesto dal Patto.
Relativamente al settore trasporti e mobilità, è stata effettuata un’analisi degli orientamenti, misure
e risultati attesi dai principali PAES approvati dalla Commissione Europea
n Gabriella Messina, Silvia Orchi
Il Patto dei Sindaci
Il Patto dei Sindaci, iniziativa della
Commissione Europea lanciata in
seguito all’adozione del pacchetto
europeo su Clima ed Energia nel
2008, invita gli Enti Locali e Regionali dei paesi europei a sottoscrivere un patto volontario, con il quale
essi si impegnano ad aumentare
l’efficienza energetica e l’utilizzo
di fonti energetiche rinnovabili nei
loro territori, al fine di raggiungere e superare gli obiettivi europei
di riduzione delle emissioni di gas
climateranti, fissati al 2020.
Lo strumento chiave per tramutare in azioni concrete gli intenti dichiarati con la sottoscrizione del
Patto dei Sindaci, è rappresentato
dal Piano di Azione per l’Energia
Sostenibile (PAES). Propedeutica
al PAES è, però, la redazione di un
altro importante documento, punto
di riferimento per la determinazione degli obiettivi successivamente
definiti nel PAES, ossia l’Inventario
di Base delle Emissioni (IBE).
Questi due documenti devono essere redatti entro un anno dall’adesione ufficiale al Patto e devono,
inoltre, essere inviati al Joint Research Centre (JRC) della Commissione Europea per l’approvazione.
Entro il secondo anno dalla sottoscrizione del PAES, deve essere
implementata la fase di valutazione, monitoraggio e verifica degli
obiettivi dichiarati.
Nel PAES vengono indicate le misure concrete di riduzione delle emissioni di CO2 , i consumi di energia
per usi finali e sono individuate
precise ed assegnate responsabilità a garanzia della realizzazione del
Piano.
Le autorità locali possono decidere
di esprimere l’obiettivo di riduzione delle emissioni di CO2 in termini
“assoluti” o in termini “pro-capite”.
I Comuni hanno, in oltre, la possibilità di scegliere, anche in base
alla disponibilità dei dati, l’anno
di riferimento per il calcolo del
loro obiettivo di abbattimento delle
emissioni di CO2.
Il Patto dei Sindaci ha ricevuto, in
Italia, un’ampia adesione. Ad inizio
gennaio 2013, i Comuni che hanno
aderito al Patto dei Sindaci sono
4.554 in Europa e 1.266 in Italia.
I PAES Nazionali
Si è ritenuto interessante, relativamente al settore trasporti e mobilità, effettuare una fotografia di come
si sta sviluppando in Italia l’iniziativa, quali sono gli orientamenti strategici e gli interventi che intendono
attuare le amministrazioni che non
solo hanno sottoscritto il Patto ma
che hanno ricevuto anche l’approvazione del PAES dalla Commissione Europea. Infatti, al di là del monitoraggio dell’iniziativa, si ritiene
che la conoscenza delle politiche
e delle misure previste, nonché dei
risultati attesi e degli impegni economici necessari, possa risultare
utile per promuovere ulteriormente
l’iniziativa presso altre amministrazioni locali.
A tal fine, è opportuno specificare
che i PAES sottoscritti in Italia, finora, sono 1.034 di cui 290 sono quelli
approvati dal JRC. Tra questi ultimi,
si è scelto di analizzare i PAES dei
n Gabriella Messina, Silvia Orchi
ENEA, Unità Tecnica Efficienza Energetica
EAI
Energia, Ambiente e Innovazione
6/2012
37
20 Comuni con popolazione superiore ai 30.000 abitanti.
Tra i 290 PAES sopra detti, non figurano i piani di grandi città quali Roma,
Milano e Napoli, ancora in attesa di
accettazione da parte del JRC.
L’analisi qui condotta, sicuramente
non esaustiva, risulta, comunque,
indicativa delle scelte che stanno
operando gli Enti Locali per il raggiungimento e il superamento degli obiettivi fissati al 2020.
Nell’articolo si riportano, quindi, i
risultati delle analisi per i 20 PAES
esaminati che complessivamente
si pongono come obiettivo ultimo
la riduzione di circa 930.137 tCO2/
anno al 20201 per il settore trasporti e mobilità. I Comuni interessati
sono stati suddivisi per classe di
popolazione, nel modo seguente:
 8 Comuni con popolazione compresa tra i 30.000 e i 50.000 abitanti (Abbiategrasso, Cellatica,
Castelfranco Emilia, Grugliasco,
Lodi, Montebelluna, Nichelino e
Pioltello);
 5 Comuni con popolazione compresa tra i 50.001 e 100.000 abitanti (Collegno, San Severo, Cerignola, Alessandria e Udine);
 5 Comuni con popolazione compresa tra i 100.001 e 500.000 abitanti (Forlì, Reggio Emilia, Padova,
Bari e Firenze);
 2 Comuni con popolazione compresa tra i 500.001 e 1000.000 di
abitanti (Genova e Torino).
Relativamente ai suddetti 20 Comuni, sono 12 coloro che hanno scelto il
2005 come anno di riferimento (Genova, Firenze, Padova, Alessandria,
Cerignola, Grugliasco, San Severo,
Collegno, Abbiategrasso, Cellatica, Lodi e Pioltello); 3 i Comuni che
38
EAI
Energia, Ambiente e Innovazione
6/2012
hanno scelto il 2000 come anno di riferimento (Reggio Emilia, Forlì e Nichelino); il Comune di Castelfranco
Emilia ha scelto il 1999; il Comune
di Bari ha scelto il 2002; il Comune
di Montebelluna il 2008; il Comune
di Udine ha scelto il 2006; il Comune di Torino inizialmente ha scelto il
1991 come anno base, ma successivamente, date le profonde trasformazioni sociali ed economiche che
hanno interessato la città nel periodo compreso tra il 1991 ed il 2005,
ha predisposto un nuovo inventario
con anno base il 2005, pertanto gli
obiettivi presi in esame in questo articolo fanno riferimento, a tale anno.
Le azioni che si intende intraprendere con i PAES, sono numerose e
spaziano dal potenziamento e promozione del trasporto pubblico, al
rinnovo del parco veicoli comunale;
dal trasporto privato e commerciale alla realizzazione di infrastrutture metro-tranviarie; sono previste,
inoltre, azioni per la mobilità sostenibile finalizzate alla riduzione
dell’uso dell’auto privata, alla pro-
mozione della mobilità ciclopedonale e all’ottimizzazione del sistema
dei trasporti in generale ecc..
In considerazione delle proprie caratteristiche socio-economiche e geografiche-territoriali, ogni Comune ha
operato le proprie scelte strategiche
nell’ambito dei Trasporti, secondo
quelle che sono le priorità d’intervento e gli aspetti maggiormente rilevanti sui quali è possibile agire nell’arco
temporale che arriva al 2020.
Sulla base delle scelte operate dai
Comuni, quindi, le azioni programmate sono state aggregate in 4 ambiti di intervento principali: il parco
veicoli comunale, il trasporto pubblico, il trasporto privato e commerciale, la mobilità sostenibile.
La Figura 1 illustra la ripartizione percentuale della riduzione di
emissioni di CO2 attesa complessivamente per i quattro ambiti di
intervento sopra detti.
La riduzione maggiore è attesa da
misure per la mobilità sostenibile,
presente in tutti i PAES e che richiede risorse finanziarie più contenute.
Figura 1 Obiettivi di riduzione delle emissioni di CO2 per ambito di intervento (%)
Fonte: elaborazione ENEA su dati dei PAES dei 20 Comuni analizzati
dimensione urbana, dove la possibilità di disporre di adeguate risorse
finanziarie da investire è maggiore.
Occorre precisare, tuttavia, che non
sempre i Comuni sono riusciti a
quantificare i risultati delle azioni
programmate in termini di riduzio-
Gli obiettivi fissati dalle singole realtà comunali evidenziano, come era
prevedibile, che l’abbattimento delle emissioni climalteranti sarà più
consistente nei Comuni di maggiore
Abitanti
Città
Parco veicoli Trasporto pubblico
comunale
(tCO2)/anno
(tCO2)/anno
Abbiategrasso
13,85
839,21
Castelfranco Emilia
16,00
Cellatica
2,44
-
30.000-50.000
Grugliasco
ne delle emissioni di CO2, è il caso,
ad esempio del Comune di Reggio
Emilia e, per alcune misure, anche
del Comune di Bari.
In Tabella 1 si riportano le emissioni evitate in termini di tCO2/annua
al 2020 per ambito di intervento e
Trasporto privato Mobilità sostenibile
Altro*
e commerciale
(tCO2)/anno
(tCO2)/anno
(tCO2)/anno
TOTALE
409,37
1.453,28
-
2.715,71
1.945,00
-
12.573,00
-
14.534,00
-
-
1.208,50
-
1.210,94
-
3.563,00
3,00
-
3.566,00
Lodi
33,00
64,00
5.511,00
450,00
-
6.058,00
Montebelluna
35,00
2.456,00
-
12.561,00
-
15.052,00
Nichelino
9,30
-
-
-
-
9,30
Pioltello
10,83
-
532,81
1.065,63
-
1.609,27
Totale
120,42
5.304,21
10.016,18
29.314,41
-
44.755,23
Alessandria
-
23.172,00
-
25.246,00
-
48.418,00
Cerignola*
1,42
-
-
5.104,80
-
5.106,22
-
80,00
7.406,00
1.555,00
-
9.041,00
Collegno
-
-
5.430,56
-
5.435,45
-
-
-
34.731,00
-
34.731,00
Totale
6,31
23252,00
7406,00
72067,36
-
102731,66
Bari
-
3.850,00
4.475,00
37.050,00
6.000,00
49.011,00
-
198.000,00
-
253.011,00
100.001-500.000
4,89
Udine
abitanti >
500.001
50.001-100.000
San Severo
Firenze
Forlì
18.500,00 63.875,00
-
-
-
25.951,00
-
25.951,00
Reggio Emilia
10,00
-
7.139,00
-
-
7.149,00
Padova
357,00
32.659,00
14.816,00
17.280,00
-
65.112,00
18.500
415.098,00
Totale
6.367
85.520
26.430
278.281
Genova
228,00
13.435,00
1.982,00
70.408,00
Primo Piano
Obiettivi e azioni
nel settore trasporti
19.821,00 105.874,00
Torino
-
122.945,00
46.863,00
91.871,00
Totale
228,00
136.380,00
48.845,00
162.279,00
19.821,00 367.553,00
-
261.679,00
Totale
6.721,73
250.456,21
92.697,18
541.941,77
38.321,00 930.137,89
* Sono opere infrastrutturali, la cui incidenza nei vari ambiti di intervento è trasversale, per cui, sono state inserite in una categoria a parte. Si tratta
di 2 opere del Comune di Bari (lotto I Porto Verde e infrastrutture stradali) e 2 opere infrastrutturali del Comune di Genova non meglio specificate
TABELLA 1 Emissioni di CO2/annua evitate per ambito di intervento e per Comune nel settore dei trasporti
Fonte: elaborazione ENEA su dati dei PAES dei Comuni citati
EAI
Energia, Ambiente e Innovazione
6/2012
39
Primo Piano
per Comune; i Comuni sono stati
raggruppati in base alla popolazione.
La riduzione maggiore delle emissioni di CO2 nel settore dei trasporti, rispetto all’obiettivo totale del rispettivo PAES, è attesa nei Comuni
di Firenze, Montebelluna, Udine e
Castelfranco Emilia, i cui interventi,
contribuiranno, rispettivamente, al
50%, al 41%, al 34% ed al 30% del
loro obiettivo totale al 2020. Seguono poi San Severo e Forlì con il 29%,
Alessandria con il 25% e Genova
con il 20%.
L’analisi delle azioni, in base ai detti
ambiti di intervento nel settore dei
trasporti, rilevano che, per quanto
riguarda il rinnovo del parco veicolare comunale, è il Comune
di Firenze che mette in campo le
azioni più incisive, proponendosi
di abbattere 6.000 tCO2/anno, segue il Comune di Padova con 357
tCO2/anno e il Comune di Genova
con 228 tCO2/anno. Si tratta di città
medio-grandi, che hanno maggiori
margini di miglioramento, come già
detto. Nei Comuni medio-piccoli,
le azioni programmate sono irrilevanti, mentre nei Comuni “piccoli”
si riuscirà complessivamente ad
evitare le emissioni di 120,4 tCO2/
anno al 2020.
Anche nel trasporto pubblico, sono
le azioni intraprese nelle grandi
aree urbane a prevalere: gli interventi maggiormente impattanti sono
stati messi in cantiere nel Comune
di Torino, con i quali l’Ente prevede
di abbattere 122.945 tCO2/anno al
2020, segue il Comune di Firenze
con 49.011 tCO2/anno e il Comune
di Padova con 32.659 tCO2/anno.
Gli interventi, nello specifico, oltre
40
EAI
Energia, Ambiente e Innovazione
6/2012
Figura 2 Ripartizione percentuale della riduzione di emissioni di CO2 per ambito di
intervento e per classe di popolazione
Fonte: elaborazione ENEA su dati dei PAES dei 20 Comuni analizzati
ad operare sul rinnovo della flotta
dei mezzi, si riferiscono anche ad
opere infrastrutturali, come nel caso
di Torino, Firenze, Genova e Padova
(linee metropolitane e tranviarie,
opere portuali, impianti di risalita,
nodi di interscambio ecc.).
In particolare il Comune di Torino
attuerà il completamento della linea
1 e la nuova linea 2 della metropolitana, prevedendo di abbattere oltre
109.489 tCO2/anno; altre importanti
opere infrastrutturali riguarderanno
il metro tram di Padova e la tranvia
di Firenze.
Tra i Comuni medio-piccoli, le azioni per il trasporto pubblico locale
di Alessandria permetteranno di risparmiare 23.252 tCO2/anno; dai Comuni “piccoli”, invece, si attende un
abbattimento complessivo di 5.304
tCO2/anno di cui 2.456 tCO2/anno
nel solo Comune di Montebelluna.
Tra le azioni che riguardano il trasporto privato e commerciale,
spiccano quelle volte alla sostituzione dei veicoli più inquinanti con
veicoli a basse emissioni e incentivi
per i veicoli a metano/gpl, tariffazione della sosta privata, predisposizione di Osservatori della Mobilità
e poi azioni volte al miglioramento
dei processi logistici nelle città e
nei porti.
Anche in questo settore, il Comune di Torino si pone l’obiettivo più
ambizioso con un abbattimento al
2020 di circa 46.863 tCO2/anno attraverso una sola misura finalizzata
alla sostituzione dei veicoli privati con veicoli a basse emissioni. Il
Comune di Padova, prevede azioni
rivolte al rinnovo del parco veicoli
privato, al potenziamento della flotta veicolare a basso consumo per
la distribuzione merci e alla diffusione di biocarburanti, prevedendo
un risparmio di 14.816 tCO2/anno;
il Comune di Reggio Emilia intende abbattere 7.139 tCO2/anno, altre
1. Stime provvisorie desunte dai dati forniti nei
PAES.
PAES del Comune di Abbiategrasso
PAES del Comune di Alessandria
PAES del Comune di Bari
PAES del Comune di Castelfranco Emilia
PAES del Comune di Cerignola
PAES del Comune di Cellatica
PAES del Comune di Collegno
PAES del Comune di Firenze
PAES del Comune di Forlì
PAES del Comune di Genova
PAES del Comune di Grugliasco
PAES del Comune di Lodi
PAES del Comune di Montebelluna
PAES del Comune di Nichelino
PAES del Comune di Padova
PAES del Comune di Pioltello
PAES del Comune di Reggio Emilia
PAES del Comune di San Severo
PAES del Comune di Torino
PAES del Comune di Udine
SEAP Guidelines
Sito:
http://www.pattodeisindaci.eu/index_it.html
EAI
Energia, Ambiente e Innovazione
6/2012
Primo Piano
(circa 4,95 miliardi di euro) degli
8,5 miliardi di euro sopra citati, a
pesare è l’imponente mole di opere infrastrutturali previste nel PAES
del Comune, nel settore Trasporti.
Le opere sono finalizzate alla realizzazione del Sistema Ferroviario
Metropolitano Regionale, al potenziamento del Servizio Logistico “Cityporto” e alla realizzazione della
metro tranvia SIR2, SIR3 e SIR4.
Il Comune di Torino ha stimato un
impegno finanziario di circa 1,8
miliardi di euro, di cui il 65% per
la realizzazione della linea 2, tratta
Rebaudengo-Cimitero Parco.
La spesa prevista, invece, dal Comune di Firenze, anche se non comprensiva di tutte le opere, ammonta
l
a 721,2 milioni di euro. not e
anno. Dai Comuni medio-piccoli
si otterrà una riduzione di 72.067
tCO2/anno, di cui 34.731 tCO2/anno
nel Comune di Udine attraverso la
razionalizzazione del trasporto di
persone e merci; 25.246 tCO2/anno
nel Comune di Alessandria attraverso l’incremento della mobilità
ciclo-pedonale, la promozione di
veicoli elettrici e l’implementazione di servizi di trasporto alternativi
all’auto privata.
Con le azioni programmate dai
Comuni piccoli, si abbatteranno
complessivamente le emissioni per
29.314 tCO2/anno al 2020.
Le azioni, in questo ambito di intervento, per lo più, riguardano la
promozione della mobilità ciclopedonale, nuove piste ciclabili, il
car sharing, campagne ed eventi
di informazione e sensibilizzazione
alla mobilità sostenibile e la razionalizzazione dei sistemi di trasporto
passeggeri e merci.
La Figura 2 riporta il peso percentuale dei vari ambiti di intervento,
suddivisi in base alla popolazione
dei Comuni esaminati.
Dal punto di vista finanziario, le risorse che i Comuni hanno stanziato per le opere relative al settore
dei trasporti, ammontano, ad oggi,
a quasi 8,5 miliardi di euro. Tuttavia questi non sono dati esaustivi,
in quanto molti Comuni non hanno
indicato le risorse che intendono
destinare alle azioni programmate,
altri Comuni hanno dato informazioni parziali e solo alcuni hanno
dichiarato, per ogni azione, le risorse finanziarie che intendono impegnare, tra questi: Torino, Forlì e
Castelfranco. Il Comune di Padova
rappresenta, da solo, più del 58%
b i b l i ograf i a
7.406 tCO2/anno verranno evitate
nel Comune di Collegno e circa
4.475 tCO2/anno nel Comune di
Bari. Si ricorda, comunque, che si
tratta di stime e che i dati non sono
né esaustivi né completi.
Tra i Comuni “piccoli”, le azioni,
complessivamente porteranno ad
un risparmio di emissioni pari a
10.016 tCO2/anno, circa l’11% del
totale delle emissioni risparmiate
in questo ambito. Ben 5.511 tCO2/
anno saranno attribuibili alle azioni messe in campo nel Comune di
Lodi, 3.563 tCO2/anno nel Comune
di Grugliasco, 1.945 tCO2/anno nel
Comune di Castelfranco Emilia e
409 tCO2/anno nel Comune di Abbiategrasso.
Le azioni volte alla mobilità sostenibile sono programmate per il
51,35% nelle città medio grandi, tra
queste spicca il Comune di Firenze,
attraverso azioni principalmente incentrate sulle politiche di eco road
pricing, potenziamento delle piste
ciclabili e bike sharing, promozione della mobilità elettrica, gestione
ottimizzata del traffico, con le quali
intende abbattere 198.000 tCO2/
anno. Seguono, con il 30% circa,
le grandi città; Torino, attraverso 2
azioni, una volta alla razionalizzazione del sistema di trasporto privato
e potenziamento del trasporto pubblico locale e l’altra all’incremento
della mobilità ciclabile, si attende
di eliminare rispettivamente 69.653
tCO2/anno e 22.218 tCO2/anno. Il
Comune di Genova con l’estensione della Blue Area, il potenziamento del car sharing e lo sviluppo
della soft mobility (ciclabilità), complessivamente si aspetta una riduzione al 2020 di circa 70.408 tCO2/
41
Prospettive
EFFICIENZA ENERGETICA
Le tecnologie dell’Informazione
e della Comunicazione
per l’efficienza energetica
Le politiche ambientali, energetiche e industriali dell’Unione Europea si sono recentemente
saldate in una strategia che promuove le tecnologie dell’efficienza energetica. Queste politiche
sono dovute a motivi ambientali e di sicurezza dell’approvvigionamento energetico, ma sono
fondamentali anche per lo sviluppo economico dell’Unione, perché i Paesi in grado di dominare
oggi le tecnologie emergenti avranno domani un indubbio vantaggio competitivo. Fra queste, si
riconosce una crescente importanza alle Tecnologie dell’Informazione e della Comunicazione (ICT)
con fini abilitanti all’incremento dell’efficienza energetica negli edifici, nei trasporti, nell’industria e
nelle reti elettriche
n Alberto Moro
N
egli ultimi anni le politiche energetiche dell’Unione Europea si sono focalizzate sul tema dell’efficienza energetica. Considerandone il potenziale, l’efficienza energetica può essere vista come la maggiore
risorsa energetica d’Europa; per questo, l’Unione si è
posta come obiettivo il risparmio, rispetto alle previsioni, del 20% dei propri consumi energetici entro il
2020. Il piano strategico che riguarda le tecnologie
energetiche dell’Unione, noto come “SET-PLAN”, mette in grande rilievo l’importanza delle tecnologie per
l’incremento dell’efficienza energetica, e la Commissione Europea, attraverso il Centro Comune di Ricerca (JRC), monitora lo sviluppo di queste tecnologie e
l’implementazione del SET-PLAN (si veda al sito: http://
setis.ec.europa.eu/)
Le politiche di sviluppo industriale della Commissione
riconoscono alle tecnologie dell’Informazione e della Comunicazione (ICT), un ruolo fondamentale per la crescita
economica, in quanto il settore dell’ICT è trainante per la
crescita del PIL e la creazione di nuovi posti di lavoro.
L’intersezione tra le politiche dell’efficienza energeti-
n Alberto Moro
Commissione Europea, Centro Comune di Ricerca (JRC) di Ispra,
Istituto per l’Energia e i Trasporti (IET)
42
EAI
Energia, Ambiente e Innovazione
6/2012
Tecnologie che
consentono un aumento
dell’efficienza energetica
Tecnologie
dell’ICT
Tecnologie dell’ICT per l’efficienza energetica
ca e dell’ICT ha portato alla recente definizione di una
nuova area tecnologica, che può essere detta “dell’ICT
per l’efficienza energetica”. Il 7° Programma Quadro
prevede dei finanziamenti specifici per la ricerca e
l’innovazione in questo nuovo settore. Per maggiori
informazioni si veda al sito:
http://ec.europa.eu/information_society/newsroom/
cf/itemlongdetail.cfm?item_id=8807 .
La comunicazione della Commissione COM(2008) 241
specifica che con il termine ICT vanno intese non solo
le tecnologie software e hardware nell’ambito delle telecomunicazioni ma anche componenti e sistemi elettronici. Nell’area tecnologica dell’ICT per l’efficienza
energetica ricadono quindi i sistemi, i dispositivi e i
componenti che consentono risparmi diretti ottenibi-
Efficienza energetica dei dispositivi dell’ICT
Le tecnologie dell’ICT, in quanto tecnologia abilitante,
consentono di ottenere un risparmio energetico in diversi settori (es. negli edifici, nei trasporti), ma gli stessi equipaggiamenti dell’ICT, quali computer domestici,
server e dispositivi elettronici, consumano energia. Una
prima riduzione dei consumi può quindi
essere ottenuta aumentando il rendimento delle apparecchiature dell’ICT, con interventi sull’elettronica di potenza delle
sezioni di alimentazione, sulle architetture
dei microprocessori e dei sistemi di calcolo, sulla realizzazione di display a minor
fabbisogno energetico, ma anche sulla gestione dei flussi termici di raffreddamento.
I server informatici, sempre più impiegati
nell’industria ed in ambito commerciale
per applicazioni di elaborazione, archiviazione o distribuzione di dati, consumano
grandi quantità di energia. Le misure per aumentare
l’efficienza energetica delle risorse di calcolo sono note
anche come Green Computing. Si noti che gli interventi per ridurre i consumi dei server non riguardano
necessariamente la progettazione elettronica ma possono interessare anche aspetti tecnici ed organizzativi
connessi all’uso degli apparati dell’ICT stessi. Si pensi,
ad esempio, ai grossi centri di calcolo, ove gli impianti di raffreddamento assorbono circa il 40% dell’energia. Qui, interventi termotecnici quali l’ottimizzazione
nel posizionamento dei condizionatori, la gestione dei
flussi d’aria o l’isolamento della sala macchine possono
portare a grossi risparmi, sia energetici che economici.
Inoltre, considerando che un server utilizzato al minimo
delle proprie capacità consuma quasi come un server
impiegato a pieno carico, risulta energeticamente più
conveniente concentrare il carico di lavoro in pochi,
grossi, sistemi di calcolo piuttosto che sparpagliare lo
stesso lavoro su molte macchine di piccola potenza. Di
conseguenza, utenti che non riescono a sfruttare a pieno
la capacità dei loro server, possono considerare interessanti le soluzioni di esternalizzazione dei loro data center
in sistemi di Cloud computing, che oltre a ridurre i costi
di investimento e di manutenzione, consentono una riduzione dei consumi energetici, a parità di lavoro svolto.
Nell’ambito dei data center, come per altre tecnologie
dell’ICT, sono in corso delle iniziative volontarie di riduzione dei consumi. Tra queste, l’iniziativa “Energy Star”
ha avuto un buon successo nel promuovere l’etichettatura volontaria di dispositivi informatici da ufficio che rispondono a determinati parametri di efficienza energetica. Per altri dispositivi, la Commissione Europea stimola
EAI
Energia, Ambiente e Innovazione
6/2012
Prospettive
li dal miglioramento dei consumi degli
stessi apparati elettronici (es. stand-by),
oppure, in quanto tecnologia abilitante, risparmi indiretti in altri settori industriali (es. dispositivi per la gestione
dell’energia degli edifici, per l’organizzazione della logistica ecc.)
Sono circa 20 anni che le tecnologie
dell’ICT permettono un migliore controllo dei processi in settori quali: edilizia, trasporti, industria e distribuzione
dell’energia elettrica, ma l’idea di individuare nelle tecnologie dell’ICT una
opportunità per favorire l’incremento dell’efficienza
energetica è un fatto relativamente nuovo, che potrebbe permettere di risolvere l’incoerenza tra il modello
tradizionale di sviluppo economico e la necessità di un
continuo incremento dei consumi energetici.
Per contro, tra gli aspetti critici che rallentano la diffusione di queste applicazioni, figurano la rapida obsolescenza delle apparecchiature, la difficoltà di integrazione di tecnologie eterogenee, la necessita di ripartizione
degli investimenti tra operatori diversi e in competizione tra loro, la mancanza di una normativa specifica, la
limitata conoscenza delle tecnologie e dei relativi vantaggi da parte del decisore politico e dell’utenza.
In questo articolo si intende presentare brevemente
la tematica dell’ICT per l’efficienza energetica facendo riferimento alle seguenti famiglie di applicazioni
tecnologiche: efficienza energetica dei dispositivi
dell’ICT; smart grids, ICT per l’efficienza energetica negli edifici, ICT per l’efficienza energetica nei trasporti.
Si tenga presente che esistono altri settori applicativi,
qui non approfonditi, che presentano delle potenzialità di efficientamento energetico. Fra questi, citiamo le
smart cities, l’illuminazione intelligente, il commercio
elettronico, le teleconferenze, il telelavoro.
43
l’adozione di specifici Codici di condotta dell’ICT, che
propongono linee guida, raccomandazioni e buone pratiche per l’uso efficiente di tecnologie quali: alimentatori
esterni per dispositivi elettronici con ridotte perdite in
modalità di stand-by, gruppi di continuità (UPS), ricevitori televisivi, dispositivi per le telecomunicazioni a banda
larga e un codice di condotta per gli stessi data center.
Queste iniziative, guidate dall’Istituto per l’Energia e i
Trasporti del JRC, vedono la partecipazione di numerosi operatori industriali, produttori e utenti interessati
a tener vivo un dibattito che riguarda mercato, prodotti
e prestazioni dei sistemi dell’ICT.
Maggiori informazioni sono disponibili al sito: http://iet.
jrc.ec.europa.eu/energyefficiency/ict-codes-conduct.
Reti elettriche intelligenti (Smart Grids)
Le attuali reti elettriche sono state progettate per trasportare, in modo unidirezionale, l’energia prodotta da poche
centrali di grossa potenza verso un’utenza tipicamente
passiva. La recente liberalizzazione del mercato dell’energia e la tendenza a incentivare la generazione distribuita,
eventualmente da fonti rinnovabili, tende oggi a rivoluzionare la concezione e la gestione delle reti elettriche.
Le reti elettriche intelligenti, o smart grid, sono concetti
di impianti elettrici fortemente integrati dalle tecnologie dell’ICT. Queste tecnologie consentono il controllo
della rete anche in presenza di un’elevata percentuale
di generatori distribuiti di piccola potenza e con flussi
44
EAI
Energia, Ambiente e Innovazione
6/2012
di energia bidirezionali. Si pensi, ad esempio, a una
rete con una forte presenza di piccoli impianti di generazione da rinnovabili (es. eolico e solare), che, per
loro natura, possono avere forti variazioni di potenza
nel tempo; condizione, questa, che rende instabile un
sistema elettrico di tipo tradizionale.
Una rete elettrica di tipo smart grid, oltre a gestire al
meglio la generazione distribuita, porterebbe anche ad
aumentare l’efficienza energetica del sistema elettrico
a seguito di minor perdite in linea, in quanto l’energia
verrebbe prodotta più vicino all’utilizzatore finale.
Nella figura 1 è riportato un esempio di smart grid che
integra varie tecnologie energetiche: grossi impianti
eolici offshore (1), veicoli elettrici (2), utenze civili tradizionali (3), piccolo fotovoltaico (4), prosumers,
cioè utenti al contempo produttori e consumatori (5),
centrali termolettriche (6), aggregatori di consumi e
sistemi ICT di controllo (7), utenze industriali (8), grossi impianti fotovoltaici (9), mini-eolico (10), sistemi di
telecomunicazione (11), reti di trasmissione (12) e distribuzione (13) dell’energia elettrica, sistemi di accumulo dell’energia (14) e utenze commerciali (15).
Il JRC svolge diverse attività per favorire la transizione
verso le reti elettriche future quali: la raccolta e analisi
di dati sui sistemi elettrici, sulle reti di trasmissione e
sui progetti di reti intelligenti in Europa; l’analisi di caratteristiche e comportamenti (statici e dinamici) delle
reti elettriche nell’integrazione di fonti di energia rinnovabile, auto elettriche e fonti distribuite di energia;
ICT per l’efficienza energetica negli edifici
Nel settore dell’edilizia, l’informatica può contribuire
alla progettazione di edifici nuovi più efficienti, impiegando algoritmi che minimizzino i consumi energetici e involucri che sfruttino al meglio le tecniche di
riscaldamento passive ed attive, tenendo conto delle
correnti d’aria, del livello di insolazione e del microclima, consentendo di integrare più facilmente pannelli
solari e impianti geotermici.
Elettronica e sensoristica possono essere impiegate per
gestire al meglio i flussi energetici in nuove costruzioni, ma anche nel vasto parco degli edifici esistenti, ad
esempio mediante sistemi di illuminazione controllati o
mediante le applicazioni tipiche della domotica o smart
building. In generale, le tecnologie dell’ICT sono solo
alcune delle applicazioni utilizzate nel più ampio settore del green building. Per avere degli esempi di buone
pratiche di green building si veda al sito: http://iet.jrc.
ec.europa.eu/energyefficiency/greenbuilding
ICT per l’efficienza energetica nei trasporti
Il settore dei trasporti è responsabile del consumo di
circa un terzo dell’energia mondiale. Il trasporto su strada, che impiega circa il 70% di queste risorse, presenta
ampi margini di riduzione dei consumi energetici, ed in
particolare di riduzione delle emissioni di gas serra.
Le tecnologie dell’informazione e della comunicazione
applicate ai sistemi di trasporto sono tradizionalmente
note con il nome di Intelligent Transport Systems (ITS).
Questa definizione include molti tipi di tecnologie, anche
complesse, che possono integrare sensori per il monitoraggio del traffico, centraline per la raccolta dati, sistemi
di telecomunicazione per la distribuzione di informazioni e codici di calcolo per la loro elaborazione. Tra le applicazioni ITS figurano, ad esempio, l’ottimizzazione dei
flussi del traffico attraverso informazioni ai viaggiatori,
la navigazione satellitare, la simulazione e pianificazione
delle politiche della mobilità. Risultati positivi in termini
economici, produttivi e di qualità del servizio sono stati
conseguiti anche nella gestione informatizzata delle flotte commerciali e dei processi logistici.
Le tecnologie dell’ICT sono molto presenti anche nelle
singole autovetture, sempre più pervase da dispositivi elettronici e computer di bordo. Queste tecnologie
sono un grosso aiuto al miglioramento delle prestazioni di tutti i tipi di automobili ma, in questa sede,
vorremmo far presente quanto siano oggi determinanti per la diffusione di quella che è per molti la nuova
speranza del mercato dell’auto: l’auto elettrica.
Sistemi di ricarica delle batterie ad alta velocità, inverter per la conversione CC/CA e variatori di velocità per
i motori sono (insieme agli accumulatori) le tecnologie
che più hanno semplificato le modalità d’uso, aumentato l’efficienza e ridotto i costi dei veicoli elettrici. In
un futuro prossimo, sistemi di elettronica avanzata consentiranno di gestire al meglio l’energia elettrica immagazzinata in super-condensatori (supercapacitors)
ora impiegati in autovetture elettriche o ibride per
immagazzinare l’energia in frenata. Questi super (o ultra) condensatori, hanno ancora una capacità inferiore
a quella delle batterie, ma potranno essere impiegati
come deposito tampone, in associazione o in competizione con le batterie stesse, risultando molto più leggeri, economici, con tempi di carica/scarica più brevi e
durata di vita maggiore agli attuali accumulatori.
Allo scopo di testare componenti e sistemi funzionali
allo sviluppo e alla standardizzazione delle auto elettriche, anche in relazione con la loro integrazione nella
rete e ai concetti di smart grid, il Centro Comune di
Ricerca (JRC) sta costruendo dei nuovi laboratori presso i Centri di Ricerca di Petten e Ispra. Si veda, per
dettagli, al sito: http://iet.jrc.ec.europa.eu/
Nel luglio 2012 è stato rinnovato il Memorandum of Understanding tra l’Istituto per l’Energia e i Trasporti del
Centro Comune di Ricerca (JRC) e l’ENEA per collaborazioni sui settori delle energie rinnovabili, degli edifici
efficienti e della mobilità elettrica sostenibile. Questo
accordo di collaborazione scientifica è un’importante
opportunità per contribuire agli obiettivi di riduzione
delle emissioni, sviluppo delle tecnologie dell’efficienza energetica e rafforzamento delle industrie europee
l
connesse alla nascente green economy.
EAI
Energia, Ambiente e Innovazione
6/2012
Prospettive
la cooperazione con i principali attori europei del sistema elettrico, stimolando il dibattito e il confronto fra
le molteplici visioni del sistema stesso.
Maggiori informazioni sono disponibili al sito: http://
ses.jrc.ec.europa.eu
45
Prospettive
CAMBIAMENTI CLIMATICI
L’impatto dei cambiamenti climatici
sul sistema energetico italiano:
verso una strategia nazionale
di adattamento
Oltre alle politiche e misure di mitigazione dei cambiamenti climatici, occorre anche studiare ed
attuare strategie di adattamento che minimizzino gli impatti delle variazioni climatiche. In questo
articolo vengono descritte le possibili conseguenze del cambiamento climatico sul sistema
energetico e suggerite le misure necessarie a ridurre le vulnerabilità
n Domenico Gaudioso
I
l settore energetico rappresenta un esempio di settore economico particolarmente vulnerabile ai cambiamenti climatici: da un lato, la produzione e il consumo di energia sono particolarmente sensibili rispetto
all’andamento delle temperature e ai fenomeni estremi e, dall’altro, i servizi energetici devono rispondere
a criteri molto severi, in termini quantitativi e qualitativi, soprattutto per quanto riguarda la loro continuità.
In particolare, con l’aumento della temperatura media globale, aumenteranno i consumi energetici per
il riscaldamento degli ambienti e si ridurranno quelli
per il loro raffrescamento; l’entità di questi cambiamenti potrà variare per le diverse regioni e stagioni.
L’effetto complessivo sulla domanda di energia dipenderà dagli andamenti dei parametri meteorologici a
livello locale e stagionale, come anche dalla struttura
dell’approvvigionamento energetico (i sistemi di condizionamento estivo dell’aria sono infatti alimentati da
energia elettrica, mentre il riscaldamento fa anche uso
diretto di combustibili fossili e rinnovabili). Le variazioni stagionali eserciteranno un’influenza diretta sul
picco della domanda elettrica.
n Domenico Gaudioso
ISPRA, Dipartimento Stato dell’Ambiente e Metrologia Ambientale
– Servizio Monitoraggio e Prevenzione degli Impatti sull’Atmosfera
46
EAI
Energia, Ambiente e Innovazione
6/2012
La produzione e l’offerta di energia saranno inoltre
influenzate dai cambiamenti climatici: a) nel caso in
cui gli eventi meteorologici estremi diventino più intensi, b) nel caso in cui si debba fare fronte a riduzioni
nella disponibilità delle risorse idriche per la produzione idroelettrica o per il raffreddamento delle centrali termo-elettriche c) laddove il cambiamento delle
condizioni climatiche influenzi le decisioni sulla localizzazione degli impianti e d) laddove il cambiamento
delle condizioni climatiche influenzi (positivamente o
negativamente) la produzione di energia eolica, solare
e da biomassa.
Nonostante la sua elevata vulnerabilità, raramente il
settore energetico è stato oggetto di una trattazione
specifica nell’ambito dei documenti di base sugli impatti dei cambiamenti climatici: ad esempio, il contributo del Gruppo di Lavoro II al Quarto Rapporto di
Valutazione dell’IPCC fa riferimento all’energia all’interno del capitolo 7 “Industria, insediamenti e società”
(Alcamo et al., 2007), mentre la piattaforma europea
sull’adattamento “Climate-Adapt” ne parla all’interno della sezione relativa alle infrastrutture (http://
climate-adapt.eea.europa.eu/). Le tematiche relative
all’energia sono oggetto di maggiore attenzione nelle strategie di adattamento sviluppate da molti Stati
membri dell’Unione Europea (in particolare, in quelle
della Finlandia, della Francia, della Germania, del Por-
Caratterizzazione degli impatti nella regione
mediterranea e in Italia
Nel settore residenziale e nel terziario, con l’aumento
della temperatura media globale, meno energia sarà
richiesta per il riscaldamento degli ambienti e più
energia sarà invece richiesta per il loro raffrescamento; l’entità di questi cambiamenti potrà variare per le
diverse regioni e stagioni. Nei Paesi dell’Europa meridionale, a causa dell’aumento delle temperature massime, maggiore di quello delle minime, e della minore efficienza dei sistemi di raffrescamento rispetto a
quelli di riscaldamento, la domanda di energia per il
raffrescamento aumenterà più di quanto si ridurrà la
domanda di energia per il riscaldamento, e anche l’incremento dei costi per il raffrescamento supererà di
gran lunga i risparmi relativi al riscaldamento (Mima
et al., 2011).
I cambiamenti climatici previsti per l’area del Mediterraneo avranno l’effetto di incrementare molto i consumi elettrici nella stagione estiva, anche per il crescente utilizzo di sistemi di condizionamento (Apadula et
al., 2008; Gaudioso et al., 2009). Questo trend sarà influenzato dall’aumento della frequenza e dell’intensità
delle ondate di calore (Apadula et al., 2012). È pertanto facilmente prevedibile, date le proiezioni climatiche
attese per il XXI secolo, che la richiesta estiva sarà in
sostanziale continuo aumento con probabili rischi di
blackout dovuti al carico di punta estivo. A compensare, sia pur parzialmente, tale aumento della richiesta
elettrica nel periodo estivo vi sarà di certo la minore
richiesta nel periodo invernale a causa dell’utilizzo
meno intensivo dei sistemi di riscaldamento di tipo
elettrico.
La capacità produttiva degli impianti termoelettrici
potrebbe essere influenzata negativamente da alcuni
fenomeni legati ai cambiamenti climatici, come inondazioni, riduzioni nella disponibilità di acqua di raffreddamento e aumento della sua temperatura e, infine,
le temperature estreme. La frequenza di questi eventi
tenderà ad aumentare, con l’aumento della frequenza
e dell’intensità degli eventi estremi di temperatura e
di precipitazione e, di conseguenza, di quelli alluvionali. Nelle zone costiere i fenomeni di inondazione
saranno inoltre influenzati dall’aumento del livello del
mare.
Le variazioni meteo-climatiche hanno portato e porteranno nel tempo ad una riduzione delle disponibilità
idriche per la produzione idroelettrica e ad una maggiore difficoltà nella loro gestione. Mentre sinora l’andamento delle precipitazioni, in particolare sul Nord
Italia, non presenta un trend significativo, per il futuro
ci si attende una sensibile riduzione delle precipitazioni, in particolare, nella stagione estiva.
Per l’energia eolica, le indicazioni provenienti dal
downscaling di modelli AOGCM suggeriscono che,
entro la fine del secolo, la densità di energia del vento nel periodo invernale potrebbe ridursi nell’Europa meridionale; le variazioni sarebbero comunque
trascurabili rispetto alla variabilità naturale (Pryor e
Barthelmie, 2010). L’unico impatto di entità rilevante
sul funzionamento delle turbine eoliche dovrebbe essere quello legato all’intensificazione degli eventi con
velocità del vento particolarmente elevate.
Per quanto riguarda l’utilizzo energetico delle biomasse, l’Italia è fortemente dipendente dalle importazioni di
legna da ardere, di cippato e di scarti di legno. La vulnerabilità del settore dal punto di vista dell’approvvigionamento delle materie prime è quindi collegata ai trend
climatici nei Paesi esportatori, ma anche alle loro politiche forestali. Gli impatti dei cambiamenti climatici sulle
tecnologie di conversione sono invece analoghi a quelli
già visti per i sistemi di produzione termoelettrici.
I pochi studi che analizzano gli impatti dei cambiamenti climatici sul funzionamento dei sistemi fotovoltaici nel bacino mediterraneo indicano che, a fronte di
un aumento medio della temperatura di 2 C, l’efficienza delle celle solari potrebbe ridursi dell’1% (Pašičko,
2010). Questo effetto sarebbe largamente compensato
da un aumento della radiazione solare – e quindi della
resa delle celle – che può essere assunto pari al 7%.
In ogni caso, per tutte le fonti rinnovabili diverse
dall’idroelettrico (eolico, biomasse, fotovoltaico), si
prevedono impatti di entità minore, che si manifesteranno peraltro con tempi più lunghi della vita media
degli impianti (Rademaekers et al., 2011).
Nell’area del Mediterraneo, gli impatti potenziali più si-
EAI
Energia, Ambiente e Innovazione
6/2012
Prospettive
togallo, della Scozia e della Spagna) e da alcuni Paesi
extraeuropei, come il Canada.
47
Prospettive
gnificativi dei cambiamenti climatici sul funzionamento
delle reti elettriche saranno quelli dovuti all’aumento
delle temperature e ai fenomeni di siccità. L’aumento
della temperatura determina infatti un aumento della resistenza dei cavi, e quindi delle perdite di trasmissione, e
rende più difficile la dissipazione del calore prodotto.
Opzioni di adattamento specifiche
Nel settore residenziale e nel terziario, i criteri di costruzione applicati nella nuova edilizia hanno raggiunto buoni valori di efficienza nel risparmio energetico per ciò
che concerne l’uso del riscaldamento, mentre i medesimi criteri conducono a deboli svantaggi nell’utilizzo dei
sistemi di raffrescamento (Madonna, 2012). È auspicabile
quindi che si realizzino interventi di adattamento, sistematici e generalizzati, del comparto edilizio nazionale
atti alla riduzione dei fabbisogni di climatizzazione per
la stagione invernale e, soprattutto, per quella estiva.
Al fine di ridurre le conseguenze delle crisi idriche
sulla produzione termoelettrica, è opportuno mettere
in atto una serie di provvedimenti di razionalizzazione,
programmazione e riduzione dei consumi, che non riguardano esclusivamente l’ambito della produzione di
energia elettrica. Nei casi più gravi, è possibile che si
debba ridurre la produzione degli impianti o addirittura sospenderne il funzionamento. Al fine di ridurre la
vulnerabilità degli impianti termoelettrici all’aumento
delle temperature e alla riduzione delle portate dei
corpi fluviali, sarebbe opportuno sostituire i sistemi
di raffreddamento a ciclo aperto con sistemi a ciclo
chiuso, e dotarli di raffreddatori ad aria o di pompe
addizionali, oppure di torri di raffreddamento.
Per l’energia idroelettrica, a lungo termine la riduzione delle risorse idriche disponibili comporterà
un calo della produzione idroelettrica e renderà necessaria una crescente attenzione nei confronti della
variabilità dell’apporto d’acqua lungo l’arco dell’anno
al fine di tutelare le condizioni ecologiche del corso
d’acqua e evitare i conflitti legati agli altri usi della risorsa, in particolare quelli agricoli. Nella gestione ordinaria, la crescente variabilità delle precipitazioni e,
di conseguenza, delle disponibilità idriche richiederà
un aumento dei volumi dei serbatoi di stoccaggio.
Gli impatti attesi per gli impianti eolici, quelli alimen-
48
EAI
Energia, Ambiente e Innovazione
6/2012
tati a biomassa e quelli fotovoltaici sono valutati di entità talmente ridotta, da poter essere trascurati nelle
strategie a lungo termine e nella gestione ordinaria
per questi impianti. Per un impianto a biomassa che
produce elettricità per il carico di base, un’elevata frequenza di ondate di calore può comportare riduzioni
significative della produzione; in questi casi è necessario valutare, in fase di progettazione, l’opportunità di
investire in sistemi di raffreddamento più efficaci.
Per la trasmissione e distribuzione di energia elettrica,
esistono diverse misure di tipo win-win, che possono
essere prese in considerazione già oggi per i loro effetti positivi, anche senza tener conto dell’aumento
della resilienza ai cambiamenti climatici: ad esempio, l’interramento di parte della rete, che riduce gli
impatti visivi e ambientali, l’utilizzo di sistemi di trasmissione flessibili in corrente alternata, che rende i
sistemi più controllabili, e l’installazione di sistemi di
monitoraggio, che facilita l’integrazione di fonti intermittenti (Rademaekers et al., 2011).
Priorità di intervento per il settore
Nel 2012, il Ministero dell’Ambiente, della Tutela del
Territorio e del Mare ha dato l’avvio alla preparazione
della Strategia Nazionale di Adattamento ai Cambiamenti Climatici. Nell’ambito delle attività previste, un
ruolo cruciale è stato attribuito al coinvolgimento degli stakeholder, con il duplice fine di garantire la coerenza delle azioni che saranno intraprese a tutti i livelli
e di avviare un processo di capacity-building di tutti i
soggetti coinvolti (Castellari, 2012).
Per le tematiche energetiche, in particolare, è necessario
tener conto del fatto che gran parte delle decisioni di
sviluppo del settore sono di competenza di soggetti privati, come le società di produzione e di distribuzione di
energia elettrica. È quindi necessario che la strategia si
ponga l’obiettivo di coinvolgere questi interlocutori nella
definizione del quadro nazionale di riferimento e nelle
attività di ricerca, come è stato fatto ad esempio nel Regno Unito, anche al fine di evitare casi di maladaptation.
Per quanto riguarda le scelte relative alla localizzazione e alla progettazione degli impianti energetici, è
necessario che, soprattutto nel caso di infrastrutture a
lunga vita media che comportano elevati investimenti,
Prospettive
delle misure fin qui adottate in relazione ai primi due
obiettivi (diversificazione delle fonti primarie, promozione delle fonti rinnovabili e dell’efficienza energetica, demand side management, utilizzo di sistemi di
stoccaggio dell’energia, integrazione e sviluppo delle
reti, utilizzo di contratti che prevedano l’interrompibilità del servizio) sembrano avere un effetto positivo ai
fini dell’aumento della resilienza del sistema nei confronti dei cambiamenti climatici. È quindi necessario
tener conto di tutte le possibili sinergie nella definizione delle strategie aziendali, e garantire che nella valutazione delle singole iniziative si includa l’obiettivo
della riduzione dei rischi e della vulnerabilità rispetto
l
alle conseguenze dei cambiamenti climatici. b i b l i ograf i a
si tenga conto dei cambiamenti climatici a partire dalle fasi iniziali del progetto, attraverso l’utilizzo di opportuni criteri di progettazione e l’adozione di misure
tecnologiche specifiche. Questo vale, in particolare,
per le opere soggette a VIA (Valutazione di Impatto
Ambientale), per le quali gli studi di impatto ambientale dovrebbero prendere obbligatoriamente in considerazione i mutamenti nelle condizioni climatiche di
riferimento che potranno verificarsi per un periodo
corrispondente alla vita media dell’opera.
A questo fine, non sarà sufficiente fare riferimento
ai più autorevoli scenari climatici su scala globale o
continentale, ma sarà anche necessario sviluppare
scenari climatici su base regionale, che permettano di
seguire l’evoluzione delle principali variabili climatiche tenendo conto dell’orografia, dell’uso dei suoli e
delle isole di calore urbane. L’utilizzo di questi modelli
risulterà essenziale, ad esempio, nel caso della produzione idroelettrica, al fine di evitare che si accentuino
i conflitti tra l’utilizzo dell’acqua per la produzione di
elettricità e gli altri utilizzi (agricolo, industriale, usi
civili, navigazione fluviale).
Ai fini della gestione dei rischi legati alla gestione degli impianti energetici, in particolare di quelli termoelettrici, un ruolo importante potrebbe essere svolto dai
sistemi assicurativi. Al momento, però, questa opzione
di adattamento potrebbe risultare problematica, dal
momento che le società di assicurazione sono spesso
in difficoltà nel valutare i rischi del cambiamento climatico, e potrebbero essere indotte, dall’elevata incertezza, a rifiutarsi di assicurare una specifica infrastruttura,
a meno che il gestore non offra garanzie addizionali.
In questi casi, i Governi possono intervenire prevedendo l’introduzione di un’assicurazione obbligatoria,
fornendo sovvenzioni per i costi di assicurazione per i
beneficiari, intervenendo come riassicuratori di ultima
istanza o compensando i danneggiati attraverso aiuti
diretti su base ex post (Paklina, 2003).
Infine, è molto probabile che, anche in futuro, le società elettriche continueranno a dare priorità alla
mitigazione – ovvero alla riduzione delle emissioni
di gas-serra – e alla riduzione della vulnerabilità rispetto all’approvvigionamento delle materie prime,
invece che all’adattamento alle conseguenze dei cambiamenti climatici. È però il caso di notare che molte
[1] Alcamo J., Moreno J.M., Nováky B., Bindi, M., Corobov R., Devoy
R.J.N., Giannakopoulos C.. Martin E., Olesen, J.E., Shvidenko, A. (2007)
Europe. Climate change 2007: impacts, adaptation and vulnerability. In
Contribution of Working Group II to the Fourth Assessment Report of the
Intergovernmental Panel on Climate Change (IPCC); Parry, M.L., Canziani,
O.F., Palutikof, J.P., van der Linden, P.J., Hanson, C.E., Eds; Cambridge
University: Cambridge, UK; pp. 541-580.
[2] Apadula, F., Bassini, A., Elli, A., Scapin, S., 2012: Relationships between
meteorological variables and monthly electricity demand, Applied Energy
98 (2012) 346-358.
[3] Apadula, F., Negri, A., 2008: Cambiamenti climatici: dubbi, certezze e
probabili impatti sul sistema elettrico, AEIT n.11, novembre 2008.
[4] Castellari, S., 2012: Verso una strategia nazionale di adattamento,
presentazione alla riunione svoltasi presso la Direzione Generale per lo
Sviluppo Sostenibile, il Clima e l’Energia del Ministero dell’ambiente e della
tutela del territorio e del mare il 27 febbraio 2012, http://www.minambiente.
it/export/sites/default/archivio/allegati/vari/incontro_27_02_2012_dgsec_
castellari.pdf.
[5] Gaudioso, D., Masullo, A. 2009: Impatti dei cambiamenti climatici sul
settore energetico, in “I cambiamenti climatici in Italia: evidenze, vulnerabilità
e impatti”, a cura di S. Castellari e V. Artale, Bononia University Press.
[6] Madonna, F., 2012: Indicatori di consumo per la climatizzazione degli
edifici, Rapporto RSE per la Ricerca di Sistema, Marzo 2012.
[7] Mima, S., Criqui, P., Watkiss, P., 2011: Technical Policy Briefing Note 4:
Energy, The Impacts and Economic Costs of Climate Change and Energy
in the European Union: Summary of Sector Results from the ClimateCost
project, funded by the European Community’s Seventh Framework
Programme.
[8] Paklina, N., 2003: Flood Insurance, OECD, 2003.
[9] Pašičko, R., 2010: Impacts of Climate Change on Renewable Energy Sources
in Croatia. Joint ICTP-IAEA Workshop on Vulnerability of Electricity Systems
to Climate Change and Extreme Events, UNDP Croatia, April 2010.
[10]Pryor, S.C., Barthelmie, R.J., 2010: Climate change impacts on wind energy:
A review. Renewable and Sustainable Energy Reviews 14, 430-437
[11]Rademaekers, K., van der Laan, J., Boeve, S., Lise, W., Kirchsteiger, C.,
2011: Investment needs for future adaptation measures in EU nuclear
power plants and other electricity generation technologies due to effects
of climate change – Final report, European Commission – Directorate
General for Energy, Contract No. TREN/09/NUCL/SI2.547222, EUR
24769, March 2011.
EAI
Energia, Ambiente e Innovazione
6/2012
49
Studi&ricerche
REVIEW & ASSESSMENT PAPERS
Persistent Organic Pollutants
in a global changing climate
Climate change is not only altering the structure and function of natural and human systems, but
is also impacting on less visible and less apparent aspects. There is a growing body of evidence
that climate change will have broad negative impacts on the behaviour and fate of environmental
contaminants. This paper briefly examines the information reported in the scientific literature
to provide a short review of the current state of knowledge on the environmental behaviour of
persistent organic pollutants (POPs) and the potential impacts of climate change on environmental
dynamics of POPs. Reference is provided to the global efforts undertaken with the Stockholm
Convention to reduce environmental and human exposure to POPs and to the risk that global
warming could undermine such efforts
n Pasquale Spezzano
Gli inquinanti organici persistenti
e il cambiamento climatico globale
I cambiamenti climatici non solo stanno modificando la struttura e la funzione dei sistemi naturali e umani,
ma hanno effetti anche su aspetti meno visibili ed evidenti. Numerose evidenze indicano che i cambiamenti
climatici avranno notevoli ripercussioni sul comportamento e sul destino dei contaminanti ambientali. Il
presente articolo esamina brevemente le informazioni riportate in letteratura per fornire una breve rassegna
dello stato attuale delle conoscenze sul comportamento ambientale degli inquinanti organici persistenti
(POPs) ed i potenziali effetti dei cambiamenti climatici sulla dinamica ambientale dei POPs. Viene inoltre
fatto riferimento all’impegno globale assunto con la Convenzione di Stoccolma per ridurre l’esposizione
ambientale ed umana ai POPs ed al rischio che il riscaldamento globale possa compromettere questi sforzi
Persistent Organic Pollutants (POPs)
Persistent organic pollutants (POPs) are chemical
substances that, by definition, have three primary attributes: environmental persistence, tendency to bioaccumulate in the fatty tissue of living organisms, and
toxicity. POPs are among the most toxic chemicals
known to both humans and other organisms. Specific
effects associated with POPs include endocrine di-
n Pasquale Spezzano
ENEA, Technical Unit for Environmental Technologies
50
EAI
Energia, Ambiente e Innovazione
6/2012
sruption, immunotoxicity, neurotoxicity, reproductive
toxicity, mutagenicity and carcinogenicity. These effects may occur in exposed individuals as well as in
their offspring. [*]
An important property of POPs is that of semi-volatility,
a feature that permits these compounds to occur either
in the vapour phase or adsorbed/absorbed on environmental surfaces. Some POPs cycle in the global
environment for many decades because of re-volatilization from environmental compartments contaminated in the past. These chemicals can undergo seasonal
cycles of evaporation from warm regions and subsequent deposition in colder regions (grass-hopping)[1].
POPs in air may be degraded by photochemical re-
REVIEW & ASSESSMENT PAPERS
the-art and legal framework of the time. The identification of POP substances has just begun. Brown and
Wania[4] used a data set of more than 100,000 industrial chemicals, subjected it to screening models and
identified 120 chemicals which could be classified as
POPs. Recently, applying screening criteria to a set of
93,144 organic chemicals, 510 substances were found
which can be considered as POPs[5]. Presently, ten of
these substances are high production volume chemicals, and 249 are pre-registered in the EU under the
REACH Regulation2.
POPs fall into three categories: chlorinated pesticides,
industrial chemicals and unintentional by-products.
Historically, many POPs were used as pesticides. Although the use of many POP pesticides has been banned or restricted in the industrialized countries since
the ‘70s, their presence still remains of concern. The
problem is particularly severe in many developing
countries and countries with economies in transition,
because of stockpiles and uncontrolled dumpsites. In
Africa, it is estimated that 20% of the over 27,000 tons
of obsolete pesticide stockpiles consists of POPs that
have been banned under the SC[6].
Some POPs have been used in industrial processes
and in the production of a range of goods. For example, polychlorinated biphenyls (PCBs) have been widely used since 1930 as dielectrics in transformers
and large capacitors, heat exchange fluids, paint additives, in carbonless copy paper, and in plastics. In
1985, the use and marketing of PCBs in the European
Community were heavily restricted and, successively,
Studi & ricerche
actions and via reactions with hydroxyl radical. Wet
and dry deposition of the particle-bound fraction of
POPs is, on average, the fastest and most effective of
the removal processes from the atmosphere. The persistence of POPs in other environmental media (water,
soil, and sediment) is significantly longer. Over long
periods of time (years to decades) these compounds
eventually degrade or are sequestered in deep soils
and sediments.
As a result of releases to the environment over the past
decades, POPs are widespread and are found ubiquitously in the environment, including regions, such as
the Arctic, far from the place in which they were used
and released. In response to this global problem, international agreements have been ratified, such as the
POPs Protocol under the UN-ECE Convention on Long
Range Transboundary Air Pollution (LRTAP)[2] and the
Stockholm Convention (SC) on POPs[3].
The legally–binding SC was signed in 2001 and entered into force in 2004 with the overall objective of
protecting human health and the environment from
POPs. Since then, 178 countries have ratified the treaty.
Initially, twelve chlorinated organic chemicals (the socalled dirty dozen) were listed under the SC. Subsequently, ten new substances have been added (Table
1). Currently, five chemicals are being considered for
listing1.
A characteristic of most chemicals classified as POPs
under the SC is that in the past they were high production volume chemicals. In addition, many of these
productions were conducted according to the state-of-
Annex A (elimination)
Aldrin*, chlordane*, chlordecone*, dieldrin*, endrin*, heptachlor*, hexabromobiphenyl#, hexabromodiphenyl ether
and heptabromodiphenyl ether#, hexachlorobenzene (HCB)*#, alpha hexachlorocyclohexane*, beta hexachlorocyclohexane*,
lindane*, mirex*, pentachlorobenzene*#, polychlorinated biphenyls (PCBs)#, technical endosulfan and its related isomers*,
tetrabromodiphenyl ether and pentabromodiphenyl ether#, toxaphene*.
Annex B (restriction)
DDT*, perfluorooctane sulfonic acid, its salts and perfluorooctane sulfonyl fluoride#.
Annex C (unintentional production)
Polychlorinated dibenzo-p-dioxins (PCDD), polychlorinated dibenzofurans (PCDF), hexachlorobenzene (HCB),
polychlorinated biphenyls (PCBs), pentachlorobenzene
* Pesticide; # Industrial chemical
TABLE 1 Listing of POPs in the Stockholm Convention
Source: Stockholm Convention web site, http://chm.pops.int
EAI
Energia, Ambiente e Innovazione
6/2012
51
Studi & ricerche
production, marketing, and use were completely banned. However, about 30% of the estimated 700,000 tons
of PCBs produced in Europe has already been released into the environment. Several brominated flame
retardants (BFRs) have characteristics that qualify them
as POPs. After manufacture, the treated products can
release BFRs during use and as waste after disposal.
Thus, although several BFRs-POPs such as polybrominated diphenyl ethers (PBDEs) have been banned or
phased out, the long life-times of the products which
they are incorporated in will lead to their continued
release for several decades to come[7]. Today, disposal and recycling of POP-containing applications (such
as electronic equipment) are increasingly relocated to
developing countries.
Unintentionally produced POPs (U-POPs) such as dioxins and furans (PCDD/F) are formed as by-products
during combustion and manufacturing processes. It is
thought that global releases of U-POPs have remained
the same over the last decades, or even increased, due
to increased global combustion and production. In addition, there has been a significant shift in the emis-
sion of these substances from developed to developing countries. This suggests that, given the expected
increased energy and goods demands in developing
countries, global releases of U-POPs may increase in
coming years.
The development of global emission inventories for
U-POPs is challenging. The SC request Parties to establish national release inventories. The preliminary inventories were generally made according to the methodology recommended in the UNEP Standardized
Toolkit[8]. From a selection of PCDD/F inventories for
93 countries (excluding the EU), covering a wide range in terms of geographic distribution, size, population
and industrial development, the total annual PCDD/F
releases to the five main vectors (air, water, land, product, and residue) can be calculated in 92.8 kg TEQ3
per year. The atmosphere receives 34% of the total release (31.6 kg TEQ per year) (Figure 1). It has been
estimated that in the EU-25 some 21 kg TEQ of PCDD/F
are released per year, of which around 5 kg to air, and
16 kg as waste[9].
Available inventories show that in developed countries,
FigurE 1 Distribution of PCDD/F releases from 93 countries
Source: elaboration of data from the Stockholm Convention web site, http://chm.pops.int
52
EAI
Energia, Ambiente e Innovazione
6/2012
Impact of climate change on the environmental
fate of POPs
Climate change induced by anthropogenic activities is
one of the major global problems, with significant social, economic, ecological, and health related impacts.
The growing concern about global warming has led
to the establishment of international agreements such
as the Kyoto Protocol and the Intergovernmental Panel
on Climate Change (IPCC). Climate variability forecasted by climate change scenarios presented by the 4th
IPCC Assessment Report[14] shows that the atmospheric temperature is expected to increase by 1.8–4.0 °C
by the end of the century. In addition, climate change will affect the atmospheric and oceanic circulation
patterns, and the precipitation rate.
As the environmental behaviour of chemicals is governed by environmental factors, one of the consequences
EAI
Energia, Ambiente e Innovazione
6/2012
REVIEW & ASSESSMENT PAPERS
of climate change is its effect on the environmental distribution of chemical pollutants[15]. The Arctic Monitoring and Assessment Programme (AMAP) has conducted several activities in recent years documenting the
link between climate change and the environmental
transport and fate of contaminants, including POPs[16].
A joint UNEP/AMAP expert group reported on the implications of climate change on POPs and found that
climate change is likely to increase exposure to POPs
in some regions[17].
The distribution of an organic compound between
air, water, sediment, soil and biota depends on complex interactions between different factors within an
open environmental system, and is largely dependent
on some key equilibrium parameters which include
vapour pressure (P), water solubility (S), Henry’s law
constant (H), partition coefficient octanol/air (KOA),
and partition coefficient octanol/water (KOW). Vapour
pressure affects the volatility of a chemical from various substrates. It governs, through the Henry’s law
constant, the exchange rate of a chemical across an
air-water interface. KOA is used to describe partitioning from air to aerosols, vegetation and soils while
KOW is used to describe the uptake to aquatic organisms from water. The effects of global warming on the
environmental behaviour of POPs can be predicted by
considering temperature-driven changes in these partitioning constants[18].
Temperature is an important factor in determining the
environmental behaviour and fate of POPs, as it has a
direct influence on vapour pressure[19, 20]. An increase
in temperature of 1°C increases the volatility of a typical
POP by 10-15%. At the local level, atmospheric temperatures can, however, increase much more: for instance,
an increase from 10°C to 15°C doubles vapour pressure of PCB-153[21]. Global warming will therefore lead to
enhanced volatilization of POPs from contaminated environments, stockpiles and open applications.
The effect of higher temperatures on the increase of secondary emissions from contaminated environments is
supported by several experimental evidences[19, 22-24].
On the other hand, an increase in temperature could
accelerate the atmospheric degradation of POPs, offsetting their increase in atmospheric concentrations[1,
25, 26]. These processes respond in opposite directions
Studi & ricerche
the main PCDD/F sources are the ferrous and nonferrous metal industries and waste incineration, whereas
the predominant sources in developing countries are
releases from open burning processes as well as forest
fires, and pre- and post-harvest burning in agriculture.
In Europe, the contribution of domestic sources to UPOP emissions is becoming increasingly important in
relative terms. It was estimated that these sources may
contribute with as much as 45% of the total emissions
of PCDD/F to air[9].
However, the largest sources of PCDD/F release to the
environment are probably related to past events of formation and releases[10]. PCDD/F contamination from
pesticide use between 1950 and 1998 has been estimated at 460 kg TEQ in Japan alone. Timber treated
with pentachlorophenol (PCP) and similar compounds
resulted in an estimated total of 205-250 kg TEQ incorporated in timber in Sweden. Similarly, 378 kg TEQ
of PCDD/F were released from a single factory producing pesticides in Hamburg, and more than 366 kg
TEQ were released from spraying of defoliants during
the Vietnam War[11]. The accident at the Hoffmann-La
Roche subsidiary ICMESA in Seveso, in the summer
of 1976, released anything from hundreds of grams to
34 kilograms of 2,3,7,8-tetrachlorodibenzo-p-dioxin
(TCDD)[12, 13].
53
to changes in temperature and the net result is difficult
to predict. Additionally, degradation of POPs often includes the formation of products that are structurally
similar to the parent compound and may also be similarly toxic and persistent[27].
Winds are the most important factors for the atmospheric transport of POPs. Modified wind patterns and
higher wind speeds, as expected in the future, will lead
to faster and more efficient atmospheric long-range
transport of POPs. Desertification induced by climate
change might also lead to enhanced distribution of
POPs through dust transport associated with altered
wind fields[16].
Climate change will also lead to changes in precipitation patterns. Precipitation projections in a changing
climate differ from region to region, indicating both
decreasing and increasing trends[14]. A decrease in the
precipitation rate will lead to enhanced volatilization of
POPs to the atmosphere, while an increase in intensity
and frequency of rain events will lead to an enhanced
wet deposition of airborne POPs[15]. Snow melting is
important in POPs cycling[28]. Abundant snow deposition may lead to a large contaminant release during
snowmelt, with the potential to impact drinking and
agricultural water supplies[29].
The IPCC[14] reports that extreme precipitation events
are expected to become more frequent, widespread, and intense. The impact of extreme events on the
remobilization and redistribution of POPs has been
documented[30]. As storms and rainfall events become more intense and frequent, increasing amounts of
POPs bounded to soil particles could be transported
by erosion and transferred to rivers, lakes and oceans,
making them available to the aquatic environments[29].
Flooding events may also contribute to the dissemination and redistribution of POPs formerly stored in
sediment and soils[31,32].
Of particular concern is the melting of glaciers,
which cover most of the Polar regions, Greenland and
mountainous areas such as the Alps. Because of the
global transport, the Arctic acts as a long-term sink
for POPs. In addition, at low temperatures POPs degrade at a slower rate than in temperate regions. In
some cases, POPs are present in aquatic and terrestrial
ecosystems of the Arctic at levels similar to those in in-
54
EAI
Energia, Ambiente e Innovazione
6/2012
dustrialised countries[33]. Temperature increases due
to climate change are more pronounced at higher latitudes[14]. Undoubtedly the Arctic environment is the
most affected and vulnerable area with respect to both
global warming and POPs contamination.
Melting of polar ice caps as well as loss of permafrost
result in the release of stored pollutants making them
available for transfer to the atmosphere or to aquatic
and terrestrial ecosystems[18]. A recent study[34] provides the first evidence that some POPs, previously stored in snow, ice, ocean, and presumably soil reservoirs,
are being remobilized back into the Arctic atmosphere as a result of climate change. The atmospheric and
oceanic circulation patterns could carry the released
POPs to other parts of the globe. Release of POPs from
mountain glaciers to Alpine lakes has already been
observed[35,36].
Polar ice melting and increased evaporation rates influence ocean salinity, which in turn affects the solubility of organic chemicals (POPs are less soluble in
water if salinity is higher) and, consequently, air-water partitioning. Salinity and wind patterns influence
oceanic currents, which are important in determining
POPs cycling[37]. These modified currents can provide
an increased pollution in some regions of the globe.
However, changes in ocean currents will mainly affect
the transport of the more water-soluble POPs, such as
HCHs and perfluorinated acids[38].
In addition to the many abiotic factors that can influence the behaviour of contaminants, organic carbon cycling, lipid dynamics and food web structures
in terrestrial and aquatic systems can be adversely
affected by climate change, which will in turn alter
POPs transfer in biota[39, 40]. A result by IPCC[14] showed that approximately 20-30% of plant and animal
species assessed so far are likely at risk if increases
in global average temperature are greater than 1.5°C2.5°C. Climate change will affect ecosystem functions,
biodiversity and population dynamics[41-43] (Figure
2). Thus, climate change will impact on the transfer of
POPs through the food chains, from the absorption of
POPs in phytoplankton and zooplankton from water to
the bioaccumulation and biomagnification in top predators[15, 18, 34, 43].
Migratory species, such as fish, birds, and marine
REVIEW & ASSESSMENT PAPERS
Studi & ricerche
FigurE 2 Overview of climate change impacts on ecosystems and biota and how they may
interact with contaminants fate and effects
Source: Schiedek et al., 2007
mammals, can assimilate POPs in one location and
transport these contaminants to other locations[44].
This biotic transport may be similar in magnitude to
the atmospheric and oceanic transport[45]. Change in
the species migration patterns related to climate change could be an important factor modulating the local
and global transport of POPs[18,46].
Food is the main route of the potential background
human exposure to POPs[47]. This dietary exposure
will be affected by any changes in the structure of the
relevant food webs associated with climate change.
The groups of populations most at risk from exposure
to POPs, and therefore more likely to be affected by
climate-related influences are, in general, developing
foetus, children and the elderly.
There is plenty of experimental and modelling evidence to suggest that climate change impacts the environmental fate of POPs[48, 49]. Monitoring programs over
long time periods performed under the AMAP indicate that both temporal and spatial patterns of POPs
in the Arctic air may already be affected by various
processes driven by climate change[50]. Changes in
sea ice cover, temperature, precipitation rates, and
primary production have been identified by modelling and sensitivity analyses as the factors that have
the greatest impact on the transport and accumulation
of POPs[20, 21, 28, 51-53].
Managing the problem
The only long-term solution to reduce the level of POPs
in the environment is to prevent these substances from
being released. Intentionally produced POPs currently
listed in the SC are subject to a ban on production and
use except where there are generic or specific exemptions. The production and use of DDT – a pesticide
still used to control malaria and other vectors of disease in developing countries – is severely restricted.
The introduction in the market and, therefore, into the
environment, of new chemicals with POP characteristi-
EAI
Energia, Ambiente e Innovazione
6/2012
55
56
EAI
Energia, Ambiente e Innovazione
6/2012
thening of the national capabilities through the promotion of cooperation and exchange of information and
technology transfer.
A range of activities focussed on assisting developing
and transition economy countries to meet their obligations under the SC are currently being led by international organisations. In this context, ENEA is providing
the United Nations Industrial Development Organization (UNIDO) with consultancy services in the development of demonstration projects aimed at promoting
the uptake of BAT and BEP in industry, mainly the ferrous and non-ferrous metal industry, one of the most
critical sector. These activities are targeted at avoiding
the creation of a technology base inefficient and highly
impacting on the environment and human health.
Conclusions
POPs that have been banned or regulated decades ago
are sometimes referred to as ‘legacy’ POPs, because
present day contamination is largely a ‘legacy’ of the
past. Some POPs are preserved almost indefinitely in
the environment. Most of these pollutants generated
by our grandparents have been stored in environmental reservoirs such as soil, ocean water and glaciers
over the past decades.
There is a growing body of evidence that climate change scenarios will result in a substantial release of POPs
from their reservoirs and will affect the environmental
fate of POPs at the global, regional and local scales.
Whilst little can be done for pollutants released in the
past and presently still ‘hidden under the carpet’, much
can be done to avoid the production of new substances
with POPs characteristics and to reduce the releases
of unintentionally produced POPs. Yet, global warming
could undermine the global efforts made to reduce the
l
environmental and human exposure to POPs. notes
cs could be prevented by more restrictive legislations.
In Europe, the production or import of new POPs could
be prevented by the REACH Regulation. Under this framework, companies that manufacture or import more
than one tonne of a chemical per year are required
to register it in a central database. Substances of very
high concern, including persistent, bio-accumulating
and toxic substances (PBT) and very persistent and
very bio-accumulating substances (vPvB) require authorisations for particular uses. The European Chemicals Agency (ECHA) has the right to request further
testing if it suspects that a substance might exhibit
POP characteristics.
As a priority action, the SC requires the identification
and safe management of stockpiles containing or consisting of POPs. Waste containing, consisting of, or contaminated with POPs should be disposed of in such a
way that POPs are destroyed or irreversibly transformed. With regard to the identification and remediation
of sites contaminated by POPs, the SC encourages Parties to develop strategies for identifying contaminated
sites; if remediation is necessary then it must be done
in an environmentally sound manner.
The U-POPs flow is characterised by relatively small
amounts that are constantly formed and released. Remarkable stocks that need to be disposed of do not exist. The SC requires Parties to take measures to reduce
the total releases of U-POPs. The crucial point in reducing future loading of U-POPs in the environment is to
reduce their formation by applying Best Available Techniques (BAT) and Best Environmental Practices (BEP).
These may include end-of-pipe solutions or the development of substitute or modified materials, products
and processes that avoid the formation and release of
U-POPs. Guidelines on BAT/BEP have been developed
under the SC[54]. Processes and technologies preventing POPs from being formed and transferred to air, water, soil and waste streams should be introduced.
The obligations and objectives of the SC are very ambitious. The issue is particularly severe in many developing countries and countries with economies in
transition because of limited financial and technological resources. The SC recognises the particular needs
of these countries, therefore the general obligations
include provisions on technical assistance and streng-
1. Hexabromocyclododecane, short-chained chlorinated paraffins, chlorinated naphthalenes, hexachlorobutadiene and pentachlorophenol.
2. Regulation (EC) 1907/2006 concerning the Registration, Evaluation, Authorisation and Restriction of Chemicals (REACH).
3. TEQ: Toxic EQuivalent. A system to calculate the total toxicity of the sum
of several PCDD/F congeners by rating them against the most toxic one
(2,3,7,8-tetrachlorodibenzo-p-dioxin).
EAI
Energia, Ambiente e Innovazione
6/2012
REVIEW & ASSESSMENT PAPERS
Studi & ricerche
referen ces
[*] WHO (2003), Health risks of persistent organic pollutants from long range transboundary air pollution, The Netherlands, 274 pp., http://www.euro.who.int/__data/
assets/pdf_file/0009/78660/e78963.pdf
[1] F. Wania, D. Mackay (1996), “Tracking the distribution of persistent organic pollutants”, Environmental Science & Technology, 37, 1352–1359.
[2] Protocol on Persistent Organic Pollutants (POPs), Convention on Long-range Transboundary Air Pollution, United Nations Economic Commission for Europe (UNECE).
http://www.unece.org/env/lrtap/welcome.html.
[3] Stockholm Convention on Persistent Organic Pollutants (POPs), http://chm.pops.int
[4] T.N. Brown, F. Wania (2008), “Screening chemicals for the potential to be persistent organic pollutants: a case study of arctic contaminants”, Environmental Science
& Technologies, 42, 5202–5209.
[5] M. Scheringer, S. Strempel, S. Hukari, C.A. Ng, M. Blepp, K. Hungerbuhler (2012), “How many persistent organic pollutants should we expect?”, Atmospheric
Pollution Research, 3, 383-391.
[6] FAO, Prevention and Disposal of Obsolete Pesticides, http://www.fao.org/agriculture/crops/obsolete-pesticides/what-dealing/en/. Accessed: August 3, 2012.
[7] C.A. de Wit, D. Herzke, K. Vorkamp (2010), “Brominated flame retardants in the Arctic environment - trends and new candidates”, Science of the Total Environment,
408, 2885-2918.
[8] UNEP (2005), “Standardized Toolkit for Identification and Quantification of Dioxin and Furan Releases”, Edition 2.1, UNEP Chemicals, Geneva, Switzerland.
BiPRO (2006), “Identification, assessment and prioritisation of EU measures to reduce releases of unintentionally produced/releases persistent organic pollutants”,
European Commission, Brussels, http://ec.europa.eu/environment/dioxin/index.htm
[9] BiPRO (2006), “Identification, assessment and prioritisation of EU measures to reduce releases of unintentionally produced/releases persistent organic pollutants”,
European Commission, Brussels, http://ec.europa.eu/environment/dioxin/index.htm
[10] R. Weber, C. Gaus, M. Tysklind et al. (2008), “Dioxin- and POP-contaminated sites—contemporary and future relevance and challenges”, Environmental Science
and Pollution Research, 15, 363-393.
[11] M.J. Stellmann, S.D. Stellmann, R. Christian, R. Weber, C. Tomasallo (2003), “The extent and patterns of usage of Agent Orange and other herbicides in Vietnam”,
Nature, 422, 681-687.
[12] A. Di Domenico, V. Silano, G. Viviano, G. Zapponi (1980), “Accidental release of 2,3,7,8-tetrachlorodibenzo-p-dioxin (TCDD) at Seveso, Italy. II: TCDD distribution in
the soil surface layer”, Ecotoxicology and Environmental Safety, 4, 298-320.
[13] A. Di Domenico, S. Cerlesi, S. Ratti (1990), “A two-exponential model to describe the vanishing trend of 2,3,7,8-tetrachlorodibenzo-p-dioxin (TCDD) in the soil of
Seveso, Northern Italy”, Chemosphere, 20, 1559–1566.
[14] IPCC (2007), “IPCC Fourth Assessment Report: Climate Change 2007 (AR4)”, United Nations Intergovernmental Panel on Climate Change. Available at: http://www.
ipcc.ch/publications_and_data/publications_and_data_reports.shtml
[15] P. D. Noyes, M.K. McElwee, H. D. Miller, B. W. Clark, L. A. Van Tiem, K. C. Walcott, K. N. Erwin, E. D. Levin (2009), “The toxicology of climate change: Environmental
contaminants in a warming world”, Environment International, 35, 971–986.
[16] AMAP (2011), “Combined Effects of Selected Pollutants and Climate Change in the Arctic Environment” By: R. Kallenborn, K. Borgå, J.H. Christensen, M. Dowdall,
A. Evenset, J.Ø. Odland, A. Ruus, K. Aspmo Pfaffhuber, J. Pawlak, L.-O. Reiersen. Arctic Monitoring and Assessment Programme (AMAP), Oslo. 108 pp.
[17] UNEP/AMAP (2011), “Climate change and POPs: Predicting the impacts”, Report of the UNEP/AMAP Expert Group. Secretariat of the Stockholm Convention,
Geneva, 62 pp.
[18] R.W. Macdonald, T. Harner, J. Fyfe (2005), “Recent climate change in the Arctic and its impact on contaminant pathways and interpretation of temporal trend data”,
Science of the Total Environment, 342, 5-86.
[19] F. Wania, J. E. Haugan, Y. D. Lei, D. Mackay, (1998), “Temperature dependence of atmospheric concentrations of semivolatile organic compounds”, Environmental
Science & Technology, 32, 1013– 1021.
[20] A. Beyer, F. Wania, T. Gouin, D. Mackay, M. Matthies (2003), “Temperature dependence of the characteristic travel distance”, Environmental Science & Technology,
37, 766–771.
[21] L. Lamon, H. Von Waldow, M. MacLeod, M. Scheringer, A. Marcomini, K. Hungerbühler, (2009), “Modeling the Global Levels and Distribution of Polychlorinated
Biphenyls in Air under a Climate Change Scenario”, Environmental Science & Technology, 43, 5818–5824.
[22] K. C. Hornbuckle,. J. D. Jeremlason, C. W. Sweet, S. J. Eisenreich (1994), “Seasonal variations in air-water exchange of polychlorinated biphenyls in Lake Superior”,
Environmental Science & Technology, 28, 1491– 1501.
[23] T. E. McKone, J. I. Daniels, M. Goldman (1996), “Uncertainties in the link between global climate change and predicted health risks from pollution: Hexachlorobenzene
(HCB) case study using a fugacity model”, Risk Analysis, 16, 377–393.
[24] J. Ma, Z. Cao, H. Hung (2004), “North Atlantic Oscillation signatures in the atmospheric concentrations of persistent organic pollutants: An analysis using Integrated
Atmospheric Deposition Network–Great Lakes monitoring data”, Journal of Geophysical Research, 109, D12305, doi:10.1029/2003JD004435.
[25] S. Sinkkonen, J. Paasivirta (2000), “Degradation half-life times of PCDDs, PCDFs and PCBs for environmental fate modelling”, Chemosphere, 40, 943–949.
[26] M. Dalla Valle, E. Codato, A. Marcomini (2007), “Climate change influence on POPs distribution and fate: A case study”, Chemosphere, 67, 1287–1295.
[27] U. Schenker, M. Scheringer, K. Hungerbuhler, (2007), “Including degradation products of persistent organic pollutants in a global multi-media box model”, Environmental Science and Pollution Research, 14, 145-152.
[28] T. Meyer, F. Wania (2007), “What environmental fate processes have the strongest influence on a completely persistent organic chemical’s accumulation in the
Arctic?”, Atmospheric Environment, 41, 2757–2767.
[29] G.L. Daly, F. Wania (2005), “Organic contaminants in mountains”. Environmental Science & Technology, 39, 385–398.
[30] S.M. Preslev, T. R. Rainwater, G.P. Austin, SG, Platt, J.C. Zak, G.P. Cobb, E.J. Marsland, K. Tian, B. Zhang, T.A. Anderson, S.B. Cox, M.T. Abel, B.D. Leftwich,
J.R. Huddleston, R.M. Jeter, R.J. Kendall (2005), “Assessment of pathogens and toxicants in New Orleans, LA following hurricane Katrina”, Environmental Science
& Technology, 40, 468-474.
57
referen ces
Studi & ricerche
58
[31] M. Wilken, F. Walkow, E. Jager, B. Zeschmar-Lahl (1994), “Flooding area and sediment contamination of the river Mulde (Germany) with PCDD/F and other organic
pollutants”, Chemosphere, 29, 2237-2252.
[32] K. Hilscherova, L. Dusek, V. Kubik, P. Cupr, J. Hofman, J. Klanova, I, Holoubek (2007), “Redistribution of organic pollutants in river sediments and alluvial soils related
to major floods”, Journal of Soils and Sediments, 7, 167–177.
[33] B.M. Braune, P.M. Outridge, A.T. Fisk, D.C.G. Muir, P.A. Helm, K. Hobbs, et al. (2005) “Persistent organic pollutants and mercury in marine biota of the Canadian
Arctic: an overview of spatial and temporal trends”, Science of the Total Environment, 351, 4-56.
[34] J.Ma, H. Hung, C. Tian, R. Kallenborn (2011), “Revolatilization of persistent organic pollutants in the Arctic induced by climate change”, Nature Climate Change, 1,
255–260.
[35] J.M. Blais, D.W. Schindler, D.C.G. Muir, M. Sharp, D. Donald, M. Lafreniere, et al. (2001), “A major source of persistent organochlorines to subalpine Bow Lake in
Banff National Park, Canada”, Ambio, 30, 410–415.
[36] C. Bogdal, P. Schmid, M. Zennegg, F. S. Anselmetti, M. Scheringer, K. Hungerbühler (2009), “Blast from the Past: Melting Glaciers as a Relevant Source for Persistent
Organic Pollutants”, Environmental Science & Technology, 2009, 43, 8173–8177.
[37] R. Lohmann, E. Jurado, M.E.Q. Pilson, J. Dachs (2006), “Oceanic deep water formation as a sink of persistent organic pollutants”. Geophysical Research Letter,
33, L12607, doi:10.1029/2006GL025953.
[38] N. Yamashita, S. Taniyasu, G. Petrick, S, Wei, T. Gamo, P.K.S. Lam, K. Kannan (2008), “Perfluorinated acids as novel chemical tracers of global circulation of ocean
waters”, Chemosphere, 70, 1247-1255.
[39] R.W. MacDonald, D. MacKay, B. Hickie (2002), “Contaminant amplification in the environment”. Environmental Science & Technology, 36, 456A–462A.
[40] L. Nizzetto, M. Macleod, K. Borgå, A. Cabrerizo, J. Dachs, A.D. Guardo, D. Ghirardello, K.M. Hansen, A. Jarvis, A. Lindroth, B. Ludwig, D. Monteith, J.A. Perlinger,
M. Scheringer, L. Schwendenmann, K.T. Semple, L.Y. Wick, G. Zhang, K.C. Jones (2010), “Past, present, and future controls on levels of persistent organic pollutants
in the global environment”, Environmental Science & Technology, 44, 6526–6531
[41] O.L. Petchey, P.T. McPhearson, T.M. Casey, P.J. Morin (1999), “Environmental warming alters food-web structure and ecosystem function”, Nature, 402, 69–72.
[42] J.P. Harmon, N.A. Moran, A.R. Ives (2009), “Species response to environmental change: impacts of food web interactions and evolution”, Science, 323, 1347–
1350.
[43] D. Schiedek, B. Sundelin, J.W. Readman, R.W. Macdonald (2007), “Interactions between climate change and contaminants”, Marine Pollution Bulletin, 54, 1845–
1856.
[44] E.M. Krümmel, R.W. Macdonald, L.E. Kimpe, I. Gregory-Eaves, M.J. Demers, J.P. Smol, B. Finney, J.M. Blais (2003), “Delivery of pollutants by spawning salmon:
Fish dump toxic industrial compounds in Alaskan lakes on their return from the ocean”, Nature, 425, 255-256.
[45] K.A. Burek, F.M.D. Gulland, T.M. Ohara (2008), “Effects of climate change on Arctic marine mammal health”, Ecological Applications, 18, S126-134.
[46] J.M. Blais, R.W. Macdonald, D. Mackey, E. Webster, C. Harvey, J.P. Smol (2007), “Biologically mediated transport of contaminants to aquatic systems”. Environmental
Science & Technology, 41, 1075–1084.
[47] E. Undeman, T.N. Brown, F. Wania, M.S. McLachlan (2010), “Susceptibility of human populations to environmental exposure to organic contaminants”, Environmental
Science & Technology, 44, 6249- 6255.
[48] R.W. Macdonald, D. Mackay, Y.F. Li, B. Hickie (2003), “How will global climate change affect risks from long-range transport of persistent organic pollutants?”, Human
and Ecological Risk Assessment, 9, 643–660.
[49] J. Ma and Z. Cao (2010), “Quantifying the Perturbations of Persistent Organic Pollutants Induced by Climate Change”, Environmental Science & Technology, 44,
8567–8573.
[50] H. Hung, R. Kallenborn , K. Breivik, Y. Su, E. Brorström-Lundén, K. Olafsdottir, J. M. Thorlacius, S. Leppänen, R. Bossi, H. Skov, S. Manø, G. W. Patton, G. Stern,
E. Sverko, P. Fellin (2010), “Atmospheric monitoring of organic pollutants in the Arctic under the Arctic Monitoring and Assessment Programme (AMAP): 1993–2006”,
Science of the Total Environment, 408, 2854–2873.
[51] A. Beyer, D. Mackay, M. Matthies, F. Wania, E. Webster (2000), “Assessing long-range transport potential of persistent organic pollutants”, Environmental Science
& Technology, 34, 699–703.
[52] K. Borgå, T.M. Saloranta, A. Ruus (2010), “Simulating climate change induced alterations in bioaccumulation of organic contaminants in an Arctic marine food web”,
Environmental Toxicology and Chemistry, 29, 1349–1357.
[53] C. Bogdal, D. Nikolic, M. Lüthi, U. Schenker, M. Scheringer, K. Hungerbühler (2010), “Release of Legacy Pollutants from Melting Glaciers: Model Evidence and
Conceptual Understanding”, Environmental Science & Technology, 44, 4063–4069.
[54] Stockholm Convention (2006), “Guidelines on best available techniques and provisional guidance on best environmental practices relevant to Article 5 and Annex C
of the Stockholm Convention on Persistent Organic Pollutants”, Geneva, Switzerland. http://chm.pops.int
EAI
Energia, Ambiente e Innovazione
6/2012
Studi&ricerche
TECHNICAL PAPERS
Simulation theory applied
to the LCOE analysis for Offshore
Wind Power Plants and other
competing technologies
This work deals with the comparative “levelised cost of electricity” (LCOE) for various
technologies, in particular for a typical offshore wind power plant compared to ASC coal
FGD plant with CCS, and Nuclear EPR 3, onshore wind and gas CCGT plants. This paper
proposes a stochastic approach based on Monte-Carlo simulation to account for various
uncertainties for the most significant cost components when determining the overall cost
of electricity generation: furthermore, by using forecast data, the simulation performed can
help estimate the long-term reliability of the costs calculated under uncertainty. In addition,
the study explains the components of unit cost calculations and includes a sensitivity
analysis of investment and fuel costs, applicable discount rates and carbon emission costs
n Maria Gaeta, Marco Rao
Teoria della simulazione applicata ad un’analisi LCOE per l’eolico
offshore e tecnologie concorrenti
Il lavoro si occupa del “costo livellato dell’energia elettrica” (LCOE) comparato per varie tecnologie, in particolare per
un tipico impianto eolico offshore confrontato con impianti a carbone ASC FGD con CCS, nucleare EPR 3, eolico onshore e gas a ciclo combinato CCGT.
Viene proposto un approccio stocastico basato sulla simulazione Monte Carlo per tenere conto di varie incertezze per
i componenti di costo più rilevanti per la determinazione del costo totale di generazione di energia elettrica: inoltre,
utilizzando dati di previsione, la simulazione effettuata può essere utilizzata per stimare la affidabilità a lungo termine
dei parametri di costo calcolati in condizioni di incertezza. Inoltre lo studio effettuato spiega le principali componenti
del calcolo dei costi unitari e include un’analisi di sensitività sui costi di investimento e di combustibile, sul tasso di
sconto applicabile e sui permessi di emissione di carbonio
O
ffshore Wind Technologies have played an increasingly important role in the recent strong development of RES technologies. Over the past 10 years
offshore wind power cumulative capacity in EU has
grown more than 1GW per year[28]. This significant
growth in all renewable technologies has been strongly affected by measures like incentives scheme, resulting from climate mitigation policies[9].
Policy makers need to be able to compare costs and
benefits of different types of power generation plants
to make decisions about energy policy. It is crucial to
“compare like with like” to increase the meaning and
usefulness of this kind of work[7] and for this reason, to
n Maria Gaeta, Marco Rao
ENEA, Studies and Strategies Central Unit
EAI
Energia, Ambiente e Innovazione
6/2012
59
support policy makers, an LCOE analysis is discussed
in this paper. The present analysis is based on a DECC
(Department of Energy and Climate Change - UK) study (2011), integrated with other works (RAE, 2004 and
others).
The Levelised Cost Of Energy (LCOE) is a global standard as an economic measure for energy plants: LCOE
is the average price that consumers would have to pay
so that the investor/operator for the capital, operation,
maintenance and fuel expenses is repaid exactly, with
a rate of return equal to the discount rate[17]. Therefore,
the levelised cost of energy allows to compare alternative technologies under different scales of operation,
different investment and operating time periods, or
both. In this paper, an LCOE analysis is supported by
Monte Carlo simulations of the main generation cost
parameters, subject to high unpredictability.
As always, the hardest part of this work was to get
reliable and fairly recent data at the basis of LCOE
equation specifications. It is necessary to remark that
there are important cost components not captured by
this type of approach (e.g., externalities)[3,10,13]: LCOE
is only one of the indicators available to evaluate investment options: it can be seen as a sort of “first order
assessment of project viability”[5]; the same holds for
the simulation methods used in this work, in addition
to estimate indications on the robustness of the results
under conditions of uncertainty[29].
Initially, the work of analysis is concerned with describing the technologies examined, in particular the major key assumptions on plant costs and their technical
performance. Then, a focus of the financial part of the
LCOE model is performed and Monte Carlo techniques are shown. The last sessions present the study
results and summarize the main conclusions.
In the Appendix, a short list of acronyms and abbreviations used in this work is given.
Technical and economic data
The aim of this work is to evaluate the electricity generation cost from Offshore Wind plants and to know
under which conditions these costs could become
economically competitive with a representative set of
other power plants.
60
EAI
Energia, Ambiente e Innovazione
6/2012
Applying the LCOE methodology, a typical Offshore
Wind plant has been compared with the major competitors’ generation plants, considering the average
technical characteristics. We chose the main base-load
technologies (like CCGT), the cheapest way of generating electricity, but also “innovative” technology options that can become significant in the future, like as
Coal Plants with CCS.
The generation technologies set and the data and specifications, coming from the reference studies[2,5,6,7,8]
and other sources[24,25,29], are:
 one “mature” technology: Gas fired Combined Cycle
Gas Turbine, CCGT, without CCS to take account of
relatively less “advanced” but economically competitive characteristics - gas CCGTs type is in a configuration based on a twin block installation with a
gross capacity of 830 MW, comparable with the other
plants examined.
 Onshore Wind plant (100 MW), located 10 km from a
MV substation.
 Offshore Wind plant of 200 MW, located 25 km from
shore in 20 meters of water, using monopole foundations.
 the Nuclear European Power Reactor (EPR), third generation: pressurized water reactors (PWR) of 1600
MW.
 the Advanced Supercritical (ASC) coal plant with
Flue Gas Desulphurization (FGD) and with postcombustion Carbon Capture and Storage (CCS) with
a plant capacity of 1600 MW.
The selected cost and performance parameters take
into account timing (like construction, operational and
decommissioning period), technical data (plant heat
and power output, efficiency, load factor, and so on),
capital costs (like EPC), operational and maintenance
costs (like fixed and variable maintenance costs).
Several assumptions for the cost of CO2 disposal, waste disposal, decommissioning, fuel price projections,
and other variables are also considered.
LCOE is calculated for the plant lifetime and given
in currency units per megawatt-hour (E/MWh). Each
technology has a set of variables and parameters necessary to calculate the LCOE standard expression.
Special attention is given to the distinction of characteristics for the first of a kind (FOAK)1 and the nth of
Wind Offshore
Key Timings
Wind Onshore
Gas - CCGT
ASC Coal with CCS
Nuclear EPR 3
Construction period
years
1.5-3
2-2.2
2.5-3.2
4.8-6
5-7
Plant operation period
years
21
22
28
36
60
Technical data
Gross power output
MW
200
100
Gross Efficiency
%
100
100
Average Degradation
%
0
0
Average Load Factor
%
39
28
EPC cost
E/kW
3000-3850
Pre-licensing cost,
Technical and Design
E/kW
Regulatory + licensing
+ public enquiry E/kW
830
1600
1600
58
35
100
3,5
2,5
0
78
78
90
1450-1900
700-780
2900-3400
3100-4000
50-72
55-110
31-44
66-130
55-110
50-71.5
38.5-77
27.5-39
66-130
55-110
Capital costs
O&M costs
O&M fixed fee
‘000E/MW/yr
125.4-141.9
34-41.3
22.2-31.6
92.4-134
85.8-106.7
E/MWh
0
0
2.4-2.5
14.8-15.8
2-2.75
O&M variable fee
TABLE 1 Key parameters for the examined
technologies[2,8]
a kind (NOAK)2 plant. The previous distinction is useful to compare mature and innovative technologies[30]:
this is very important when considering the capital
cost and forward price adjustments of new technologies about this work.
Assumptions about FOAK and NOAK values for all parameters follow the main reference studies[7,8,17].
For the power plant that uses fossil fuels, the variability
of the fuel price and the carbon price is very important
to establish a realistic value of power generation cost.
Fuel prices have been based on DECC’s[2] projections
until 2030 and they are shown in Table 2.
As shown in Table 2, three different scenarios of projected costs were considered, depending on varying global energy demand levels. It is worth noting that the
Scenario
Unit
Gas
Coal
Low
€/GJ
4.3
1.5
Mid
€/GJ
8.1
2.4
High
€/GJ
11.2
4.0
TABLE 2 Average fuel prices in
TECHNICAL PAPERS
m.u.
Studi & ricerche
2015-2030[2, 7, 8]
nuclear fuel price includes uranium enrichment and
fabrication of fuel elements[20] (average 3-5 €/GJ). In
general, a high fossil fuel price is expected in case
of strong climate mitigation policies (so in the case of
higher carbon prices).
As mentioned above, there are many other components
not captured by levelised costs[3,6], like the externalities, the system factors (e.g., transmission costs), etc.
Indeed, it is possible to incorporate some of these factors. In this study we have considered the CO2 emission cost because, for fossil fuel plants, uncertainty
in the damage costs by air pollutants can potentially
increase significantly the LCOE in some cases. In the
no-externality case, fossil fuel technologies are highly
attractive, but as externalities cost increase, their fuel
intensity and emissions can raise their LCOEs well
above those of RES in general, and Wind Offshore in
particular[6]. This work relies on the central hypothesis
of the reference study[7] (CO2 price starts from 14 €/t
in 2010 and rises to 18 €/t by 2020 and to 77 €/t in
2030).
The problems in getting the data have been overco-
EAI
Energia, Ambiente e Innovazione
6/2012
61
Studi & ricerche
me, where possible, using data from reference plants
or time series from literature, or from institutional data
sources[2,5,6,14,17,18,24,28].
For Offshore Wind Plants, special attention was dedicated to key factors affecting the final cost (Figure 1)
[11,12,15,16,17,22,24,27,29].
The major problem for the operators of Offshore Wind
Farms is to reduce their investment costs; furthermore, to minimize operation and maintenance costs they
need to obtain higher reliability. Offshore Wind Technologies and renewables are generally more expensive than conventional generation plants, due to the
immaturity of the technology and a still limited diffusion. In addition, fluctuations in the energy source
itself may limit the output of generation available from
these technologies.
About the future of offshore, since Denmark has a primary role in the European wind industry, some forecasts from Denmark wind players have been used as
a benchmark in some sensitivity analysis performed
and discussed later: for example, a reasonable target
for the above mentioned players is to reduce CAPEX
by approximately 40% of current costs[22], an indication used in this work.
LCOE model and financial analysis
The LCOE approach is adopted to compare the different technologies because it takes into account the
various amounts of energy produced over different
technical lifetimes[29]. So the levelised cost of energy (LCOE) allows to compare alternative technologies
when there are different scales of operation, different
investment and operating time periods, or both. For
example, the LCOE could be used to compare the cost
of energy generated by a renewable power plant with
that of a conventional fossil fuel power plant.[1]
As always, main components of LCOE are: capital costs,
O&M costs, fuel cost, carbon costs; data from plant like
lifetime, load factor, and so on; discount rate and others
(e.g., shape of the learning curve). For components not
captured by LCOE[5], like the externalities, it is possible to incorporate some of these factors by adjusting
one or more of the elements described above, so that
they act as a proxy for the ‘missing’ elements.
Despite its several limitations, the strength of the
LCOE approach is the simplicity and effectiveness of
the method: this is reflected in the large number of
existing works that use it. However, it is good to be
aware that in estimating the LCOE costs components a
wide range of ad-hoc assumptions has been used, and
each assumption is quite far from being unanimously
accepted.
The extended standard equation used in this work is:
where:
INV
N
O&M
FigurE 1 LCOE cost structure for Offshore Wind power plants
Source: Rao, Gaeta, 2012
62
EAI
Energia, Ambiente e Innovazione
6/2012
2)
Investment cost
Economic Lifetime
Total Operation and maintenance costs,
fixed and variable (O&M)
DR
Real discount rate
FC
Annual fuel cost
Annual cost of carbon emissions
CO2
RV
Residual Value (where available)
P
Power (in MW)
LF
Load factor
The choice between real or nominal LCOE depends
on the purpose of the analysis: this work performs a
constant-euro analysis to keep tracks of the real cost
The DR Model
The WACC3 formulation is given by the rate that a
company is expected to pay on average to all its security holders to finance its assets. The equation is:
3)
WACC = wd * kd (1 – t) + ws * ks
where:
weight of debt proportion to total capital
wd
weight of equity proportion to total capital
ws
cost of debt
k d
Simulation
The Monte Carlo technique is a non-parametric statistical method, based on the use of random numbers and
probability to get solutions for mathematical problems
which have many variables not easily solved, simulating different probability distributions of the main parameters. Simulation methods made uncertainty analysis
through “the substitution of a probability distribution
for any factor that has a huge uncertainty” [32].
This work implements the so-called “raw” Monte Carlo (MC): this choice relies on various considerations:
there are problems in establishing the boundary delimiting the domain of integration; there are no peaks
concentrated in restricted regions for variables to be
integrated and, finally, raw MC allows to get an acceptable trade-off between accuracy and simplicity.
The probability distribution model used is continuously Uniform: this choice was made for two main
reasons. The first relates to the lack of suitable data
to define evenly patterns of specific probabilities for
EAI
Energia, Ambiente e Innovazione
6/2012
TECHNICAL PAPERS
Financial analysis and discount rate
The LCOE methodology discounts time series of cost
components to their present values in a specified base
year by applying a discount rate (DR) value; as expected, the capital-intensive technologies are very sensitive to discount rates, and some technologies should
be associated with higher discount rates because they
are perceived to be riskier: DR should incorporate or
reflect in some way the risk profile associated to the
riskier technologies, but this is very difficult using the
LCOE approach[5]. According to the IEA (International
Energy Agency), different ways to finance projects (i.e.,
debt versus equity) reflect the indirect assumption that
“equity is riskier than debt”, so high risk technologies
should require higher discount rates.
This work uses a classical discount rate model from
the CAPM theory, considering a low randomness of
the equation parameters (like β) to get a compromise
solution about one of the LCOE approach limitations:
different DRs should be applied to the various components of cost (typical case is O&M costs vs. fuel costs).
The chosen DR model is consistent with those of other
reference works[18].
DR was fixed at 10% per annum (sensitivity analysis
ranges from about 2.5% to 12.5% per annum)[5,6,8,17].
Discounting is applied over the economic life of power
plants, which is assumed to be somewhat longer than
the typical financing terms. A fixed discount rate and
a model based DR have been used.
ks
cost of equity
t
corporate tax rate
Projects can be financed by both debt and equity; specifically, the after-tax weighted average cost of capital
is the discount rate used in evaluating investment opportunities.
Kd is equivalent to the interest-rate paid by the company (the so-called risk-free rate4): it is assumed exogenous.
Capital Asset Pricing Model (CAPM) provides methods
to compute the cost of equity5, which is an implied investor’s opportunity cost that reflects the specific risk
of the investment.
The model for such a cost is:
4)
kst = kRFt + (EMRP * bequity)
where cost of equity at year t
kst
risk-free rate at year t
kRFt
EMRP expected market risk premium (constant)
Bequity equity beta (constant)
The assumptions about the main DR model variables
are based on an elaboration of hypothesis from current
literature.
Studi & ricerche
trends with more accuracy[1,17]. For the currency unit,
the same approach of the reference works has been
used[1,8,18]. The model used was developed in an Excel
spreadsheet: it performs calculations, comparisons and
sensitivity analysis for each examined technology.
63
all the simulated variables. The second reason is that
this choice corresponds to a compromise between the
need to standardize methods and calculations between different technologies and various cost components
and the aim of characterizing them as close as possible to the true value. The number of simulations for the
random variables considered is 10000: the results are
rounded to the nearest full euro.
Results
In this paragraph some results are presented in various graphics. They show LCOE comparison among
the five technologies mentioned above.
The average cost of a megawatt hour generated by Offshore Wind plants is centered around 175 €/MWh, a
value significantly higher than all the other competing
technologies (Figure 2).
FigurE 2 Probability distribution for LCOE (discounted rate: 10%)
Source: Rao, Gaeta, 2012
FigurE 3 PMain components of average LCOE for the examined power plants
Source: Rao, Gaeta, 2012
64
EAI
Energia, Ambiente e Innovazione
6/2012
TECHNICAL PAPERS
the FGD with CCS coal plant, or maybe the nuclear EPR
3. The investment costs, changes in financing conditions,
especially in greenhouse gas emissions costs, can impact deeply to get the future target.
Figure 3 shows the average LCOE, total and main
components. Future competitiveness of offshore wind
plants, in the baseline scenario, relies mainly on the
investment costs. The complete independence of wind
Studi & ricerche
The Gas fired CCGT is the one able to achieve the
lowest cost of generation (89 €/MWh) under the assumptions made (e.g., in particular about the adopted
GHG and gas prices dynamics).
Offshore wind energy cost itself proves not competitive
without incentives for electricity production with technologies such as CCGT, but the first reachable target
could be (in a similar order of the required investments)
FigurE 4 Probability distribution for LCOE (using the discounted rate model)
Source: Rao, Gaeta, 2012
FigurE 5 Effects of the change of the investment cost
Source: Rao, Gaeta, 2012
FigurE 6 Sensitivity of levelised costs to discount rate variation
Source: Rao, Gaeta, 2012
EAI
Energia, Ambiente e Innovazione
6/2012
65
Studi & ricerche
FigurE 7 Sensitivity of levelised costs to fuel price variation
Source: Rao, Gaeta, 2012
66
FigurE 8 Sensitivity of levelised costs to CO2 price variation
Source: Rao, Gaeta, 2012
technologies from the carbon cost and fuel cost also
clarifies that, in a scenario of capital costs abatement,
even technologies as CCGT, now unattainable, could
become a realistic target. Capital cost component
is dominating in nuclear and wind generation costs
(~80%). The emission trading systems gives an electricity generation cost growth of 18 €/MWh for CCGT
and 6 €/MWh for coal-based plants. Minor increase in
the coal plants is due to the presence of carbon capture and storage technology.
In addition, the study includes a sensitivity analysis, as
relevant, for various discounted rates, investment and
fuels costs, and carbon emission costs[20].
The sensitivity analysis has been carried out by setting all
the parameters in the respective average values and simulating it one by one in a predetermined realistic range.
Using the discounted rate model early described, the
nuclear, onshore and offshore cost curves are moved
forward by 10 €/MWh circa, (these are the most capital
intensive technologies): offshore distribution becomes
very similar to normal distribution, with a remarkable
change of skewness and range of variation (155-195 to
135-205 €/MWh).
The analysis has incorporated the best perspective for
investment and fixed cost abatement (Figure 5).
A capital cost reduction for offshore wind plants of 30%
compared to the average results, leads to a decrease
of 40 €/MWh in power generation cost. As shown in Figure 5, even just a reduction of 15% of the investment
cost allows offshore wind plants to become competitive with Coal CCS plant.
Discount rate changes on LCOE are shown in Figure 6.
The interval chosen for DR is from 2.5% to 12.5%[26]. As
expected, the impact of changes in DR is greater for capital intensive plants as wind, nuclear and CCS (note that
nuclear and offshore curves have the highest slope).
About sensitivity to fuel price changes, the technologies naturally more vulnerable are the CCGT and the
CCS (Figure 7). If fuel price increases by 30%, nuclear
generation cost increases by 2%, coal CCS cost by 5%;
gas-based plant by 18%.
With regard to CO2 costs, nuclear technology is essentially neutral to the simulated changes; the emission trading
improves competitiveness of carbon free power production compared to fossil fuel power plants[20] (Figure 8).
EAI
Energia, Ambiente e Innovazione
6/2012
Main conclusions
The results obtained demonstrate that currently offshore wind technologies are not yet really competitive without an incentive scheme. The power generation cost
for an offshore wind plant could seem relatively high:
175 €/MWh, almost totally due to the high capital cost.
The fossil fuel based plants still appear as an appealing investment: however, the sensitivity analysis performed shows that, with a conceivable future capital
cost abatement, Offshore Wind plants could become
competitive with some conventional plants, like coal
with CCS. Furthermore, Offshore Wind plants are not
affected by fuel price volatility and carbon price market fluctuations, and could become a plausible option
l
in future power generation. [1] W. Short, D. J. Packey and T. Holt- A Manual for the Economic Evaluation of Energy Efficiency and Renewable Energy Technologies, National Renewable Energy
Laboratory, NREL/TP-462-5173, pp. 47-50, march 1995
[2] JC. Palacios, G. Alonso R. Ramirez A Gomez, J Ortiz, L. Longoria levelised costs for nuclear, gas and goal for electricity, under the Mexicano scenario, Instituto
nacional de investigaciones nucleare
[3] R. D. Rowe, C. M. Lang, L. G. Chestnut - Critical factors in computing externalities for electricity resources, Resource and Energy Economics 18 (1996), USA
[4] A contribution to technology forecasting from a technology dynamics perspective, Universiteit Twente, 6 november 1998
[5] Phil Heptonstall - A REVIEW OF ELECTRICITY UNIT COST ESTIMATES, UK Energy Research Centre (2006 upd. 2007) UKERC/WP/TPA/2007/2006
[6] The Cost of Generating Electricity ¬- A study carried out by PB Power for The Royal Academy of Engineering, 29 Great Peter Street, Westminster, London, SW1P
3LW, March 2004
[7] Electricity Generation Cost Model - 2011 Update Revision 1 Department of Energy and Climate Change, August 2011
[8] Mott Macdonald. UK Electricity Generation Costs Update. June 2010
[9] K. Gillingham, J. Sweeney - Market Failure and the Structure of Externalities - Stanford University, Precourt Energy Efficiency Center, Department of Management
Science and Engineering, Stanford, CA 94305, USA
[10] F. Roth, L. L. Ambs - Incorporating externalities into a full cost approach to electric power generation life-cycle costing Energy 29 (2004), University of Massachusetts
Amherst, USA
[11] Twidell, J. et al (2006) - Renewable Energy Resources
[12] M. A. Lackner, C.N. Elkinton - An Analytical Framework for Offshore Wind Farm Layout Optimization, Wind Engineering, Vol. 31, n. 1, Jan 2007 UK
[13] Peter Rafaj, Socrates Kypreos - Internalisation of external cost in the power generation sector: Analysis with Global Multi-regional MARKAL model, Energy Policy 35
(2007) 828–843,
[14] A Brief Characterization of Gas Turbines in Combined Heat and Power Applications – EPA 2002
[15] Hisham Khatib - Review of OECD study into ‘‘Projected costs of generating electricity 2010 Edition Global Energy Award Laureate, Elsevier
[16] International Energy Agency - Electricity information, 2009 edition, International Energy Agency 9, rue de la Fédération, 75739 Paris Cedex , France
[17] International Energy Agency - Projected cost of generating electricity, 2005 update
[18] Energy Information Administration - The Electricity Market Module of the National Energy Modeling System Model, NEMS Documentation Report, U.S. Department
of Energy Washington, DC 20585
[19] Nikola Čavlina, Comparison of different options for base load production, University of Zagreb, Croatia
[20] Tarjanne Risto, Kivisto Aija – Comparison of electricity generation cost, Lappeenranta Universty Technology, 2008
[21] Denmark - supplier of competitive offshore wind solutions - Megavind’s Strategy for Offshore Wind Research, Development and Demonstration – MegaVind – Danish
Wind Industry Association, 2010
[22] Danish Energy Agency, Technology data for energy plants, June 2010.
[23] Department of Energy (DOE), 2009 Wind Technologies Market Report. Washington 2010.
[24] European Wind Energy Association, The European offshore wind industry – key trends and statistics 2009. January 2010.
[25] European Wind Energy Association, The European offshore wind industry, key trends and statistics 2010, EWEA, January 2011
[26] Danish Energy Agency, Technology data for energy plants, June 2010.
[27] European Wind Energy Association (2009) Operational Offshore Farms 2009
[28] W. Musial, B. Ram, Large-Scale Offshore Wind Power in the United States, National Renewable Energy Laboratory (NREL)
[29] A. Arapogianni, G. Rodrigues, N. Fichaux, A. Zervos, G. Caralis, Model for comparing and projecting the levelised cost of electricity generated by New Gas, Coal,
Nuclear Power Stations and Wind Energy (On and Offshore)
[30] M. Matuszewski, M. Woods Quality guidelines for energy systems studies - Technology Learning Curve (FOAK to NOAK) NETL/DOE-341/042211, Mar 2012
[31] United Nations Framework Convention on Climate Change, CDM – Meth Panel - Thirty-fourth meeting – Report Annex 10
[32] S.B. Darling, F.You, T.Veselka, A. Velosa, Assumptions and the Levelised cost of energy for photovoltaics. Energy & Environmental Science, January 2011.
EAI
Energia, Ambiente e Innovazione
6/2012
TECHNICAL PAPERS
n o t es
1. If a project activity is “first-of-its-kind”, this means that the implementation of this specific technology is not “common practice” yet [31].
2. The definition of the (NOAK) plant is arbitrary, (often, NOAK means the
fifth or higher plant).
3. Weighted Average Cost of Capital.
4. The rate of interest with no risk, typically based on public bond plus a
risk component which itself incorporates a default risk.
5. The return that a firm theoretically pays to its equity investors to compensate for the risk they undertake by investing their capital.
Studi & ricerche
ref erences
Appendix: Acronyms list
Capex Capital expenditure
CCGT combined-cycle gas turbine
CCS Carbon Capture and Storage
DECC Department of Energy and Climate Change
EIA Energy Information Administration
EPC engineer, procure and construction
EPR European Pressurised water Reactor
FGD Flue Gas Desulphurisation
IGCC Integrated Gasification Combined Cycle
O&M Operation and Maintenance
67
Rubriche
1234
5678
9 10 11
dal
Mondo
Il World Energy Council (WEC) ha presentato il rapporto Smart Grids: Best Practice Fundamentals for a Modern Energy System, in occasione della riunione tra WEC
e Autorità coreane, tenutasi l’11 e 12 ottobre scorso a Daegu in Corea.
Il rapporto evidenzia che le Smart Grids
sono un elemento essenziale per facilitare
la transizione verso un’economia a bassa
emissione di carbonio e per conseguire
la sicurezza energetica, l’energia a prezzi
accessibili e la mitigazione dei cambiamenti climatici, i tre elementi del “trilemma energetico”. L’obiettivo del rapporto
è fare luce sullo stato attuale delle reti
intelligenti e dei meccanismi di finanziamento per il loro sviluppo e servire come
un compendio di buone pratiche di successo per lo sviluppo di reti intelligenti
in diversi paesi (India, Giappone, Cina,
Corea del Sud, Brasile, Europa e Nord
America). La Corea è stata indicata come
esempio pionieristico delle buone pratiche di attuazione di progetti dimostrativi
delle Smart Grids.
Il WEC ha ripreso questi temi nel rapporto
World Energy Trilemma 2012: Time to get
real – the case for sustainable energy policy, pubblicato nel mese di novembre, che
suggerisce ai decisori politici in materia
energetica gli elementi necessari per af-
68
EAI
Energia, Ambiente e Innovazione
6/2012
frontare le sfide del trilemma Energia: la
sicurezza energetica, l’equità sociale e la
mitigazione dell’impatto ambientale.
È stato lanciato il 12 novembre il World
Energy Outlook (WEO) 2012 che presenta
proiezioni dei trend energetici fino al 2035
e un’analisi delle relative implicazioni in
termini di sicurezza energetica, sostenibilità ambientale e sviluppo economico.
L’Outlook considera tutte le fonti energetiche e la domanda mondiale di energia, la produzione, il commercio e gli
investimenti nel settore energetico sono
analizzati per paese, per fonte e per settore. Il WEO 2012 propone inoltre analisi
strategiche sulle seguenti tematiche: le
conseguenze derivanti dal pieno sfruttamento del potenziale economico di miglioramento dell’efficienza energetica; il
settore energetico dell’Iraq; il legame tra
acqua ed energia; i progressi compiuti
per il conseguimento dell’accesso universale a forme moderne di energia.
La 18a sessione della Conferenza delle
Parti aderenti alla Convenzione Quadro delle Nazioni Unite sul Cambiamento Climatico (UNFCC) e l’8a sessione della Conferenza delle Parti firmatarie
del Protocollo di Kyoto si sono tenute a
Doha, in Qatar, dal 26 novembre al 7 dicembre, con l’obiettivo di estendere gli
impegni previsti dal Protocollo di Kyoto
oltre la scadenza del 31 dicembre 2012
(vedi anche, in questo numero, l’articolo
di commento a pag. 26).
Dopo più di 24 ore di trattativa oltre la
chiusura prevista dei lavori, i delegati hanno approvato il documento finale
Doha Climate Gateway. Ancora una volta
un testo di transizione (gateway) che conferma il Secondo Periodo di impegni sotto
il Protocollo di Kyoto per i Paesi sviluppati
e inaugura un nuovo regime di negoziati
per un trattato globale legalmente vincolante sul cambiamento climatico, che richiederà tagli alle emissioni a tutti gli Stati
membri, da essere firmato entro il 2015 e
che entrerà in vigore dal 2020.
Il cambiamento climatico sta interessando
tutte le regioni d’Europa, causando una
vasta serie di ripercussioni sulla società e
sull’ambiente, secondo l’ultima valutazione pubblicata il 21 novembre dall’Agenzia Europea per l’Ambiente e si prevedono ulteriori effetti in futuro, con danni
potenzialmente elevati in termini di costi.
La relazione “Climate change, impacts and
vulnerability in Europe 2012” prevede che
gli eventi climatici estremi diventeranno
sempre più intensi e frequenti e contribuiranno ad accentuare la vulnerabilità
di tale situazione. In assenza di misure di
adattamento, si prevede che i costi lega-
ti ai danni continueranno ad aumentare e
alcune regioni saranno meno in grado di
adattarsi al cambiamento climatico rispetto ad altre, in parte a causa delle disparità
economiche in Europa. Gli effetti del cambiamento climatico potrebbero pertanto
ampliare tali disuguaglianze.
Gli investimenti stranieri che coinvolgono
in modo attivo gli agricoltori locali, lasciando loro il controllo della terra, sono
quelli che hanno i maggiori effetti positivi sulle economie locali e sullo sviluppo
sociale, sostiene il nuovo rapporto della
FAO “Trends and Impacts of Foreign Investment in Developing Country Agriculture” pubblicato il 13 novembre.
Il rapporto fa notare che gli investimenti
che riescono a mettere insieme i punti di
forza degli investitori (capitale, competenza in materia di gestione e marketing, tecnologia) con quelli degli agricoltori locali
(mano d’opera e conoscenze locali) sono
quelli destinati ad avere più successo.
I modelli d’investimento che lasciano ai
contadini il controllo della loro terra rappresentano un incentivo a investire nel
miglioramento della terra e inoltre favoriscono uno sviluppo sostenibile.
Si è svolta a novembre in Malesia la II
Conferenza internazionale sulle risorse
idriche (ICWR2012). Il simposio ha riunito ricercatori, accademici e professionisti
a vario tiolo coinvolti nella ricerca scientifica e la gestione sostenibile della risorsa
acqua. Un focus particolare è stato posto
sul tema del Water Related Natural Disaster e in particolare sulle risultanze del
progetto Science and Technology Research Partnership for Sustainable Development (SATREP), 2011-2015, sostenuto dal
Japan International Cooperation Agency
(JICA)e dal Japan Science and Technology
Agency (JST).
Strettamente correlato alla gestione sostenibile della risorsa idrica, a Sede Boqer,
Israele, ha avuto luogo la V Conferenza
internazionale sulle terre aride, i deserti e la desertificazione (Drylands,
Deserts and Desertification-DDD). Il convegno è stato incentrato sui risultati della Conferenza delle Nazioni Unite sullo
sviluppo sostenibile Rio +20 e ha fatto il
punto sui bisogni tecnologici necessari
all’attuazione delle raccomandazioni ONU
sulle zone aride e la desertificazione.
Si è svolta a Rotterdam da 20 al 22 novembre The 2nd European Conference on
Flood risk Management nel corso della
quale sono stati analizzati i progressi nelle
analisi e nella gestione dei rischi di alluvione, affrontando i vari aspetti del rischio
di alluvioni, le cause, l’impatto sulla popolazione, sul territorio e sull’ambiente e le
(Flavia Amato, Paola Cicchetti)
dall’
Unione Europea
Commissione Europea
Le principali iniziative della Commissione
europea (CE) nel periodo ottobre-dicembre 2012 riguardano:

l’adozione, in data 3 ottobre, della Comunicazione sulla “Second Regulatory
Review on Nanomaterials” che riesamina gli aspetti normativi in tema di nanomateriali, valuta l’adeguatezza della
legislazione in materia e indica le azioni
di follow-up. Fa parte di questo secondo
riesame l’adozione di un documento di
lavoro sugli usi e tipi di nanomateriali,
incluso gli aspetti di sicurezza;

l’avvio, in data 8 ottobre, di una campagna di comunicazione paneuropea a
sostegno di imprese, gruppi ambientalisti e università per promuovere soluzioni innovative ai problemi climatici. La campagna, che proseguirà fino
alla fine del 2013, intende dimostrare
che l’azione per il clima può aumentare il benessere dei cittadini europei e
portar loro vantaggi economici, e mira
a valorizzare soluzioni già esistenti ed
efficienti sotto il profilo dei costi, per il
conseguimento dell’obiettivo dell’UE di
una riduzione delle emissioni di gas a
effetto serra dell’80-95% entro il 2050;

la pubblicazione, in data 17 ottobre, di
una proposta volta a limitare a livello
mondiale la conversione dei terreni alla produzione di biocarburanti
e ad aumentare gli effetti benefici dei
biocarburanti usati nell’UE sul clima.
Sarà limitata al 5% la quota di biocarburanti derivati da alimenti, utilizzabile
ai fini del conseguimento dell’obiettivo
del 10% di energie rinnovabili fissato
dalla direttiva sulle energie rinnovabili. L’obiettivo è stimolare lo sviluppo
di biocarburanti alternativi, derivati
da materie prime non alimentari, che
emettono gas a effetto serra in quantità
decisamente inferiori ai carburanti fossili e non interferiscono direttamente
con la produzione alimentare mondiale;

l’adozione, in data 23 ottobre, del programma di lavoro per il 2013 della
Commissione che riassume gli obiettivi
dell’Unione in sette ambiti prioritari e le
misure che devono ancora essere adottate. In termini di nuove proposte, il programma annuncia 50 nuove iniziative da
presentare nel 2013 e nella prima parte
del 2014;

la proposta di regolamento, presentata
in data 7 novembre, per ridurre in misura significativa le emissioni di gas
fluorurati che concorrono al riscaldamento globale fino a 23.000 volte più
della CO2 e sono aumentate del 60%,
mentre quelle di tutti gli altri gas serra
sono diminuite. Il regolamento proposto mira a ridurre di due terzi l’attuale livello di emissioni di gas fluorurati
entro il 2030 e vieta l’uso di questi gas
in determinati tipi di apparecchi nuovi,
come i frigoriferi domestici, per i quali
sono già disponibili soluzioni alternative maggiormente rispettose del clima;

il lancio, in data 13 novembre della European Innovation Partnership Raw
materials che ha come obiettivo quello
di assicurare all’Europa un accesso sostenibile alle materie prime promuovendo
l’innovazione lungo l’intera catena. La EIP
lavorerà sul contenuto del futuro piano
strategico di attuazione (Strategic Implementation Plan, SIP) del partenariato per
far convergere gli sforzi di innovazione a
vantaggio della ricerca nell’esplorazione,
estrazione, trasformazione, sostituzione e
riciclaggio delle materie prime;

l’adozione, in data 14 novembre, di una
relazione sulla situazione del mercato
europeo del carbonio, che illustra una
serie di possibili misure strutturali da
adottate per affrontare il problema delle
quote eccedenti. Due sono le principali
proposte per ovviare al crescente squilibrio tra offerta e domanda di quote all’interno del sistema europeo di scambio di
quote di emissioni (EU ETS): ritardare la
messa all’asta di 900 milioni di quote nel
corso della terza fase del sistema ETS
che inizia nel 2013 e avviare un ampio
dibattito sulle possibili misure strutturali
con la massima rapidità, tra cui il ritiro
permanente del numero di quote neces-
sario per riassorbire l’eccedenza;
pubblicazione, in data 15 novembre,
di un Piano per la salvaguardia delle
risorse idriche europee (The 2012 Blueprint) con l’obiettivo strategico di garantire che la disponibilità di acqua di buona qualità sia sufficiente a soddisfare le
esigenze dei cittadini, dell’economia e
dell’ambiente. Il Piano propone una serie di azioni e strumenti con cui gli Stati
membri possono migliorare la gestione
idrica a livello nazionale, regionale o a
livello di bacini idrografici. L’attuazione
delle proposte presentate nel Piano si
baserà sulla strategia comune di attuazione prevista dalla Direttiva quadro sulle acque e sarà fondata su un processo
aperto e partecipativo che coinvolgerà
gli Stati membri, le organizzazioni non
governative e le imprese;

la proposta di direttiva della Commissione, in data 3 dicembre, per garantire
a tutti l’accessibilità dei siti web degli
enti pubblici. Tale proposta prevede,
dalla fine del 2015, l’introduzione di
elementi di accessibilità obbligatori e
uniformati a livello di UE per 12 tipi di siti
internet. L’obbligo di accessibilità si applicherebbe a servizi pubblici fondamentali, quali la sicurezza sociale e i servizi
sanitari, la ricerca di un lavoro, le iscrizioni universitarie e il rilascio di documenti
e certificati;

l’adozione, in data 3 dicembre, di una
strategia marittima per il Mare Adriatico e il Mar Ionio intesa a stimolare
una crescita intelligente, sostenibile e
inclusiva nella regione. La strategia si
fonda su quattro pilastri: un’economia
blu rafforzata, un ambiente marino più
sano, uno spazio marittimo più sicuro e
attività di pesca responsabili. Alla base
vi sono l’iniziativa della Commissione
“Crescita blu” e la dichiarazione di Limassol sull’agenda marina e marittima
per la crescita e l’occupazione, recentemente adottata dai ministri dell’UE;

la proposta, in data 4 dicembre, di un nuovo Programma d’azione per l’ambiente
chiamato “Living well, within the limits of
our planet”, che fissa un’agenda strategica per le politiche ambientali e individua
nove obiettivi prioritari da realizzare entro
il 2020. Il programma, se accolto favorevolmente dal Parlamento e dal Consiglio
europeo, contribuirà a diffondere una
comprensione comune delle principali sfide ambientali e delle misure da adottare
per affrontarle in maniera efficace;

la presentazione, in data 6 dicembre,
del Quadro di valutazione 2012 degli
investimenti industriali in R&S, basato su un campione di 1500 imprese (di

la
EAI
Energia, Ambiente e Innovazione
6/2012
Rubriche
misure di gestione del rischio.
San Diego, California, ha ospitato infine lo scorso ottobre la XXIV Conferenza mondiale sulla Fusione organizzata
dall’IAEA, con la presenza di oltre mille
ricercatori provenienti da tutto il mondo.
Nel corso del convegno si è discusso dei
nuovi orientamenti in materia di ricerca
sulla fusione alla luce delle realizzazioni in
corso di ITER in Francia e Livermore negli
Stati Uniti. La conferenza ha inteso costituire una piattaforma per il confronto e la
condivisione dei più recenti progressi nel
campo con un focus particolare sulla fisica della fusione nonché sulla tecnologia,
l’ingegneria e la sicurezza della fusione
quale fonte di energia nucleare.
69
cui 405 con sede nell’UE) quali maggiori investitori in R&S a livello mondiale. Il
rapporto misura il valore totale degli investimenti complessivi in R&S finanziati
con fondi propri, indipendentemente
dal luogo in cui si svolge la relativa
R&S;

l’annuncio, in data 7 dicembre, di un
piano d’azione (“A digital future for
healthcare”) per far cadere le barriere
al pieno utilizzo delle soluzioni digitali
nei sistemi sanitari europei. L’obiettivo
è migliorare le prestazioni sanitarie a
beneficio dei pazienti, offrire a questi
ultimi un maggiore controllo delle proprie cure mediche e ridurre i costi;

la presentazione ufficiale, in data 11
dicembre, di “Copernicus”, il nuovo
programma di osservazione della terra
della Commissione, precedentemente
noto come GMES (monitoraggio globale per l’ambiente e la sicurezza).
Copernicus mira a monitorare le condizioni dell’ambiente terrestre, marino e
atmosferico e a migliorare la sicurezza
dei cittadini ed è costituito da un insieme di servizi che raccolgono dati e
forniscono informazioni utilizzando i satelliti e i sensori terrestri per osservare
l’ambiente e i fenomeni naturali che avvengono sul pianeta;

l’adozione, in data 18 dicembre, del
Piano strategico di attuazione (Strategic Implementation Plan, SIP) della
EIP Water. Tale piano definisce cinque
ambiti d’intervento prioritari nel settore
idrico per i quali occorre trovare delle
soluzioni: riutilizzazione e riciclaggio
dell’acqua, trattamento dell’acqua e
delle acque reflue, acqua e energia,
gestione dei rischi connessi ad eventi
eccezionali, servizi ecosistemici;

la definizione, in dicembre, della composizione degli organi di governance (gruppo direttivo di alto livello, il
gruppo Sherpa e i gruppi operativi) del
Partenariato Europeo per l’Innovazione
sulle materie prime (EIP Raw Materials).
Continuano le consultazioni pubbliche
avviate nell’ultimo periodo dalla CE riguardanti il prossimo programma quadro
di ricerca e innovazione dell’UE “Horizon
2020”. Dal 1 ottobre al 23 dicembre è
aperta quella sul futuro della ricerca metrologica europea (EMRP) nell’ambito di
Horizon 2020. Il 26 ottobre è stata lanciata
la consultazione sulle Future and Emerging Technologies (FETs), con scadenza
30 novembre, per identificare un orientamento per la ricerca su tali tecnologie
e gli argomenti di ricerca d’importanza
strategica. Il 10 dicembre è stata lanciata
70
EAI
Energia, Ambiente e Innovazione
6/2012
la consultazione su come migliorare la
politica dell’UE sulla qualità dell’aria.
Scopo della consultazione, aperta fino al 4
marzo 2013, è quello di verificare come il
quadro in vigore possa essere pienamente attuato, migliorato e integrato con nuovi interventi. I risultati confluiranno nella
revisione globale delle politiche europee
sull’inquinamento dell’aria prevista per il
2013.
Parlamento e Consiglio Europeo
L’11 ottobre, Il Consiglio Europeo Competitività ha approvato i principali elementi
delle regole di partecipazione per il futuro programma Horizon 2020. L’11 dicembre, il Consiglio e il Parlamento europeo
hanno raggiunto un consenso che apre la
strada alla firma dell’accordo internazionale sulla UPC (Unified Patent Court) per
creare un brevetto comune applicabile
in quasi tutti i paesi europei, sulla base
di una singola applicazione e senza ulteriori formalità amministrative negli Stati
membri aderenti. I primi brevetti unitari potranno essere concessi nel mese di
aprile 2014.
(Valerio Abbadessa)
dalle
Istituzioni nazionali
Energia
È proseguita in Commissione Industria
del Senato l’indagine conoscitiva sulla
Strategia Energetica Nazionale, con lo
svolgimento di numerose audizioni. Contestualmente, il Ministero dello Sviluppo
economico ha svolto inoltre numerosi incontri e momenti di confronto per la definizione del documento finale della Strategia, sia di carattere istituzionale, sia con
associazioni di categoria e parti sociali.
Ha inoltre attivato la consultazione on-line
sul sito del Ministero, a cui hanno partecipato tutti i cittadini con commenti, suggerimenti e documentazione. In occasione
dell’audizione presso il Senato, il Ministro
Passera ha illustrato i 4 obiettivi principali
della strategia al 2020: competitività; ambiente; sicurezza; crescita. Il documento
dà molto spazio al tema dell’efficienza
energetica e contiene inoltre il riferimento al riordino dell’ENEA, con l’obiettivo
di focalizzare le attività e l’organizzazione
dell’ente sulle aree di ricerca prioritarie
per la strategia del Paese e razionalizzare
le potenziali sovrapposizioni con altri enti
pubblici.
All’inizio del mese di novembre è stato
emanato, dai ministri dello Sviluppo economico, dell’Ambiente e delle Politiche
Agricole, lo schema di decreto ministeriale
che, attraverso un nuovo sistema di incentivazione, si propone il duplice obiettivo di
dare impulso alla produzione di energia
termica da fonti rinnovabili (riscaldamento
a biomassa, pompe di calore, solare termico e solar cooling) e di accelerare i progetti di riqualificazione energetica degli
edifici pubblici.
Per quanto riguarda le fonti rinnovabili
termiche, il nuovo sistema incentivante
promuoverà interventi di piccole dimensioni, tipicamente per usi domestici e per
piccole aziende, comprese le serre, fino
ad ora poco supportati da politiche di sostegno. In questo modo si rafforza la leadership tecnologica della filiera nazionale
in comparti con un forte potenziale di crescita internazionale. Per quel che riguarda
invece gli incentivi all’efficienza energetica per la Pubblica Amministrazione, il
provvedimento aiuta a superare le restrizioni fiscali e di bilancio che non hanno
finora consentito alle amministrazioni di
sfruttare pienamente le potenzialità offerte dal risparmio energetico.
Ilva
All’inizio del mese di ottobre, il Parlamento ha approvato il decreto legge “Disposizioni urgenti per il risanamento ambientale e la riqualificazione del territorio della
città di Taranto”. Il Decreto si concentra
sugli interventi per risanare e rilanciare
la città. Prevede la nomina di un commissario straordinario, la disponibilità di 336
milioni di euro (di cui 187 per il porto) e il
riconoscimento di Taranto come “area in
situazione di crisi industriale complessa”.
I finanziamenti previsti sono: 110 milioni
di euro per le bonifiche; 30 milioni per il
rilancio degli investimenti produttivi; 20
milioni per la difesa del suolo e il disinquinamento. Altri 187 milioni fanno parte
dei programmi per gli interventi portuali.
Il riconoscimento dell’area in “situazione
di crisi industriale complessa” consente
l’accesso ai programmi di reindustrializzazione previsti dal decreto Crescita del
22 giugno (Legge n. 171 del 4 ottobre
2012).
Il Consiglio dei Ministri, nella riunione del
30 novembre, ha poi approvato un ulteriore provvedimento: il Decreto-legge 3 dicembre 2012, n. 207 “Disposizioni urgenti
a tutela della salute, dell’ambiente e dei
livelli di occupazione, in caso di crisi di
stabilimenti industriali di interesse strategico nazionale”. Il decreto è finalizzato al
risanamento ambientale e alla continuità
Crescita
Il Consiglio dei Ministri, nella riunione del
4 ottobre scorso ha approvato il decretolegge “Misure urgenti per l’innovazione e
la crescita: agenzia digitale e startup”. Il
decreto contiene un insieme di iniziative
mirate a semplificare l’avvio di una impresa startup, un azienda che nasce e produce
nuove iniziative tecnologiche a condizione
che si tratti di progetti trasparenti, con un
grande contenuto di innovazioni. Ulteriori importanti misure vengono assunte sul
fronte dell’applicazione dell’Agenda Digitale, della defiscalizzazione delle opere
infrastrutturali strategiche, dell’attrazione
degli investimenti diretti esteri, del rafforzamento del sistema dei Confidi per
migliorare l’accesso al credito delle PMI
di significative liberalizzazioni nel settore
assicurativo. Il decreto è stato approvato
dal Parlamento all’inizio del mese di dicembre.
(Laura Migliorini)
dai
Giornali
Rinnovabili
Mentre PIL e produzione industriale stentano, i settori delle energie rinnovabili e
del risparmio energetico rappresentano
oggi le principali opportunità di crescita diretta; in particolare, il settore della
green economy è uno dei pochi che, nonostante la crisi globale degli ultimi anni,
è cresciuto in termini di investimenti ed
occupazione. Altrettanto importante viene considerato lo sviluppo dell’efficienza
energetica. Il raggiungimento in Italia degli obiettivi di risparmio al 2020 richiederà investimenti anche in quest’area, stimati in circa 60 miliardi di euro. Il Governo
ha varato intanto la nuova Strategia Energetica Nazionale: insieme ad una robusta
serie di provvedimenti c’è l’obiettivo di
puntare allo sviluppo delle rinnovabili, cercando di risparmiare sulla bolletta
elettrica e sulle importazioni dall’estero.
Questo significherà ridurre del 17% la nostra dipendenza energetica (l’equivalente
di un punto di PIL recuperato), inoltre
sono in programma investimenti per rinforzare le reti, realizzare rigassificatori e
fare del nostro paese un polo del gas. Già
dalla Conferenza delle Nazioni Unite di
Rio si era capito che la strada per avviare
una nuova fase di sviluppo era quella della green economy in grado di sollecitare
cambiamenti nel modello energetico per
far fronte alla crisi climatica, dando priorità all’efficienza energetica cosi come
alla generazione distribuita basata su una
rapida crescita delle fonti rinnovabili. In
questo contesto si è collocata l’iniziativa
(organizzata dal Ministero dell’Ambiente
e da 39 organizzazioni di imprese green)
di convocare gli “Stati Generali della Green Economy”che si sono tenuti a Rimini in
occasione di Ecomondo il 7 e 8 novembre
scorsi. La stampa ha dato ampio riscontro
a questa “rivoluzione energetica” che può
realmente contribuire a far uscire l’Italia
dalla crisi che sta vivendo. Sempre ad
Ecomondo, nella sezione “città sostenibile”, si è parlato di “smart city” per dimostrare come la “città intelligente” possa
diventare un volano economico non solo
per le città ma anche per le aziende indirizzate sempre di più verso una vera
e propria “eco-convergenza”. Da un indagine realizzata da ForumPa le città più
“smart” sono risultate Bologna e Parma, il
sud appare ancora in ritardo.
Nucleare
La Commissione Europea, in seguito ai
risultati dei test di resistenza (stress test)
degli impianti nucleari, ha affermato: “Le
norme di sicurezza degli impianti nucleari
in Europa sono generalmente di alto livello ma si raccomandano ulteriori miglioramenti per quanto riguarda gli aspetti relativi alla sicurezza di quasi tutte le centrali
europee”. In particolare, ogni centrale dovrebbe disporre di strumenti sismici in
situ per misurare e dare l’allarme in caso
di terremoto. Rilevante è stato lo spazio
dedicato sulla stampa alle operazioni finali
di smantellamento della centrale di Trino
Vercellese in seguito all’approvazione da
parte del Ministero dello Sviluppo Economico del decreto di disattivazione. Per la
bonifica dell’impianto di Trino e le attività
di smantellamento, il piano della SOGIN
prevede circa 234 milioni di euro, di cui
circa 52 milioni per il conferimento dei
rifiuti al deposito nazionale. Conclusa la
bonifica, il sito sarà restituito al territorio
per il suo riutilizzo nel 2024.
Ricerca
La prima bozza della legge di stabilità,
nell’art. 11 riguardante il riordino degli
Enti di Ricerca, aveva previsto un “super
CNR” affiancato da due nuove agenzie,
una per il trasferimento tecnologico e l’altra per il finanziamento della ricerca. Il
piano presentato da Francesco Profumo
al governo, anticipato da un articolo del
Sole 24Ore, ha alzato un vero e proprio
polverone. Sono insorti i presidenti dei
12 enti di ricerca vigilati dal MIUR. Si è
rivoltato l’intero mondo scientifico. Dopo
giorni e giorni di bufera mediatica, la
Commissione Bilancio della Camera ha
stralciato l’art. 11 in quanto considerato
difforme dagli argomenti propri di una
legge di stabilità.
Ad ottobre grande eco ha avuto sulla stampa la condanna per omicidio colposo dei
membri della Commissione Grandi Rischi, colpevoli, per il tribunale dell’Aquila, di aver sottovalutato il pericolo e fornito informazioni “imprecise e incomplete”
sul sisma del 2009. Molte prestigiose riviste scientifiche (Nature, Science) hanno
seguito con attenzione la vicenda e molti
scienziati hanno parlato di una decisione
“pericolosa”, di un “processo alla scienza” affermando che i terremoti non si
possono prevedere, né si può condannare uno scienziato perché non ha previsto
l’imprevedibile. Per i magistrati invece
non sarebbe stata attaccata la scienza,
bensì quegli scienziati che avrebbero
dato informazioni “inesatte, incomplete e
contraddittorie”, non fornendo alla popolazione elementi sufficienti per valutare il
rischio. Non si sarebbe trattato di un “processo alla scienza”, ma di un “processo
alla comunicazione della scienza”.
Per il resto, si è parlato molto dei principali incentivi fiscali che il Governo ha
messo in campo per favorire la nascita e
la diffusione delle imprese innovative, le
cosiddette start-up. Infine il premio Nobel per la Fisica 2012 è stato assegnato ai
ricercatori Serge Haroche e David Wineland per aver aperto le porte ai computer
quantistici. Niente da fare per i ricercatori
del bosone di Higgs, grandi favoriti nelle
previsioni.
EAI
Energia, Ambiente e Innovazione
6/2012
Rubriche
produttiva dell’Ilva di Taranto, nel pieno
rispetto delle fondamentali esigenze di tutela della salute e dell’ambiente, imponendo lo scrupoloso rispetto di tutte le prescrizioni adottate dalle autorità amministrative
competenti. Si stabilisce che la società
Ilva abbia la gestione e la responsabilità
della conduzione degli impianti e che sia
autorizzata a proseguire la produzione e
la vendita per tutto il periodo di validità
dell’Autorizzazione Integrata Ambientale.
Si prevede poi che la società mantenga
la gestione e la responsabilità della conduzione degli impianti dello stabilimento
di Taranto, anche ai fini dell’osservanza di
ogni obbligo di tutela sanitaria e ambientale. Il decreto introduce la figura del Garante della vigilanza sull’attuazione degli
adempimenti ambientali e di tutte le altre
disposizioni del decreto, che sarà nominato con un successivo provvedimento.
71
Ambiente
Continua la tormentata vicenda dell’Ilva
di Taranto, primo polo siderurgico d’Europa, dopo che la magistratura ha deciso
di procedere al sequestro degli impianti per disastro ambientale e nonostante
l’ottenimento, nell’agosto del 2011, dell’
AIA ovvero la Autorizzazione Integrata
Ambientale. Lavoratori e sindacati si sono
schierati a difesa dei posti di lavoro. L’Ilva,
da parte sua, ha ribadito che potrà «avviare l’applicazione dell’autorizzazione ambientale» soltanto «dopo aver ottenuto la
piena e completa disponibilità dei beni»
non potendo operare sugli stessi «alcun
intervento manutentivo e/o modificativo»
Il Ministro Clini è intervenuto affermando che l’AIA deve essere applicata subito perché da qui passano l’abbattimento
delle emissioni nocive e il risanamento
ambientale della fabbrica; inoltre, «come
indica chiaramente l’Unione europea la
strategia di risanamento ambientale degli impianti industriali avviene attraverso
il loro risanamento non la loro chiusura».
Chiudere l’Ilva, dice ancora Clini, equivarrebbe a «fare un grande favore ai
concorrenti internazionali» che non applicano gli stessi nostri stringenti standard
ambientali, inoltre “si lascerebbe lì un
deserto inquinato» per non parlare degli
effetti sociali enormi che la chiusura comporterebbe in questo momento, lasciando
senza reddito 20.000 famiglie.
La seconda fase dell’AIA «ha senso se lo
stabilimento resta aperto», ha aggiunto
ancora il Ministro a proposito della missione a Taranto della Commissione istruttoria
che ha rilasciato l’Autorizzazione Integrata
Ambientale per la fase «due» che riguarda i rifiuti, la depurazione delle acque e
la gestione delle discariche. «L’iniziativa
dell’AIA per l’Ilva - ha spiegato Clini - è
stata presa per rendere lo stabilimento
per la produzione di acciaio il più pulito
e moderno d’Europa e per garantire il diritto alla salute, a un ambiente sano, e al
lavoro. Anche Giorgio Napolitano è inter-
venuto, insistendo per una soluzione e un
accordo tra le parti che possa sbloccare la
situazione al più presto.
Per il resto, nel mese di novembre le
conseguenze del maltempo in Liguria e
Toscana hanno riacceso i riflettori sull’urgenza per l’Italia di dotarsi di un “piano
nazionale per l’adattamento ai cambiamenti climatici e per la messa in sicurezza del territorio”, le cui linee guida sono
delineate nel cosiddetto “Piano Clini”.
Occorrono interventi che sappiano coniugare prevenzione, informazione e coordinamento, perché il rischio idrogeologico
riguarda l’82% (6.633) dei Comuni italiani; Clini stesso ha confermato che servono 40 miliardi per mettere in sicurezza il
territorio e ha avvertito che “più tempo si
aspetta più alti saranno i costi”. Il Piano
per l’adattamento ai cambiamenti climatici, la gestione sostenibile e la messa in
sicurezza del territorio sarà a breve sul
tavolo del CIPE.
(Laura Di Pietro)
1234
5 6 7 8 Calendario eventi
9 10 11
ONLINE LEARNING EVENT ON AGROFORESTRY FOR FOOD SECURITY AND CLIMATE CHANGE MITIGATION
Eventi on-line promossi da FAO assieme a Tropical Agricultural Research and Higher Education Center (CATIE) e Tropical Agricultural Research and Higher
Education Center (CATIE) sul tema della mitigazione del cambiamento climatico in agricoltura. Il fine è quello di facilitare gli scambi di conoscenza e buone
pratiche fra gli esperti di scienze agro-forestali, policy-maker e ONG in vista della Conferenza della FAO sulle foreste in programma a maggio.
4-26 febbraio, webinar e forum on-line
http://www.pfbc-cbfp.org/news_en/items/FAO-ICRAF-CATIE-Event.html
27TH SESSION OF UNEP GOVERNING COUNCIL/GLOBAL MINISTERIAL ENVIRONMENT FORUM
27° sessione del Governing Council/Global Ministerial Environment Forum dell’ UN Environment Programme (UNEP). Forum ambientale globale
annuale a livello ministeriale.
8-22 febbraio, Nairobi, Kenya
http://www.unep.org/ecalendar/contents/upcoming_events.asp
HIGH-LEVEL MEETING ON NATIONAL DROUGHT POLICY: TOWARDS MORE DROUGHT RESILIENT SOCIETIES
Promosso da World Meteorological Organization (WMO) e Segretariato della UN Convention to Combat Desertification (UNCCD), in collaborazione con
altre agenzie ONU e internazionali. Fornirà analisi approfondite per azioni fondate su cognizioni scientifiche tese ad affrontare il problema della siccità.
11-15 marzo, Ginevra, Svizzera
http://www.hmndp.org/
WORLD WATER DAY 2013
L’ONU ha designato il 2013 International Year of Water Cooperation. Il 22 marzo è il giorno dedicato alla sua celebrazione.
22 marzo 2013, Parigi e altre parti del mondo
http://www.unwater.org/watercooperation2013.html
INTERNATIONAL CONFERENCE ON FORESTS FOR FOOD SECURITY AND NUTRITION
Conferenza organizzata dalla FAO) in partnership con il Center for International Forestry Research (CIFOR), il World Agroforestry Centre (ICRAF), la World Bank
and Bioversity International, con focus sull’impatto di foreste ed alberi sulla sicurezza alimentare e la nutrizione, specialmente nei Paesi in via di sviluppo.
13-15 maggio, Roma
http://www.fao.org/forestry/food-security/en/
72
EAI
Energia, Ambiente e Innovazione
6/2012