Come sviluppare accurati modelli di previsione della domanda di gas: l’esperienza di E.ON Simone Pirola – Logistics Power & Gas Milano, 22 marzo 2011 Agenda 1. 2. 3. 3. 4. 5. 6. Il gruppo E.ON Contesto normativo EDM: elaborazione dei dati di consuntivo Forecast gas: due approcci complementari Il metodo dei giorni simili Le reti neurali Next steps Agenda 1. 2. 3. 3. 4. 5. 6. Il gruppo E.ON Contesto normativo EDM: elaborazione dei dati di consuntivo Forecast gas: due approcci complementari Il metodo dei giorni simili Le reti neurali Next steps Il gruppo E.ON E.ON in Italia Liv. Ferraris3 (821 MW) 5,9 GW Tavazzano (1.460 MW) Ostiglia (1.482 MW) Gas Gas/olio combustibile CEF2 (150 MW) Idroelettrico Terni (681 MW) Rinnovabili 1,3 CET2 Fiume Santo (1.040 MW) (150 MW) 0,6 0,5 0,3 Scandale1 (814 MW) Trapani (170 MW) CCGT Carbone / Olio / Altro Idroelettrico Aree Distribuzione Gas 1 50% E.ON E.ON 3 75% E.ON 2 58,4% 3,2 Carbone più ~ 280 MW di capacità eolica Distribuzione gas (2010) Punti di riconsegna Rete di distribuzione Gas vettoriato 601.000 9.208 Km 1.101 Mmc Vendite (2009) Energia elettrica Gas Clienti 44,2 TWh 25,7 TWh ~850.000 Agenda 1. 2. 3. 3. 4. 5. 6. Il gruppo E.ON Contesto normativo EDM: elaborazione dei dati di consuntivo Forecast gas: due approcci complementari Il metodo dei giorni simili Le reti neurali Next steps Contesto normativo Introduzione del SBSM Del. 137/02 e Codice di Rete DCO 46/10: consumo stimato annuo associato al PdR, Revisione Load Profiling (curve dinamiche) Agenda 1. 2. 3. 3. 4. 5. 6. Il gruppo E.ON Contesto normativo EDM: elaborazione dei dati di consuntivo Forecast gas: due approcci complementari Il metodo dei giorni simili Le reti neurali Next steps EDM: i dati di consuntivo Repository Benefici Dati di consumo Allocazioni REMI misure PdR Dati anagrafici Altitudine Profilo AEEG Contratti Volumi Dati meteo Temperature Irraggiamento Livello umidità Pulizia del dato completezza della serie Eliminazione spike Affidabilità e robustezza EDM: i dati di consuntivo esempio di curva giornaliera in cui sono evidenziati i principali flags utilizzati per distinguere i diversi stati delle misure Agenda 1. 2. 3. 3. 4. 5. 6. Il gruppo E.ON Contesto normativo EDM: elaborazione dei dati di consuntivo Forecast gas: due approcci complementari Il metodo dei giorni simili Le reti neurali Next steps Forecast gas: due approcci complementari Il metodo dei Giorni Simili Le reti neurali artificiali Valutazione del forecast partendo dall’ipotesi di un comportamento analogo a parità di scenario previsivo Modelli matematici che rappresentano l'interconnessione tra elementi definiti neuroni artificiali, ossia costrutti matematici che imitano le proprietà dei neuroni biologici Agenda 1. 2. 3. 3. 4. 5. 6. Il gruppo E.ON Contesto normativo EDM: elaborazione dei dati di consuntivo Forecast gas: due approcci complementari Il metodo dei giorni simili Le reti neurali Next steps Il metodo dei Giorni Simili Il metodo consiste nell’individuazione di giorni “simili” (nel senso di confrontabili) con il giorno da prevedere, inclusi in una determinata finestra temporale settata dall’utente L’output generalmente è una media di questi valori,in funzione del calendario delle festività dell’anno in corso Il metodo dei Giorni Simili Tipo di previsione: orizzonte temporale breve Parametri di Forecast: -Calendario festività -Finestra di ricerca Giorni Simili -Valore Medio sul periodo Il metodo dei Giorni Simili Esempio di applicazione: la previsione dei consumi dell’anno 2009 è basata sui consuntivi 2008 con opportuni aggiustamenti di calendario ed eventuali modifiche nella forma della curva giornaliera Il metodo dei Giorni Simili Il metodo dei giorni simili dimostra la sua efficacia nel prevedere i consumi di un cliente industriali con prelievo regolari nel tempo Il metodo dei Giorni Simili Difetti: 1. Effetto smoothing dell’utilizzo della media dei giorni 2. Forecast influenzato dal profilo stagionale impostato 3. La temperatura viene considerata in maniera non corretta 4. Se nel periodo il sistema non trova giorni simili non produce forecast Agenda 1. 2. 3. 3. 4. 5. 6. Il gruppo E.ON Contesto normativo EDM: elaborazione dei dati di consuntivo Forecast gas: due approcci complementari Il metodo dei giorni simili Le reti neurali Next steps Le reti neurali Le reti neurali artificiali nascono dall’esigenza di riprodurre attività tipiche del cervello umano, come il riconoscimento di forme e caratteri, la percezione delle immagini, la comprensione del linguaggio e il coordinamento senso-motorio. Una rete neurale è in grado di apprendere dall’esperienza ed elaborare risposte nuove anche di fronte a nuove situazioni. Essa riesce ad adattarsi all’ambiente circostante e a modellare la realtà, imparando le leggi che la governano attraverso l’esperienza. Le reti neurali artificiali prendono esempio dalla biologia e, in particolare, proprio dalla struttura del cervello umano. Pertanto possiamo definire un neurone artificiale come un modello matematico semplificato del neurone biologico, previsto di una funzione d’attivazione che dipende dagli stimoli che riceve in input. Le reti neurali I neuroni inviano segnali ad altri neuroni mediante un prolungamento detto assone I neuroni tipicamente possiedono strutture arboree chiamate dendriti che ricevono segnali inviati dagli assoni di altri neuroni mediante giunzioni dette sinapsi Le reti neurali Le reti neurali artificiali (Artificial Neural Networks o ANN) sono una simulazione astratta del nostro sistema nervoso Il primo modello di neurone artificiale fu proposto nel 1943 da McCulloch e Pitts nei termini di un modello computazionale dell’attività nervosa (Threshold Logic Unit) Def. “Le Reti neurali artificiali sono reti interconnesse in via massivamente parallela di semplici elementi e delle loro organizzazioni gerarchiche, intese per interagire con gli oggetti del mondo reale in modo analogo ai sistemi nervosi biologici” T.Kohonen (Helsinki University of Technology), An introduction to Neural Computing, in Neural Networks, vol.1, 1988] Le reti neurali Le reti neurali si compongono di un primo strato (o strato di ingresso), dove vengono forniti i dati (formato da neuroni di input), uno stato che fornisce la risposta (detto anche strato di uscita, formato da neuroni di output) ed uno o più strati intermedi (composti da neuroni detti unità nascoste) che “rielaborano” i dati forniti nello strato di ingresso. Forma della funzione d’attivazione, associata ad ogni nodo (tranne quelli di input): y = f w 0 + ∑ wixi i dove w0 è il valore di soglia, xi sono i valori dei neuroni dello strato precedente e wi i pesi che collegano quest’ultimi al nodo in esame Le reti neurali il numero di neuroni dello strato intermedio non è fisso, ma può essere scelto a discrezione, sapendo che il tempo impiegato per l'apprendimento (da un punto di vista computazionale), sarà più elevato utilizzando più neuroni nello strato intermedio. Utilizzando più neuroni per lo strato intermedio o anche per gli altri strati, la rete avrà bisogno di maggiore tempo di addestramento senza ulteriori benefici nella bontà della stima (sovrapprendimento). L'apprendimento di una rete neurale consiste nella ricerca di un minimo di una funzione in uno spazio n-dimensionale. Tale funzione è data dalla variazione dell'errore in base ai pesi della rete. Si deve perciò modificare il valore dei vari pesi sinaptici (rafforzandone alcuni e indebolendone altri). Le reti neurali Pregi Difetti possono essere impiegate in contesti dove i dati possono essere parzialmente errati o dove non esistono modelli analitici in grado di affrontare il problema le reti neurali lavorano in parallelo e sono quindi in grado di trattare molti dati adatte a descrivere un sistema nelle condizioni operative rispecchiate dai dati sperimentali (modello euristico) se una variabile è ridondante e non migliora il modello, viene automaticamente scartata i risultati ottenuti mediante le reti neurali restano molto efficienti ma non sono spiegabili in modo chiaro e dobbiamo accettarli “così come sono” (black box) necessitano di una fase di addestramento del sistema che può richiedere molto tempo la riuscita di una rete dipende molto dall'esperienza del creatore Le reti neurali Input Variabili di supporto + Consumo storico REMI Calendario Temperatura (gradi giorno HDD) Umidità 23/12… 09/12… 25/11/… 11/11/ … 28/10… 14/10/… 30/09… Consumi [Smc] 16/09… 02/09… 19/08… 05/08… 22/07… 08/07… 24/06… 10/06… 27/05… 13/05… 29/04… 15/04… 01/04… 18/03… 04/03… 18/02… 04/02… 21/01/… 07/01… 24/12… 10/12/… 26/11/… 12/11/ … 29/10… 15/10/… 01/10/… Le reti neurali Load vs HDD HDD I prelievi dei City Gate (elevata concentrazione di clientela residenziale) sono sensibilmente correlati alla temperatura [es. correlazione 96%] Le reti neurali Variabili di Input Tipo giorno [1,9] (gg settimana + festivi + ponti) Settimana [1,53] Progressivo GAS [1 winter, 0 summer] Temperatura stazione rif. Le reti neurali Setup del modello ANN su sistema di forecast 1 neurone di output 5 neuroni nascosti 14 ricettori delle variabili di input Le reti neurali Propagazione dell’impulso nella rete e forma di curva Le reti neurali Scelta modello intervalli in cui si ha disponibilità sia delle variabili di input sia della variabile di output su cui verrà effettuato il training Errore periodo learn + errore di verifica Periodo di verifica Le reti neurali DRP (dynamic resilient propagation): il sistema di forecasting aggiunge indipendentemente i neuroni a uno o più strati nascosti, se determina che la precisione non migliora in misura sufficiente durante formazione; DRP1: analogo al DRP, salvo che il neurone supplementare è aggiunto al livello nascosto; RPR (resilient propagation): viene effettuato utilizzando una topologia di rete fissa che non viene automaticamente estesa, se l’accuratezza non aumenta in misura sufficiente durante l'allenamento, ma a scelta dell’utente; CAS (cascading), simile a DRP, salvo che i neuroni esistenti sono congelati (e quindi esclusi dall’apprendimento continuo), quando un ulteriore neurone viene aggiunto al livello nascosto; CAS1, come per il CAS, salvo che il neurone supplementare è aggiunto al livello nascosto. Le reti neurali Training della rete neurale: 1000 cicli di learn per ogni run Errore per periodo learn e di verifica Run a 3 neuroni nascosti e regola di evoluzione del modello Le reti neurali 92% consumo civile 1°run: 4 neuroni Periodo : 1/10/2008 – 30/11/2010 Errore: -su periodo learn 3,88 % - su stima (nov. 2010) 3,52% Le reti neurali 90% consumo civile 1°run: 4 neuroni Periodo : 1/1/2009 – 30/09/2010 Errore: -su periodo learn 4,53 % - su stima (set. 2010) 2,015% Le reti neurali 98% consumo civile 1°run: 7 neuroni Periodo : 1/1/20098– 30/05/2010 Errore: -su periodo learn 5,11 % - su stima (mag. 2010) 1,29% Le reti neurali (2 grafici) Analisi dei risultati: distribuzione dei valori stimati e dell’errore Le reti neurali Analisi dei risultati: caso di rete non configurata correttamente Le reti neurali Analisi dei risultati: intervallo di confidenza (95%) Agenda 1. 2. 3. 3. 4. 5. 6. Il gruppo E.ON Contesto normativo EDM: elaborazione dei dati di consuntivo Forecast gas: due approcci complementari Il metodo dei giorni simili Le reti neurali Next steps Next steps Cluster Analysis 1 0,0003000 0,9 0,0002500 0,8 0,7 0,0002000 0,6 0,5 0,0001500 0,4 0,0001000 0,3 0,2 0,0000500 0,1 - 0 0,0005000 1 0,0004500 0,9 0,0004000 0,8 0,0003500 0,7 0,0003000 0,6 0,0002500 0,5 0,0002000 0,4 0,0001500 0,3 0,0001000 0,2 0,0000500 0,1 - 0 Bibliografia Ernesto Burattini e Roberto Cordeschi, Intelligenza Artificiale, Roma, Carocci Patarnello S., Le reti neuronali, Milano, Franco Angeli Giampiero Fabbri e Raimondello Orsini, Reti neurali per le scienze economiche, Franco Muzzio editore Meraviglia C., Le reti neurali nella ricerca sociale, Bologna, Il Mulino, 2001. Floreano D., Mattiussi C., Manuale sulle reti neurali, Bologna, Il Mulino, 2002. Pessa E., Statistica con le reti neurali, Roma, Di Renzo Editore, 2004. Amit, D. J. "Modeling brain function", 1989 New York, NY: Cambridge University Press. G. Finzi, A. Visioli, M. Volta: Analisi e controllo di sistemi dinamici. Un laboratorio informatico S.J.Russel, P. Norvig: Intelligenza Artificiale, Prentice Hall 2002. Mohamad H. Hassoun, Fundamentals of Artificial Neural Networks, MIT Press 1995. Patrizia Tabossi, Intelligenza naturale e intelligenza artificiale. Introduzione alla scienza cognitiva, Il Mulino, Bologna, 1997 P. Mc Corduck Storia dell'intelligenza artificiale, Muzzio, Milano, 1987 Grazie per l’attenzione…