Le reti neurali

annuncio pubblicitario
Come sviluppare accurati
modelli di previsione della domanda
di gas: l’esperienza di E.ON
Simone Pirola – Logistics Power & Gas
Milano, 22 marzo 2011
Agenda
1.
2.
3.
3.
4.
5.
6.
Il gruppo E.ON
Contesto normativo
EDM: elaborazione dei dati di consuntivo
Forecast gas: due approcci complementari
Il metodo dei giorni simili
Le reti neurali
Next steps
Agenda
1.
2.
3.
3.
4.
5.
6.
Il gruppo E.ON
Contesto normativo
EDM: elaborazione dei dati di consuntivo
Forecast gas: due approcci complementari
Il metodo dei giorni simili
Le reti neurali
Next steps
Il gruppo E.ON
E.ON in Italia
Liv.
Ferraris3
(821 MW)
5,9 GW
Tavazzano
(1.460 MW) Ostiglia
(1.482 MW)
Gas
Gas/olio combustibile
CEF2
(150 MW)
Idroelettrico
Terni
(681 MW)
Rinnovabili
1,3
CET2
Fiume
Santo
(1.040 MW)
(150 MW)
0,6
0,5
0,3
Scandale1
(814 MW)
Trapani
(170 MW)
CCGT
Carbone / Olio / Altro
Idroelettrico
Aree Distribuzione
Gas
1
50% E.ON
E.ON
3 75% E.ON
2 58,4%
3,2
Carbone
più ~ 280 MW di capacità eolica
Distribuzione gas (2010)
Punti di riconsegna
Rete di distribuzione
Gas vettoriato
601.000
9.208 Km
1.101 Mmc
Vendite (2009)
Energia elettrica
Gas
Clienti
44,2 TWh
25,7 TWh
~850.000
Agenda
1.
2.
3.
3.
4.
5.
6.
Il gruppo E.ON
Contesto normativo
EDM: elaborazione dei dati di consuntivo
Forecast gas: due approcci complementari
Il metodo dei giorni simili
Le reti neurali
Next steps
Contesto normativo
Introduzione del SBSM
Del. 137/02 e Codice di Rete
DCO 46/10:
consumo stimato annuo associato al PdR,
Revisione Load Profiling (curve dinamiche)
Agenda
1.
2.
3.
3.
4.
5.
6.
Il gruppo E.ON
Contesto normativo
EDM: elaborazione dei dati di consuntivo
Forecast gas: due approcci complementari
Il metodo dei giorni simili
Le reti neurali
Next steps
EDM: i dati di consuntivo
Repository
Benefici
Dati di consumo
Allocazioni REMI
misure PdR
Dati anagrafici
Altitudine
Profilo AEEG
Contratti
Volumi
Dati meteo
Temperature
Irraggiamento
Livello umidità
Pulizia del dato
completezza della serie
Eliminazione spike
Affidabilità e robustezza
EDM: i dati di consuntivo
esempio di curva giornaliera in cui sono evidenziati i principali flags
utilizzati per distinguere i diversi stati delle misure
Agenda
1.
2.
3.
3.
4.
5.
6.
Il gruppo E.ON
Contesto normativo
EDM: elaborazione dei dati di consuntivo
Forecast gas: due approcci complementari
Il metodo dei giorni simili
Le reti neurali
Next steps
Forecast gas:
due approcci complementari
Il metodo dei Giorni Simili
Le reti neurali artificiali
Valutazione del forecast partendo
dall’ipotesi di un comportamento
analogo a parità di scenario
previsivo
Modelli matematici che
rappresentano l'interconnessione
tra elementi definiti neuroni
artificiali, ossia costrutti
matematici che imitano le
proprietà dei neuroni biologici
Agenda
1.
2.
3.
3.
4.
5.
6.
Il gruppo E.ON
Contesto normativo
EDM: elaborazione dei dati di consuntivo
Forecast gas: due approcci complementari
Il metodo dei giorni simili
Le reti neurali
Next steps
Il metodo dei Giorni Simili
Il metodo consiste nell’individuazione di giorni “simili” (nel senso
di confrontabili) con il giorno da prevedere, inclusi in una
determinata finestra temporale settata dall’utente
L’output
generalmente è una
media di questi valori,in
funzione del calendario
delle festività dell’anno
in corso
Il metodo dei Giorni Simili
Tipo di previsione:
orizzonte temporale breve
Parametri di Forecast:
-Calendario festività
-Finestra di ricerca Giorni Simili
-Valore Medio sul periodo
Il metodo dei Giorni Simili
Esempio di applicazione: la previsione dei consumi dell’anno 2009 è
basata sui consuntivi 2008 con opportuni aggiustamenti di calendario ed
eventuali modifiche nella forma della curva giornaliera
Il metodo dei Giorni Simili
Il metodo dei giorni simili dimostra la sua efficacia nel prevedere i consumi
di un cliente industriali con prelievo regolari nel tempo
Il metodo dei Giorni Simili
Difetti:
1. Effetto smoothing dell’utilizzo della media dei giorni
2. Forecast influenzato dal profilo stagionale impostato
3. La temperatura viene considerata in maniera non corretta
4. Se nel periodo il sistema non trova giorni simili non produce forecast
Agenda
1.
2.
3.
3.
4.
5.
6.
Il gruppo E.ON
Contesto normativo
EDM: elaborazione dei dati di consuntivo
Forecast gas: due approcci complementari
Il metodo dei giorni simili
Le reti neurali
Next steps
Le reti neurali
Le reti neurali artificiali nascono dall’esigenza di riprodurre attività
tipiche del cervello umano, come il riconoscimento di forme e caratteri,
la percezione delle immagini, la comprensione del linguaggio e il
coordinamento senso-motorio.
Una rete neurale è in grado di apprendere dall’esperienza ed elaborare
risposte nuove anche di fronte a nuove situazioni. Essa riesce ad
adattarsi all’ambiente circostante e a modellare la realtà, imparando le
leggi che la governano attraverso l’esperienza.
Le reti neurali artificiali prendono esempio dalla biologia e, in
particolare, proprio dalla struttura del cervello umano. Pertanto
possiamo definire un neurone artificiale come un modello matematico
semplificato del neurone biologico, previsto di una funzione
d’attivazione che dipende dagli stimoli che riceve in input.
Le reti neurali
I neuroni inviano segnali ad altri neuroni mediante un prolungamento
detto assone
I neuroni tipicamente possiedono strutture arboree chiamate dendriti
che ricevono segnali inviati dagli assoni di altri neuroni mediante
giunzioni dette sinapsi
Le reti neurali
Le reti neurali artificiali (Artificial Neural Networks o ANN) sono una
simulazione astratta del nostro sistema nervoso
Il primo modello di neurone artificiale fu proposto nel 1943 da
McCulloch e Pitts nei termini di un modello computazionale dell’attività
nervosa (Threshold Logic Unit)
Def. “Le Reti neurali artificiali sono reti interconnesse in via
massivamente parallela di semplici elementi e delle loro organizzazioni
gerarchiche, intese per interagire con gli oggetti del mondo reale in
modo analogo ai sistemi nervosi biologici”
T.Kohonen (Helsinki University of Technology), An introduction to Neural Computing, in Neural Networks,
vol.1, 1988]
Le reti neurali
Le reti neurali si compongono di un primo
strato (o strato di ingresso), dove vengono
forniti i dati (formato da neuroni di input),
uno stato che fornisce la risposta (detto
anche strato di uscita, formato da neuroni
di output) ed uno o più strati intermedi
(composti da neuroni detti unità nascoste)
che “rielaborano” i dati forniti nello strato di
ingresso.
Forma della funzione d’attivazione,
associata ad ogni nodo (tranne quelli di
input):


y = f  w 0 + ∑ wixi 
i


dove w0 è il valore di soglia, xi sono i valori dei neuroni dello
strato precedente e wi i pesi che collegano quest’ultimi al nodo in
esame
Le reti neurali
il numero di neuroni dello strato intermedio non è fisso, ma può essere
scelto a discrezione, sapendo che il tempo impiegato per
l'apprendimento (da un punto di vista computazionale), sarà più elevato
utilizzando più neuroni nello strato intermedio.
Utilizzando più neuroni per lo strato intermedio o anche per gli altri
strati, la rete avrà bisogno di maggiore tempo di addestramento senza
ulteriori benefici nella bontà della stima (sovrapprendimento).
L'apprendimento di una rete neurale
consiste nella ricerca di un minimo di una
funzione in uno spazio n-dimensionale.
Tale funzione è data dalla variazione
dell'errore in base ai pesi della rete. Si
deve perciò modificare il valore dei vari
pesi sinaptici (rafforzandone alcuni e
indebolendone altri).
Le reti neurali
Pregi
Difetti
possono essere impiegate in
contesti dove i dati possono
essere parzialmente errati o dove
non esistono modelli analitici in
grado di affrontare il problema
le reti neurali lavorano in parallelo
e sono quindi in grado di trattare
molti dati
adatte a descrivere un sistema
nelle condizioni operative
rispecchiate dai dati sperimentali
(modello euristico)
se una variabile è ridondante e
non migliora il modello, viene
automaticamente scartata
i risultati ottenuti mediante le reti
neurali restano molto efficienti ma
non sono spiegabili in modo
chiaro e dobbiamo accettarli “così
come sono” (black box)
necessitano di una fase di
addestramento del sistema che
può richiedere molto tempo
la riuscita di una rete dipende
molto dall'esperienza del creatore
Le reti neurali
Input
Variabili di supporto
+
Consumo
storico REMI
Calendario
Temperatura (gradi
giorno HDD)
Umidità
23/12…
09/12…
25/11/…
11/11/ …
28/10…
14/10/…
30/09…
Consumi [Smc]
16/09…
02/09…
19/08…
05/08…
22/07…
08/07…
24/06…
10/06…
27/05…
13/05…
29/04…
15/04…
01/04…
18/03…
04/03…
18/02…
04/02…
21/01/…
07/01…
24/12…
10/12/…
26/11/…
12/11/ …
29/10…
15/10/…
01/10/…
Le reti neurali
Load vs HDD
HDD
I prelievi dei City Gate (elevata concentrazione di clientela residenziale)
sono sensibilmente correlati alla temperatura [es. correlazione 96%]
Le reti neurali
Variabili di Input
Tipo giorno [1,9]
(gg settimana +
festivi + ponti)
Settimana [1,53]
Progressivo GAS
[1 winter, 0 summer]
Temperatura
stazione rif.
Le reti neurali
Setup del modello ANN
su sistema di forecast
1 neurone di output
5 neuroni nascosti
14 ricettori delle
variabili di input
Le reti neurali
Propagazione dell’impulso nella rete e forma di curva
Le reti neurali
Scelta modello
intervalli in cui si ha disponibilità
sia delle variabili di input sia
della variabile di output su cui
verrà effettuato il training
Errore periodo
learn + errore
di verifica
Periodo di
verifica
Le reti neurali
DRP (dynamic resilient propagation): il sistema di forecasting aggiunge
indipendentemente i neuroni a uno o più strati nascosti, se determina
che la precisione non migliora in misura sufficiente
durante formazione;
DRP1: analogo al DRP, salvo che il neurone supplementare è aggiunto
al livello nascosto;
RPR (resilient propagation): viene effettuato utilizzando una topologia
di rete fissa che non viene automaticamente estesa, se l’accuratezza
non aumenta in misura sufficiente durante l'allenamento, ma a scelta
dell’utente;
CAS (cascading), simile a DRP, salvo che i neuroni esistenti sono
congelati (e quindi esclusi dall’apprendimento continuo), quando un
ulteriore neurone viene aggiunto al livello nascosto;
CAS1, come per il CAS, salvo che il neurone supplementare è aggiunto
al livello nascosto.
Le reti neurali
Training della rete
neurale:
1000 cicli di learn per
ogni run
Errore per periodo learn
e di verifica
Run a 3 neuroni
nascosti e regola di
evoluzione del modello
Le reti neurali
92% consumo civile
1°run: 4 neuroni
Periodo :
1/10/2008 – 30/11/2010
Errore:
-su periodo learn 3,88 %
- su stima (nov. 2010)
3,52%
Le reti neurali
90% consumo civile
1°run: 4 neuroni
Periodo :
1/1/2009 – 30/09/2010
Errore:
-su periodo learn 4,53 %
- su stima (set. 2010)
2,015%
Le reti neurali
98% consumo civile
1°run: 7 neuroni
Periodo :
1/1/20098– 30/05/2010
Errore:
-su periodo learn 5,11 %
- su stima (mag. 2010)
1,29%
Le reti neurali
(2 grafici)
Analisi dei risultati: distribuzione dei valori stimati e dell’errore
Le reti neurali
Analisi dei risultati: caso di rete non configurata correttamente
Le reti neurali
Analisi dei risultati: intervallo di confidenza (95%)
Agenda
1.
2.
3.
3.
4.
5.
6.
Il gruppo E.ON
Contesto normativo
EDM: elaborazione dei dati di consuntivo
Forecast gas: due approcci complementari
Il metodo dei giorni simili
Le reti neurali
Next steps
Next steps
Cluster Analysis
1
0,0003000
0,9
0,0002500
0,8
0,7
0,0002000
0,6
0,5
0,0001500
0,4
0,0001000
0,3
0,2
0,0000500
0,1
-
0
0,0005000
1
0,0004500
0,9
0,0004000
0,8
0,0003500
0,7
0,0003000
0,6
0,0002500
0,5
0,0002000
0,4
0,0001500
0,3
0,0001000
0,2
0,0000500
0,1
-
0
Bibliografia
Ernesto Burattini e Roberto Cordeschi, Intelligenza Artificiale, Roma, Carocci
Patarnello S., Le reti neuronali, Milano, Franco Angeli
Giampiero Fabbri e Raimondello Orsini, Reti neurali per le scienze economiche, Franco
Muzzio editore
Meraviglia C., Le reti neurali nella ricerca sociale, Bologna, Il Mulino, 2001.
Floreano D., Mattiussi C., Manuale sulle reti neurali, Bologna, Il Mulino, 2002.
Pessa E., Statistica con le reti neurali, Roma, Di Renzo Editore, 2004.
Amit, D. J. "Modeling brain function", 1989 New York, NY: Cambridge University Press.
G. Finzi, A. Visioli, M. Volta: Analisi e controllo di sistemi dinamici. Un laboratorio
informatico
S.J.Russel, P. Norvig: Intelligenza Artificiale, Prentice Hall 2002.
Mohamad H. Hassoun, Fundamentals of Artificial Neural Networks, MIT Press 1995.
Patrizia Tabossi, Intelligenza naturale e intelligenza artificiale. Introduzione alla scienza
cognitiva, Il Mulino, Bologna, 1997 P. Mc Corduck
Storia dell'intelligenza artificiale, Muzzio, Milano, 1987
Grazie per l’attenzione…
Scarica