Concorso pubblico a posti di professore universitario di ruolo fascia

CURRICULUM VITAE
Prof. Gian Luca FORESTI
UNIVERSITÀ DI UDINE
DIPARTIMENTO DI MATEMATICA ED INFORMATICA
Viale delle Scienze 208, 33100 Udine, ITALIA
 +39 432 558402
Fax +39 432 558499
e-mail: [email protected]
web page: http://www.uniud.it/foresti
1
INDICE
INFORMAZIONI GENERALI .......................................................................................................... 4
Dati Anagrafici ............................................................................................................................................. 4
Titoli di Studio ed Abilitazioni .................................................................................................................... 4
Tesi di Laurea e Dottorato di Ricerca ........................................................................................................ 4
Tesi di Laurea ............................................................................................................................................................. 4
Tesi di Dottorato ......................................................................................................................................................... 4
Posizioni Occupate ....................................................................................................................................... 5
Incarichi in Organizzazioni Internazionali................................................................................................ 6
Premi per Lavori Scientifici ........................................................................................................................ 7
Collaborazioni Scientifiche Internazionali ................................................................................................ 7
Periodi di studio presso Istituti di Ricerca Nazionali ed Internazionali, Docenza in Scuole Avanzate
Nazionali ed Internazionali, Visiting Professor ......................................................................................... 8
Attività Editoriali ed Organizzative ........................................................................................................... 8
Libri ............................................................................................................................................................................ 8
Editore Associato di Riviste Internazionali ................................................................................................................ 9
Membro del Comitato Scientifico di Riviste Nazionali .............................................................................................. 9
Membro del Comitato Scientifico di Collane Editoriali ............................................................................................. 9
Numeri Speciali su Riviste Internazionali .................................................................................................................. 9
Collaborazione nell’ organizzazione di Conferenze Internazionali e Nazionali (Chair, Co-chair, membro del
Program Committee, organizzatore di Sessioni Speciali e/o Tutorial, etc.) .............................................................. 10
Membro di Comitati di strutture scientifiche internazionali ..................................................................................... 16
Membro di Comitati e/o Consigli Direttivi di strutture Universitarie ....................................................................... 16
Attività di Revisione................................................................................................................................... 16
Revisore di articoli per Riviste Internazionali .......................................................................................................... 16
Revisore di articoli per Riviste Nazionali ................................................................................................................. 17
Revisore di tesi di Dottorato in Scuole Internazionali .............................................................................................. 17
Revisore di tesi di Dottorato in Scuole Nazionali ..................................................................................................... 18
Revisore di progetti di ricerca Nazionali ed Internazionali....................................................................................... 18
Partecipazione a Commissioni Giudicatrici per Concorsi ..................................................................... 20
Procedure di Valutazione Comparativa per Posti da Ricercatore Universitario ....................................................... 20
Commissione giudicatrice per gli esami di ammissione o esami finali dei corsi di dottorato di ricerca ................... 20
Concorsi in Enti Pubblici .......................................................................................................................................... 21
Attività di Coordinamento della Ricerca ................................................................................................. 21
Membro della Commissione di Ateneo per la Ricerca Scientifica ........................................................................... 21
Coordinatore di Attività di Ricerca Internazionali .................................................................................................... 21
Responsabile di Laboratori di Ricerca ...................................................................................................................... 21
Responsabile Scientifico di Borse di Ricerca ........................................................................................................... 21
Responsabile Scientifico di Assegni di Ricerca e Contratti di Collaborazione........................................................ 22
Responsabile Scientifico di Borse di Dottorato di Ricerca ...................................................................................... 23
Attività di Coordinamento della Didattica .............................................................................................. 24
Membro del Consiglio di Master di I livello ............................................................................................................ 24
Presidente di Consiglio di Corso di Laurea .............................................................................................................. 24
Attività Progettuali .................................................................................................................................... 25
Partecipazione scientifica in progetti finanziati dalla CEE ....................................................................................... 25
Partecipazione scientifica in progetti finanziati dal CNR o dal MIUR ..................................................................... 25
Partecipazione scientifica in progetti finanziati da Enti o Industrie Nazionali ......................................................... 25
Responsabile scientifico in progetti finanziati da Enti o Industrie Nazionali ........................................................... 26
Responsabile scientifico in progetti finanziati da Enti Internazionali (Unione Europea, etc.).................................. 26
2
Brevetti ..................................................................................................................................................................... 27
Associazioni Scientifiche ............................................................................................................................ 27
Attività di Rappresentanza ....................................................................................................................... 27
ATTIVITÀ DIDATTICA .................................................................................................................. 28
Elencazione ................................................................................................................................................. 28
Corsi ed esercitazioni ................................................................................................................................. 29
Cicli di Lezioni e Seminari ........................................................................................................................ 34
Corsi di Aggiornamento e Formazione .................................................................................................... 35
ATTIVITÀ SCIENTIFICA ............................................................................................................... 37
Contributi originali alla ricerca ................................................................................................................ 37
Presentazione dettagliata dell'attività di ricerca ..................................................................................... 38
A. VISIONE ATTIVA.............................................................................................................................................. 39
B. FUSIONE DATI E FUSIONE DELLE INFORMAZIONI ................................................................................. 45
C. RICONOSCIMENTO ED INTERPRETAZIONE AUTOMATICA DI SCENE REALI COMPLESSE. ........... 48
ELENCO DELLE PUBBLICAZIONI SCIENTIFICHE ........ Errore. Il segnalibro non è definito.
3
INFORMAZIONI GENERALI
Dati Anagrafici
Luogo e data di nascita
Residenza
Cittadinanza
Italiana
Affiliazione
Dipartimento di Matematica ed Informatica (DIMI), Università degli Studi di Udine, Via Delle
Scienze 206, 33100 Udine.
e-mail: [email protected]
web page: http://www.dimi.uniud.it/foresti
Titoli di Studio ed Abilitazioni
Laurea in Ingegneria Elettronica
Conseguita presso l' Università degli Studi di Genova il 1 Giugno 1990 (Votazione 110/110 e Lode)
Abilitazione alla Professione di Ingegnere
Conseguita nel Novembre 1990, presso l' Università degli Studi di Genova (Votazione 218/220) .
Dottorato di Ricerca in Ingegneria Elettronica ed Informatica
Svolto presso l' Università degli Studi di Genova e conseguito a Roma il 28 Settembre 1994.
Tesi di Laurea e Dottorato di Ricerca
Tesi di Laurea
"Sviluppo di un sistema per l'interpretazione e la caratterizzazione geometrica tridimensionale di
scene esterne mediante l'integrazione di dati multisensoriali", Relatore Prof. G. Vernazza,
Università di Genova, Giugno 1990, pp. 204.
Tesi di Dottorato
"Elaborazione distribuita di sequenze di immagini per il riconoscimento di scene reali complesse",
Relatore Prof. G. Vernazza, Università di Genova, Febbraio 1994, pp. 210.
4
Posizioni Occupate
Giugno 1990-Ottobre 1990
Collaboratore scientifico con incarico di studio presso il Dipartimento di Ingegneria Biofisica ed
Elettronica (DIBE) dell'Università di Genova.
Novembre 1990-Ottobre 1993
Dottorando di Ricerca (VI ciclo) in Ingegneria Elettronica ed Informatica presso il DIBE, con
attività di ricerca svolta nei settori dei sistemi distribuiti, reti neurali, intelligenza artificiale e
fusione dati multisensoriali.
Novembre 1993-Ottobre 1994
Collaboratore scientifico con incarico di studio presso il DIBE. Tale incarico ha richiesto attività di
supporto alla didattica, di tutoraggio, di ricerca e di consulenza progettuale con partecipazione ad
attività scientifica su alcuni contratti di ricerca con Enti Pubblici Nazionali (Progetto
PROMETHEUS e Progetto Finalizzato Trasporti II, finanziati dal Consiglio Nazionale delle
Ricerche) ed Europei (Progetti ESPRIT e MAST finanziati dalla Commissione Europea), e con
Industrie Nazionali (Elsag Bailey, 3M, Ansaldo, Esacontrol).
Novembre 1994-Settembre 1995
 Professore a Contratto (Articolo 100 del D.P.R. 382/80), titolare dell'insegnamento
fondamentale di Elettrotecnica nell’ambito del Corso di Diploma in Ingegneria Informatica ed
Automatica ed Ingegneria dell' Ambiente e delle Risorse presso l' Università di Trento.
 Professore a Contratto (Articolo 25 del D.P.R. 382/80) del Corso di Prove e Misure di Sistemi di
Telecomunicazione, integrativo del Corso fondamentale di Comunicazioni Elettriche,
nell'ambito del Corso di Laurea in Ingegneria Elettronica presso l' Università di Genova .
Ottobre 1995 – Settembre 1998
Ricercatore del raggruppamento K05B (Informatica) presso il Dipartimento di Matematica ed
Informatica (DIMI), Facoltà di Scienze Matematiche, Fisiche e Naturali dell’ Università di Udine.
Ottobre 1998 – Agosto 2001
Ricercatore Confermato del raggruppamento K05B (Informatica) presso il DIMI, Facoltà di Scienze
Matematiche, Fisiche e Naturali dell' Università di Udine.
Maggio-Giugno 2001

Idoneo nella procedura di valutazione comparativa a no. 1 posto di professore di ruolo di
seconda fascia bandito dalla Facoltà di Scienze Matematiche, Fisiche e Naturali dell' Università
di Udine per il settore scientifico disciplinare K05B (G.U. N. 54 del 11/7/2000) – Decreto
Rettorale di approvazione degli atti Nr. 525 del 1 Giugno 2001.

Chiamato in data 5 Giugno 2001 dalla Facoltà di Scienze Matematiche, Fisiche e Naturali dell'
Università di Udine per la copertura di 1 posto di professore di ruolo di seconda fascia per il
settore scientifico disciplinare K05B.
Settembre 2001 – Ottobre 2005
Professore Associato del raggruppamento INF-01 (Informatica) presso la Facoltà di Scienze
Matematiche, Fisiche e Naturali dell' Università di Udine.
Ottobre 2003 – Settembre 2009
Presidente del Consiglio di Corso di Laurea Triennale in Scienze e Tecnologie Multimediali presso
la Facoltà di Scienze della Formazione dell’Università degli Studi di Udine.
Maggio 2005
5

Idoneo nella procedura di valutazione comparativa a un posto di professore di ruolo di prima
fascia bandito dalla Facoltà di Scienze della Formazione dell' Università di Udine per il settore
scientifico disciplinare INF01 (G.U. N. 26 del 2/4/2004) – Decreto Rettorale di approvazione
degli atti Nr. 800 del 2 Maggio 2005.

Chiamato in data 3 Maggio 2005 dalla Facoltà di Scienze della Formazione dell' Università di
Udine per la copertura di 1 posto di professore di ruolo di prima fascia per il settore scientifico
disciplinare INF01.
Ottobre 2005 – Settembre 2008
Presidente del Consiglio di Corso di Laurea Specialistica in Linguaggi e Tecnologie dei Nuovi
Media presso la Facoltà di Scienze della Formazione dell’Università degli Studi di Udine.
Novembre 2005 – Ottobre 2008
Professore Straordinario del raggruppamento INF-01 (Informatica) presso la Facoltà di Scienze
della Formazione dell' Università di Udine.
Dicembre 2005 – Settembre 2009
Preside Vicario della Facoltà di Scienze della Formazione dell' Università di Udine.
Ottobre 2008 – Marzo 2012
Presidente del Consiglio di Corso di Laurea Magistrale in Comunicazione Multimediale (D.M. 270
del 2004) presso la Facoltà di Scienze della Formazione dell’Università degli Studi di Udine.
Novembre 2008
Professore Ordinario confermato del raggruppamento INF-01 (Informatica) presso la Facoltà di
Scienze della Formazione dell' Università di Udine.
Ottobre 2009 – Settembre 2012
Preside della Facoltà di Scienze della Formazione dell' Università di Udine.
Ottobre 2009 –
Direttore del Centro Polifunzionale di Pordenone dell'Università di Udine e delegato di Settore del
Rettore per la sede distaccata dell’Università a Pordenone.
Aprile 2012 – Dicembre 2012
Presidente del Consiglio di Corso di Laurea Magistrale in Comunicazione Multimediale e
Tecnologie dell’Informazione (Classe LM-18 e LM19 secondo il D.M. 270 del 2004) interfacoltà
tra la Facoltà di Scienze della Formazione e la Facoltà di Scienze Matematiche, Fisiche e Naturali
dell’Università degli Studi di Udine.
Ottobre 2012 –
Direttore Vicario del Dipartimento di Matematica ed Informatica dell' Università di Udine.
Gennaio 2013 – Dicembre 2013
Delegato del Rettore per il coordinamento dei Corsi di Tirocinio Formativo Attivo (TFA).
Gennaio 2013 –
Coordinatore del Consiglio di Corso di Studio unificato per la Laurea Triennale in Scienze e
tecnologie multimediali (Classe L-20) e per la Laurea Magistrale in Comunicazione Multimediale e
Tecnologie dell’Informazione (Classe LM-18 e LM19 secondo il D.M. 270 del 2004).
Incarichi in Organizzazioni Internazionali
 Febbraio 2000 - Nomina del Ministero della Difesa (Segretariato Generale della Difesa, V
Reparto Segredifesa) quale Rappresentante Universitario Italiano presso l’ Information System
Technology (IST) Panel, che fa capo alla organizzazione per la ricerca scientifica e tecnologica
6
della North Atlantic Treaty Organization (NATO). Tale nomina riguarda la promozione, il
coordinamento e la direzione della partecipazione italiana ai programmi di ricerca che in ambito
NATO afferiscono al settore dell’ Information Technology.
Premi per Lavori Scientifici
 Nel 2002 ha vinto in collaborazione con il prof. Ragazzoni (Università di Genova) il Best
Automotive Electronics Paper Award indetto dalla IEEE Society on Vehicular Technology per il
lavoro "Multisensor Data Fusion for Driving Autonomous Vehicles in Risky Environments",
pubblicato sulla rivista IEEE Transactions on Vehicular Technology, Vol. 51, No. 5, Settembre
2002, pp. 1165 -1185.
 Nel Luglio 2010 il lavoro "Selecting classifiers by F-score for real-time video tracking"
presentato in collaborazione con il Dr. Snidaro ed la Dott.ssa Visentini alla International
Conference on Fusion (FUSION 2010), tenutasi ad Edimburgo (UK), dal 26 al 29 Luglio 2010 si è
posizionato nel Runners up per il Best Student Paper Award
Nel Settembre 2010 il lavoro "Occlusion-aware multiple camera reconfiguration" in

collaborazione con il Dr. Piciarelli ed il Dott. Micheloni ha vinto il Best Paper Award alla
International Conference on Distributed Smart Cameras (ICDSC 2010), tenutasi ad Atlanta, Usa
dal 31 Agosto al 4 Settembre 2010.
Collaborazioni Scientifiche Internazionali
 Dal 1992 al 1997 ha collaborato con il Prof. A.N. Venetsanopoulos dell'Università di Toronto,
Canada, su attività di ricerca nel settore della morfologia matematica applicata al riconoscimento
ed interpretazione di immagini.
 Dal 1994 al 1997 ha collaborato con il Prof. D. Broome dell’ University College of London
(UCL), sul tema della guida autonoma di veicoli sottomarini.
 Dal 1997 al 2001 ha collaborato, nell’ambito del progetto HOLOMAR finanziato dalla Comunità
Europea, con il Dr. J. Watson dell’ Università di Aberdeen, UK, ed il Dr. Peter Hobson dell’
Università di Brunel, UK, su problemi di riconoscimento di forme 2D in immagini olografiche.
 Dal 1998 al 2001 ha collaborato nell’ambito del progetto VENFLEX finanziato dalla Comunità
Europea, con il Prof. Z. Doulgeri dell’ Aristotele University di Thessaloniki, Grecia, su problemi di
riconoscimento e manipolazione di oggetti non rigidi con robot cartesiani.
 Dal 2000 collabora con il Prof. P. Varnshey dell'Università di Syracuse (USA), su attività di
ricerca nel settore della fusione dati multisensoriali.
 Dal 2001 collabora con il Dr. P. Remagnino dell'Università di Kingston (UK), su attività di ricerca
nel settore dei sistemi di videosorveglianza e ambient intelligence.
 Dal 2003 collabora con il Prof. J. Llinas dell'Università di Buffalo at New York (USA), su attività
di ricerca nel settore della fusione dati e fusione delle informazioni.
 Dal 2003 collabora con il Prof. M. Trivedi dell’ University of California, San Diego, (USA), su
attività di ricerca nel settore dei sistemi di videosorveglianza.
 Dal 2006 collabora con la Dr. Monique Thonnat e con il Dr. Fracois Bremond dell’ INRIA-Sophia
Antipolis, Nizza (Francia), su attività di ricerca nel settore dell’interpretazione di eventi semplici e
complessi in scene reali.
 Dal 2007 collabora con il prof. Rinner dell’ Università di Klagenfurt (Austria), su attività di
ricerca nel settore del pervasive computing.
7
Periodi di studio presso Istituti di Ricerca Nazionali ed Internazionali, Docenza
in Scuole Avanzate Nazionali ed Internazionali, Visiting Professor
Luglio 1994
Periodo di studio della durata di un mese presso il Department of Electrical and Computer
Engineering, Università di Toronto, Canada (invitato dal Prof. A.N. Venetsanopoulos).
Gennaio 2000
Docente presso la Scuola Avanzata in Computer Science, organizzata in collaborazione dal CISM di
Udine, dal Ministero degli Esteri e dall’ UNESCO presso l’ Università dell’Havana, Cuba (15-30
Gennaio 2000).
Giugno 2000
Relatore invitato alla Scuola NATO sul tema Multisensor and Sensor Data Fusion tenutasi a
Pitlochry, Scozia, dal 25 Giugno al 7 Luglio 2000. Tale scuola è stata organizzata e diretta
congiuntamente dal Prof. Anthony K. Hyder dell’ University of Notre Dame, Indiana, USA e dal
Prof. Vitaly Bystritskii dell’ University of California at Irvine, Irvine, USA.
Novembre 2002
Relatore invitato alla scuola di Dottorato La visione delle Macchine organizzata dal 10 al 15
Novembre 2002 a Vietri sul Mare dall’Università degli Studi di Salerno e dall'Istituto di Calcolo e
Reti ad Alte Prestazioni (ICAR), sezione di Napoli del CNR.
Dicembre 2002
Relatore invitato al Convegno su “Tecnologie Elettroniche per la lotta al Terrorismo” organizzato
dal Ministero della Difesa a Roma (5-6 Dicembre 2002).
Marzo 2005
Relatore invitato presso il Department of Industrial Engineering, Univerity of New York, Buffalo,
USA, (invitato dalla Dr. J. Llinas) per un ciclo di seminari dal titolo “Multisensor video surveillance
systems: from blob detection to event analysis” (durata complessiva 8 ore).
Settembre 2006
Relatore invitato presso il centro di ricerca INRIA, Sophia Antipolis, Francia (invitato dalla Dr. M.
Thonnat) per un seminario dal titolo “Advanced Visual-based Surveillance Systems for Event
Understanding”.
Settembre 2008
Relatore invitato alla scuola di Dottorato La visione delle Macchine organizzata dall’ 1 al 5
Settembre 2008 dall’Università degli studi di Pavia (prof. Luca Lombardi e dalla prof. Maria Grazia
Albanesi) in collaborazione con il capitolo Italiano dell’Associazione Internazionale di Pattern
Recognition (IAPR). Ha svolto una lezione sul tema “Event Analysis in Video Sequences”.
Maggio 2008-14
Visiting Professor presso la Klagenfurt Alpe Adria University di Klagenfurt (Austria) (invitato dal
Prof. B. Rinner) per lo svolgimento del corso di “Artificial Vision” nell’ambito della Laurea
Magistrale in Information Technology.
Attività Editoriali ed Organizzative
Libri
 Editore del libro dal titolo “Multimedia Video-Based Surveillance Systems: from User
Requirements to Research Solutions ” in collaborazione con il Prof. C.S. Regazzoni, Università di
8
Genova ed il Prof. P. Mahonen, Università di Oulu (Finlandia), edito dalla Kluwer Academic
Publishers, Settembre 2000.
 Editore del libro dal titolo “Multisensor Data Fusion in Intelligent Systems ” in collaborazione
con il Prof. C.S. Regazzoni, Università di Genova ed il Prof. P. Varnshey, Università di Syracuse
(USA), edito dalla Kluwer Academic Publishers, Maggio 2003.
 Editore del libro dal titolo “Ambient Intelligence: A Novel Paradigm” in collaborazione con il
Prof. T. Ellis ed il Dr. P. Remagnino della Kingston University (UK), edito dalla Springer, USA,
2005 (ISBN: 0-387-22990-6).
Editore Associato di Riviste Internazionali
Marzo 2003 –
 Editore Associato della rivista Advances in Transportation Studies – An International Journal
(Aracne Press) (ISBN 0157-7).
Settembre 2004 –
 Editore Associato dell’ International Journal of Robotics and Automation (Acta Press) (ISBN:
0826-8185).
Luglio 2011 – Settembre 2013
 Editore Associato del Journal ISRN Artificial Intelligence (Hindawi Publishing Corporation).
Ottobre 2012 –
 Membro dell’Editorial Board della rivista International Journal of Emerging Trends in Signal
Processing (IJETSP)
Settembre 2013 –
 Editore Associato del The Scientific World Journal (Signal Processing) (Hindawi Publishing
Corporation).
Membro del Comitato Scientifico di Riviste Nazionali
 Membro del Comitato Scientifico della Rivista Techne E-governement nel nord-est (Forum
Editrice) (ISBN 1825-9073) dal Settembre 2006.
Membro del Comitato Scientifico di Collane Editoriali
 Membro del Comitato Scientifico della Collana di Informatica, editore Franco Angeli dal
Gennaio 2012.
Numeri Speciali su Riviste Internazionali
 Guest Editor (in collaborazione con il Prof. C.S. Regazzoni, Università di Genova) di un numero
speciale dal titolo Video Processing and Communications in Real-Time Video-Based Surveillance
Systems sulla rivista Real-Time Imaging, vol. 7, no. 5, 2001 (Academic Press).
 Guest Editor (in collaborazione con il Prof. C.S. Regazzoni, Università di Genova, ed il Dr. V.
Ramesh, Siemens Corporate Research, Princeton, USA) di un numero speciale ad invito dal titolo
Video Communications, Processing and Understanding for Third Generation Surveillance Systems
sulla rivista Proceeding of IEEE , vol. 89, no. 6, 2001.
 Guest Editor (in collaborazione con il Prof. C.S. Regazzoni ed il Prof. G. Vernazza, Università di
Genova, e il Prof. G. Ramponi e il Prof. G. Sicuranza dell’Università di Trieste) di un numero
9
speciale dal titolo Non Linear Signal and Image Processing sulla rivista Applied Signal Processing,
Vol. 2004, No. 12, 2004.
 Guest Editor (in collaborazione con il Dr. Remagnino dell’Università di Kingston, UK) di un
numero speciale dal titolo Ambient Intelligence sulla rivista IEEE Transaction on Systems, Man
.
and Cybernetics: Part A- Systems and Humans, Vol. 35, No.1, Gennaio 2005
 Guest Editor (in collaborazione con il Dr. Remagnino ed il Dr. Velastin dell’Università di
Kingston, UK, e con il Prof. Trivedi dell’Università di San Diego, USA) di un numero speciale dal
titolo Novel Concepts and Challenges for the Next Generation of Video Surveillance Systems sulla
.
rivista Machine Vision Applications, Vol. 18, No. 3-4, Agosto 2007
 Guest Editor (in collaborazione con il Dr. Remagnino dell’Università di Kingston, UK e con la
prof. Rita Cucchiara dell’Università di Modena e Reggio Emilia) di un numero speciale dal titolo
Expert Environments: Machine Intelligence methods for Ambient Intelligence sulla rivista Expert
Systems, Vol. 24, No. 5, Novembre 2007.
 Guest Editor (in collaborazione con il Dr. Remagnino ed il Dr. Velastin dell’Università di
Kingston, UK) di un numero speciale dal titolo Computer Vision Methods for Ambient Intelligence
sulla rivista Image and Vision Computing Journal, Vol. 27, No.10, Ottobre 2009
.
Collaborazione nell’ organizzazione di Conferenze Internazionali e Nazionali (Chair, Co-chair,
membro del Program Committee, organizzatore di Sessioni Speciali e/o Tutorial, etc.)
 Membro del Program Committee della Conferenza Robotics, Motion and Machine Vision in the
Automotive Industry  28th International Symposium on Automotive Technology and Automation,
18-22 Settembre 1995, Stuttgart, Germania.
 Membro del Program Committee della Conferenza Robotics, Motion and Machine Vision in the
Automotive Industry  30th International Symposium on Automotive Technology and Automation,
16-19 Giugno 1997, Firenze.
 Organizzatore (in collaborazione con il Prof. A. Broggi, Università di Parma) di una Sessione
Speciale dal titolo Machine Vision for Intelligent Vehicles and Autonomous Robots alla Conferenza
Robotics, Motion and Machine Vision in the Automotive Industry  30th International Symposium
on Automotive Technology and Automation, 16-19 Giugno 1997, Firenze.
 Membro del Program Committee della Conferenza Automotive Ergonomics and Safety  31st
International Symposium on Automotive Technology and Automation, 2-5 Giugno 1998,
Dusseldorf, Germania.
 Organizzatore di una Sessione Speciale dal titolo Intelligent Monitoring Systems for Road Traffic
Control Applications alla Conferenza Automotive Ergonomics and Safety  31st International
Symposium on Automotive Technology and Automation, 2-5 Giugno 1998, Dusseldorf, Germania.
 Co-Chair della Conferenza Advanced Manufacturing in the Automotive Industry  32nd
International Symposium on Automotive Technology and Automation, 14-18 Giugno 1999, Vienna,
Austria.
 Organizzatore di una Sessione Speciale (in collaborazione con il Prof. A. Broggi, Università di
Pavia) dal titolo Vision-based Automated Vehicle Guidance alla Conferenza Advanced
Manufacturing in the Automotive Industry  32nd International Symposium on Automotive
Technology and Automation, 14-18 Giugno 1999, Vienna, Austria
 Membro del Technical Committee della 10th International Conference on Image Analysis and
Processing (ICIAP99), 27-29 Settembre 1999, Venezia.
 Organizzatore di una Sessione Speciale alla 10th International Conference on Image Analysis and
Processing (ICIAP99), 27-29 Settembre 1999, Venezia (in collaborazione con il Prof. C.S.
10
Regazzoni, Università di Genova, e il Prof. P. Mahonen, Università di Oulu, Finlandia) dal titolo
Advanced Video-based Surveillance Systems.
 Co-Chair della Conferenza Robotics, Motion and Machine Vision  33nd International
Symposium on Automotive Technology and Automation, 25-27 Settembre 2000, Dublino, Irlanda.
 Organizzatore in collaborazione con il Prof. Regazzoni dell’Università di Genova di un Tutorial
dal titolo “Video Communications, Processing, and Understanding in Surveillance Applications”
nell’ambito della 7th International Conference on Image Processing (ICIP01), Ottobre 2001,
Thessaloniki, Grecia.
 Membro del Program Committee della First European Conference on Color in Graphics,
Imaging and Vision (CGIV02), 2-5 Aprile 2002, Poitiers, Francia.
 Membro del Program Committee del Workshop organizzato dalla NATO dal titolo Real-Time
Intrusion Detection, 27-28 Maggio 2002, Estoril, Portogallo.
 Organizzatore in collaborazione con il Prof. P. Varnshey, Università di Syracuse (USA), della
Sessione Speciale dal titolo Automatic Extraction of Biometric Features for Multisensor
Surveillance Systems nell’ambito dell’International Conference on Information Fusion
(FUSION02), 7-11 Luglio 2002, Annapolis, Maryland, USA.
 Membro del Program Committee della IEEE Conference on Advanced Video and Signal Based
Surveillance (AVSS03), 21-22 Luglio 2003, Miami Beach, Florida, USA.
 Membro del Technical Program Committee della 9th IEEE Conference on Image Processing
(ICIP03), 14-17 Settembre 2003, Barcellona, Spagna.
 Organizzatore con il Dr. P. Remagnino (Universita di Kingston, UK) del Workshop su “Ambient
Intelligence” nell’ambito dell’ Ottavo Congresso dell’Associazione Italiana per l’Intelligenza
Artificiale, Università di Pisa, 23-26 Settembre 2003.
 Membro del Program Committee del Workshop organizzato dalla NATO dal titolo Biometrics,
20-22 Aprile 2004, Tolosa, Francia.
 Membro del Technical Program Committee della 10th IEEE Conference on Image Processing
(ICIP04), 24-27 Settembre 2004, Singapore.
 Membro del Program Committee dell’IEE International Workshop on Intelligent Environments,
28-29 Giugno 2005, University of Essex, UK.
 Membro del Technical Program Committee della 11th IEEE Conference on Image Processing
(ICIP05), 11-14 Settembre 2005, Genova, Italy.
 Finance Chair dell’ 11th IEEE Conference on Image Processing (ICIP05), 11-14 Settembre
2005, Genova, Italy.
 Membro del Program Committee della IEEE Conference on Advanced Video and Signal Based
Surveillance (AVSS05), 15-16 Settembre 2005, Como, Italy.
 Membro del Program Committee dell’ International Symposium on Visual Computing (ISVC05),
5-7 Dicembre 2005, Lake Tahoe, Nevada, USA.
 Membro del Program Committee del 6th IEEE International Workshop on Visual Surveillance
(VS06), 13 Maggio 2006, Graz, Austria.
 Membro del Program Committee della Track 4 dal titolo Systems, Robotics and Applications alla
18th International Conference on Pattern Recognition (ICPR06),Hong Kong, 20-24 August, 2006.
 Membro del Technical Program Committee della 12th IEEE Conference on Image Processing
(ICIP06), 8-11 Ottobre 2006, Atlanta, USA.
 Membro del Program Committee dell’ Second International Symposium on Visual Computing
(ISCV06) , Dicembre 2006, Lake Tahoe, Nevada, USA.
 Membro del Program Committee del Quarto ACM Workshop on Video Surveillance and Sensor
Networks (VSSN06), 27 Ottobre 2006, Santa Barbara, California, USA.
 Membro del Program Committee della IEEE Conference on Advanced Video and Signal Based
Surveillance (AVSS06), 20-22 Novembre 2006, Sidney, Australia.
11
 Membro del Program Committee della 5th International Conference on Computer Vision Systems
(ICVS07) Special Theme: Vision Systems in the Real World, 21-24 Marzo 2007, Bielefeld,
Germany.
 Membro del Program Committee e Area Chair della track Surveillance and Security della 12th
International Conference on Image Analysis and Processing (ICIAP07), 10-14 Settembre 2007,
Modena, Italia.
 Membro del Program Committee del 7th IEEE International Workshop on Visual Surveillance, 22
Giugno 2007, Minneapolis, USA.
 Membro del Program Committee della IEEE Conference on Advanced Video and Signal Based
Surveillance (AVSS07), 5-7 Settembre 2007, London, United Kingdom.
 Membro del Technical Committee della 1th ACM/IEEE International Conference on Distributed
Smart Cameras (ICDSC07), Settembre 25-28, 2007, Austria.
 Membro del Program Committee del Third International Symposium on Visual Computing
(ISCV07), Dicembre 2007, Lake Tahoe, Nevada, USA.
 Membro del Program Committee della 6th International Conference on Computer Vision Systems
(ICVS08), 12-14 Maggio 2008, Santorini Island, Greece.
 Membro del Program Committee del 1th Workshop on VIdeoSurveillance projects in ITaly (VISIT
2008), 24 Maggio 2008, Modena, Italy.
 Membro del Program Committee della 6th International Working Conference on Advanced Visual
Interfaces (AVI08), 28-30 Maggio 2008, Napoli, Italy.
 Membro del Technical Program Committee della IEEE Geoscience and Remote Sensing
Symposium (IGARSS08), 6-11 Luglio 2008, Boston, Massachusetts, USA.
 Membro del Program Committee e Area Chair della track Signal Processing Applications alla
European Signal Processing Conference (EUSIPCO 2008), 25-29 Agosto 2008, Lausanne,
Switzerland.
 Membro del Technical Program Committee della 5th IEEE Conference on Advanced Video and
Signal Based Surveillance (AVSS08), 1-3 Settembre 2008, Santa Fe, NM, USA.
 Membro del Technical Committee della 2th ACM/IEEE International Conference on Distributed
Smart Cameras (ICDSC08), 7-11 Settembre 2008, Stanford University, USA.
 Membro del Program Committee del First IEEE International Workshop on Targeting Humans
for the Evaluation of their Motion in Image Sequences (THEMIS'2008), organizzato in
congiunzione con la Britisch Machine Vision Conference (BMCV08), 5 Settembre 2008, Leeds,
UK.
 Membro del Program Committee dell’ 8th IEEE International Workshop on Visual Surveillance
(VS08), 17 Ottobre 2008, Marsiglia, France.
 Membro del Program Committee del 4th International Symposium on Visual Computing
(ISCV08), 1-3 Dicembre 2008, Lake Tahoe, Nevada, USA.
 Membro del Program Committee della First International Conference on Image Theory and
Applications (IMAGAPP09), 5-8 Febbraio 2009, Lisboa, Portugal.
 Membro del Technical Committee della 3th ACM/IEEE International Conference on Distributed
Smart Cameras (ICDSC09), 30 Agosto – 2 Settembre 2009, Como, Italy
 Membro del Technical Program Committee della 6th IEEE Conference on Advanced Video and
Signal Based Surveillance (AVSS09), 2-4 Settembre 2009, Genova, Italy. Chair della Session su
Object Detection.
 Membro del Program Committee del 15th International Conference on Image Analysis and
Processing (ICIAP 2009), 8-11 Settembre 2009, Vietri sul Mare, Salerno, Italia. Chair della
Session su Face Analysis.
 Membro del Program Committee del First Workshop on Video Event Categorization, Tagging
and Retrieval (VECTaR2009) in conjunction with the Asian Conference on Computer Vision
(ACCV09), Settembre 2009, Xi’an, China.
12
 Membro del Program Committee dell’ International Workshop on Multimedia in Physics Teaching
and Learning (MPTL09), 23-25 Settembre 2009, Udine, Italy.
 Membro del Program Committee del Second IEEE International Workshop on Targeting Humans
for the Evaluation of their Motion in Image Sequences (THEMIS 2009), organizzato in
congiunzione con l’International conference on Computer Vision (ICCV09), 2-5 Ottobre 2009,
Kyoto, Japan.
 Membro del Program Committee del 9th IEEE International Workshop on Visual Surveillance
(VS09), 3 Ottobre 2009, Kyoto, Japan.
 Membro del Program Committee della 7th International Conference on Computer Vision Systems
(ICVS09), 12-15 Ottobre 2009, Liegi, Belgium.
 Membro del Program Committee del 5th International Symposium on Visual Computing
(ISCV09), 30 Novembre – 2 Dicembre 2009, Las Vegas, Nevada, USA.
 Membro del Program Committee della 3th International Conference on Imaging for Crime
Detection and Prevention (ICDP09), 3 Dicembre 2009, London, UK.
 Membro del Program Committee della IEEE Conference on Signal and Image Technologies
(SITIS09), 29 Novembre - 4 Dicembre 2009, Marrakech, Marrocco.
 Membro del Program Committee del 12th IEEE Workshop on Performance Evaluation of
Tracking and Surveillance (PETS'09), 7-10 Decembre 2009, Snowbird, Utah, USA.
 Membro del Program Committee della International Conference on Image Theory and
Applications (IMAGAPP10), 17-21 Maggio 2010, Angers, France.
 Membro del Program Committee della International Conference on Ambient Systems, Networks
and Technologies (ANT-2010), 26-28 Giugno 2010, Wolfville, Nova Scotia, Canada.
 Membro del Program Committee dell’ International Conference on Image and Video Processing
and Computer Vision (IVPCV-10), July 12-14, 2010, Oralndo, Florida, USA.
 Membro del Program Committee della Track II dal titolo Pattern Recognition and Machine
Learning alla 20th International Conference on Pattern Recognition (ICPR10), Istambul, Turchia,
23-26 August, 2010.
 Program Chair della 4th ACM/IEEE International Conference on Distributed Smart Cameras
(ICDSC10), 31 Agosto – 4 Settembre 2010, Atlanta, Usa.
 Membro del Technical Program Committee della 7th IEEE Conference on Advanced Video and
Signal Based Surveillance (AVSS10), 29 Agosto - 1 Settembre 2010, Boston, USA.
 Membro del Program Committee del Programme Committee del 1st ACM International
Workshop on Analysis and Retrieval of Tracked Events and Motion in Imagery Streams
(ARTEMIS2010), Ottobre 2010, Firenze, Italia.
 Membro del Program Committee della International Conference on Ambient Systems, Networks
and Technologies (ANT-2010), 8-10 Novembre 2010, Parigi, Francia.
 Membro del Program Committee del Second Workshop on Video Event Categorization, Tagging
and Retrieval (VECTaR2010) in conjunction with the Asian Conference on Computer Vision
(ACCV10), Novmbre 2010, Queenstown, New Zealand.
 Membro del Program Committee del 6th International Symposium on Visual Computing
(ISCV10), 29 Novembre – 1 Dicembre 2010, Las Vegas, Nevada, USA.
 Membro del Program Committee della IEEE Conference on Signal and Image Technologies
(SITIS10), 15-18 Dicembre 2010, Kuala Lumpur Malaysia.
 Membro del Program Committee del 10th IEEE International Workshop on Visual Surveillance
(VS10), 8 Ottobre 2010, Queenstown, NZ.
 Membro del Program Committee della Second International Conference on Image Theory and
Applications (IMAGAPP11), 5-7 Marzo 2011, Algarve, Portugal.
 Membro del Program Committee del Workshop on Behavior Informatics (BI2011), 24 Maggio
2011, Shenzhen, China.
13
 Membro del Program Committee della 6th International Conference on Hybrid Artificial
Intelligence, 23-25 Maggio 2011, San Sebastian, Spagna.
 Membro del Program Committee del 5th ACM/IEEE International Conference on Distributed
Smart Cameras (ICDSC11), 23-26 Agosto 2011, Gant, Belgio.
 Membro del Technical Program Committee della 19th European Signal Processing Conference
(EUSIPCO 2011), August 29- September 2, 2011, Barcellona, Spain.
 General Co-Chair della 8th IEEE Conference on Advanced Video and Signal Based Surveillance
(AVSS11), 30 Agosto - 2 Settembre 2011, Klagenfurt, Austria.
 Membro del Technical Program Committee della 18th IEEE Conference on Image Processing
(ICIP11), 11-14 Settembre 2011, Brussels, Belgio.
 General Co-Chair della 16th International Conference on Image Analysis and Processing (ICIAP
2011), 14-16 Settembre 2011, Ravenna, Italia.
 Membro del Program Committee del 7th International Symposium on Visual Computing
(ISCV11), 26-28 Settembre 2011, Las Vegas, Nevada, USA.
 Membro del Program Committee dell’11th IEEE International Workshop on Visual Surveillance
(VS11), 13 Novembre 2011, Barcellona, Spagna.
 Membro del Program Committee della 4th International Conference on Imaging for Crime
Detection and Prevention (ICDP11), 3-4 Dicembre 2011, London, UK.
 Membro del Program Committee del Third Workshop on Video Event Categorization, Tagging
and Retrieval (VECTaR2011) in conjunction with ICCV 2011, 13 Novembre 2011, Barcelona,
Spain.
 Membro del Program Committee del First International Workshop on Performance Evaluation
on Recognition of Human Actions and Pose Estimation Methods (PERHAPS2011) in conjunction
with ICCV 2011, 13 Novmbre 2011, Barcelona, Spain.
 Membro del Program Committee del First International Conference on Computer Vision Theory
and Applications (VISAPP 2012), 24-26 Febbraio 2012, Rome, Italy.
 Membro del Program Committee del First International Conference on Conference on Intelligent
Systems and Applications (INTELLI 2012), 29 Aprile - 4 Maggio 2012, Chamonix, France.
 Membro del Program Committee del 2nd IEEE Workshop on Camera Networks and Wide-Area
Scene Analysis (WCNWASA12), in conjunction with CVPR 2012, 16-21 June 2012, Providence,
Rhode Island, USA.
 Membro del Program Committee del 8th International Symposium on Visual Computing
(ISCV12), 16-18 July 2012, Rethymnon, Creta, Greece.
 Membro del Program Committee dell’International Workshop on Pattern Recognition and Image
Processing (PRIP 2012), 3-5 August 2012, Chennai, India.
 Membro del Technical Program Committee della 20th European Signal Processing Conference
(EUSIPCO 2012), August 27- 31, 2012, Bucharest, Romania.
 Membro del Technical Program Committee del IEEE Symposium on Industrial Electronics &
Applications (ISIEA12), 23-26 September 2012, Bandung, Indonesia.
 Membro del Technical Program Committee della 17th IEEE Conference on Image Processing
(ICIP12), 30 September – 3 October 2012, Orlando, Florida, USA.
 Membro del Program Committee del 4th Workshop on Video Event Categorization, Tagging and
Retrieval (VECTaR2012) in conjunction with ECCV 2012, October, 7-13 2012, Firenze, Italy.
 Membro del Programme Committee del 2th International Workshop on Analysis and Retrieval of
Tracked Events and Motion in Imagery Streams (ARTEMIS 2012) in conjunction with ECCV 2012,
October, 7-13 2012, Firenze, Italy.
 Membro del Program Committee della 4th Latin American Conference on Networked and
Electronic Multimedia (LACNEM 2012), 17-19 October 2012, Santiago de Chile, Chile.
 Membro del Program Committee del 6th ACM/IEEE International Conference on Distributed
Smart Cameras (ICDSC12), 30 October – 2 November 2012, Hong Kong, China.
14
 Membro del Technical Program Committee del 21th ICPR International Conference on Pattern
Recognition (ICPR 2012), November 11-15, 2012, Tsukuba Science City, Japan.
 Membro del Program Committee della 8th IEEE Conference on Signal and Image Technologies
(SITIS12), 25-29 November 2012, Sorrento, Napoli, Italy.
 Membro del Technical Program Committee dell’ 1st International Conference on Connected
Vehicles & Expo (ICCVE 2012), 12-16 Dicembre 2012, Beijing, China.
 Membro del Program Committee del IEEE Workshop on Applications of Computer Vision
(WACV 2013), 17-18 Gennaio 2013, Clearwater Beach, Florida, USA.
 Membro del Program Committee del Second International Conference on Computer Vision
Theory and Applications (VISAPP 2013), February 21-24, 2013, Barcelona, Spain.
 Membro del Program Committee del Second International Conference on Intelligent Systems and
Applications (INTELLI 2013), April 21-26, 2013, Venezia, Italia.
 Membro del Program Committee del 9th International Conference on Computer Vision Systems
(ICVS2013), July 16 - 18, 2013, St. Petersburg, Russia.
 Membro del Program Committee del 3nd IEEE Workshop on Camera Networks and Wide-Area
Scene Analysis (WCNWASA13), in conjunction with CVPR 2013, June 23-24, 2013, Portland,
Oregon, USA.
 Membro del Program Committee del 9th International Symposium on Visual Computing
(ISVC13), July 29-31, 2013, Rethymnon, Crete, Greece.
 Membro del Program Technical Committee del Second International Workshop on Pattern
Recognition and Image Processing (PRIP2013), August 22 - 25, 2013, Mysore, India.
 Membro del Technical Program Committee della 21th European Signal Processing Conference
(EUSIPCO 2013), September 9-13, 2013, Marrakech, Marrocco.
 Membro del Program Committee della 17th International Conference on Image Analysis and
Processing (ICIAP 2013), September 11-13, 2013, Napoli, Italia.
 Membro del Technical Program Committee della 16th International IEEE Conference on
Intelligent Transportation Systems (IEEE-ITSC2013), October 6-9, 2013, The Hague, The
Netherlands.
 Membro del Program Committee del 7th ACM/IEEE International Conference on Distributed
Smart Cameras (ICDSC13), October 29 - November 1, 2013, Palm Springs, California, USA.
 Membro del Technical Program Committee del 2nd International Conference on Connected
Vehicles & Expo (ICCVE 2013), December 2-6, 2013, Las Vegas, Nevada, USA.
 Membro del Program Committee della 9th IEEE Conference on Signal and Image Technologies
(SITIS13), 2-5 December 2013, Kyoto, Japan.
 Membro del Program Committee dell’International Workshop on Image/Video based Interactive
Systems and Environment (IVISE 2013), 2-5 December 2013, Kyoto, Japan.
 Membro del Program Committee della Third International Conference on Computer Vision
Theory and Applications (VISAPP 2014), January 5-8 2014, Lisbona, Portogallo.
 Membro del Technical Program Committee del IEEE Winter Applications of Computer Vision
Conference (WACV 2014), March 24-26, 2014, Steamboat Springs, CO, USA.
 Membro del Program Committee del Third International Conference on Intelligent Systems and
Applications (INTELLI 2014), June 22-26, 2014, Siviglia, Spagna.
 Membro del Tecnhnical Program Committee dell’IEEE International Conference on Multimedia
and Expo (ICME14), July 14-18, 2014, Chengdu, Cina.
 Membro del Tecnhnical Program Committee della 27th International Conference on Graphics,
Patterns and Images (SIBGRAPI 2014), August 27-30, 2014, Rio de Janeiro, Brazil.
 Membro del Tecnhnical Program Committee della 22th International Conference on Pattern
Recognition (ICPR14), Istambul, Turchia, August 24-28, 2014, Stockholm, Sweden.
15
 Membro del Technical Program Committee della 22th European Signal Processing Conference
(EUSIPCO 2014), September 1-5, 2014, Lisboa, Portugal.
 Membro del Program Committee del Challenge and Workshop on Human Pose Recovery and
Gesture Recognition (ChaLearn2014) in conjunction with ECCV 2014, September, 6-12 2014,
Zurigo, Switzerland.
 Membro del Technical Program Committee del Third International Workshop on Pattern
Recognition and Image Processing (PRIP2014), September 24-27, 2014, Delhi, India.
 Membro del Technical Program Committee della 21th IEEE Conference on Image Processing
(ICIP14), 27-30 Ottobre 2014, Paris, France.
 Membro del Program Committee del 10th International Symposium on Visual Computing
(ISVC14), December 8-10, 2014, Las Vegas, Nevada, USA.
Membro di Comitati di strutture scientifiche internazionali
Novembre 2010
 Membro del IEEE Communication Society Multimedia Communications Technical Committee
(IEEE MMTC) con diritto di voto.
Membro di Comitati e/o Consigli Direttivi di Fondazioni o Strutture Universitarie
Novembre 2005 – Aprile 2009
 Membro del Comitato Tecnico Scientifico di Technoseed (incubatore d’impresa del Parco
Scientifico e Tecnologico di Udine) partecipato dall’Università degli studi di Udine.
Novembre 2006 – Ottobre 2009
 Membro del Consiglio Direttivo del Centro Polifunzionale di Pordenone (sede distaccata
dell’Università degli studi di Udine).
Giugno 2009 –
 Membro del Consiglio Scientifico del Consorzio Friuli Formazione partecipato dall’Università
degli studi di Udine).
Novembre 2009 –
 Direttore del Centro Polifunzionale di Pordenone (sede distaccata dell’Università degli studi di
Udine).
 Delegato di Settore del Rettore per la Direzione del Centro Polifunzionale di Pordenone (sede
distaccata dell’Università degli studi di Udine).
Ottobre 2012 –
 Membro del Comitato Tecnico Scientifico della Fondazione dell’ Istituto Tecnico Superiore per le
tecnologie dell’informazione e della comunicazione J. F. Kennedy Pordenone.
Settembre 2013 –
 Rappresentante dell’Università di Udine (nomina Rettorale) nel Consiglio Direttivo del Consorzio
Nazionale Interuniversitario per le Telecomunicazioni (CNIT).
Attività di Revisione
Revisore di articoli per Riviste Internazionali
 Automatica
16
 Computational Intelligence Journal
 Computer Vision and Image Understanding
 Eurasip Journal on Applied Signal Processing
 Eurasip Journal on Image and Video Processing
 Expert Systems
 IEE Proceedings on Vision, Image and Signal Processing
 IEEE Intelligent Systems
 IEEE Signal Processing Magazine
 IEEE Transactions on Aerospace and Electronic Systems
 IEEE Transactions on Circuits and Systems for Video Technology
 IEEE Transactions on Image Processing
 IEEE Transactions on Intelligent Transport Systems
 IEEE Transactions on Multimedia
 IEEE Transactions on Neural Networks
 IEEE Transactions on Pattern Analysis and Machine Intelligence
 IEEE Transactions on System, Man and Cybernetics: Part A, Part B and Part C
 IEEE Transactions on Vehicular Technology
 IEEE Journal on Selected Topics in Signal Processing
 IEEE Journal on Oceanic Engineering
 Image and Vision Computing
 International Journal of Engineering Applications of Artificial Intelligence
 International Journal of Imaging Systems and Technology
 International Journal of Visual Languages
 Machine Vision and Application
 Nural Processing Letters
 Parallel Computing
 Pattern Analysis and Application Journal
 Pattern Recognition
 Pattern Recognition Letters
 Proceeding of IEEE
 Signal, Image and Video Processing
 Journal of Applied Signal Processing
 Journal of Measurement Science and Technology
Revisore di articoli per Riviste Nazionali
 Intelligenza Artificiale
Revisore di tesi di Dottorato in Scuole Internazionali
 Nel Gennaio 2007 è stato invitato dall’Ecole Doctorale STIC dell’Università di Nice-Sophia
Antipolis in qualità di revisore esterno per la tesi di Dottorato del Dott. Bernard Boulay dal titolo
“Human Posture recognition for behaviour understanding”.
 Nel Settembre 2008 è stato invitato dall’Ecole Doctorale STIC dell’Università di Nice-Sophia
Antipolis in qualità di revisore esterno per la tesi di Dottorato del Dott. Marcos Zuniga dal titolo
“Incremental Learning of Events in Video using Reliable Information”.
 Nel Febbraio 2013 è stato invitato dall’ Alpen-Adria Universität Klagenfurt in qualità di revisore
esterno per la tesi di Dottorato del Dott. Saeed Yahyanejad dal titolo “Interspectral image
registration”.
17
Revisore di tesi di Dottorato in Scuole Nazionali
 Nel Novembre 1999 è stato invitato dal Collegio dei Docenti del Dottorato di Ricerca in
Ingegneria Elettronica e delle Telecomunicazioni dell’ Università di Padova a svolgere la
valutazione di una Tesi di Dottorato dal titolo: “Elaborazione di segnali per ricostruzioni 3D”.
 Nel 2003 è stato invitato dal Collegio dei Docenti del Dottorato di Ricerca in Ingegneria
Informatica dell’ Università di Genova a partecipare alla Commissione di valutazione delle tesi di
Dottorato del XV ciclo.
 Dal Marzo 2004 fa parte del Comitato di revisione esterno per le Tesi di Dottorato del
Dipartimento di Tecnologia dell’Informazione e della Comunicazione (Facoltà di Ingegneria) dell’
Università di Trento.
Revisore di progetti di ricerca Nazionali ed Internazionali
 Nell’ Aprile 1995 è stato invitato dalla Commissione Economica Europea (CEE) ) a partecipare
all’attività di revisione dei progetti di ricerca del programma Marine Science and Technology
(MAST III).
 Nel Maggio 1995 è stato nominato dalla CEE per il periodo 1995-96 revisore per i progetti del
programma ESPRIT - Long Term Research . Tale nomina è stata poi estesa al periodo 1997-98.
 Nel Luglio 1996 è stato invitato dalla CEE a partecipare all’attività di revisione dei progetti del
programma BRITE-EURAM - CRAFT Stage I (Exploratory Actions) e Stage II (Full Proposals).
 Nel 1996 è stato nominato per il biennio 1996-98 membro effettivo delle Liste Ufficiali dei
valutatori della CEE per i seguenti programmi di ricerca (tra parentesi il Direttorato di
appartenenza) nell’ ambito del IV Programma Quadro:
Telematics Applications (DGXIII)
Telecommunications, Information Market and Exploitation of Research (DGXIII)
Industrial and Material Technologies (BRITE) (DGXII)
Training and Mobility of Researchers (DGXII)
 Nel Febbraio 1999 è stato nominato dalla CEE Revisore (Monitoring Expert) per i progetti di
ricerca sottoposti ai programmi RTD del V Programma Quadro (1999-2003).
 Nell’Ottobre 1999 è stato valutatore dei progetti di Ricerca per il Consorzio per l’Area di Ricerca
di Trieste (Ente Pubblico).
 Nel Gennaio 2000 è stato valutatore del progetto di ricerca dal titolo "Europe and India: Past,
Present and Future" co-finanziato dalla Commissione Europea nell'ambito dell' EU-India Economic
Cross-Cultural Programme.
 Nel Settembre 2000 è stato invitato dalla Regione Friuli-Venezia Giulia ad effettuare il controllo
di qualita’ del sistema telematico regionale per la gestione delle informazioni predisposto
nell’ambito delle attività per il Giubileo 2000.
 Nel Novembre 2000 è stato invitato dalla CEE a partecipare all’attività di revisione dei progetti di
ricerca del programma Information Society Technologies (IST), Azione Chiave I “Servizi per il
Cittadino” (Trasporti e Turismo).
 Nell’ Agosto 2002 è stato inserito con Decreto n. 1176 del 2 agosto 2002 del Direttore Generale
del MIUR nel nuovo Albo degli Esperti (di cui all'art. 7, comma 1, del decreto legislativo 27 luglio
1999, n. 297).
 Nel Marzo del 2004 è stato inserito nell’ Albo degli Esperti della Regione Emilia-Romagna
nell’ambito del "Programma regionale per la ricerca industriale, l'innovazione ed il trasferimento
18
tecnologico", in attuazione all'art. 3 della Legge Regionale n. 7/2002 (Promozione del sistema
regionale delle attività di ricerca industriale, innovazione e trasferimento tecnologico).
 Nel Dicembre 2004 è stato nominato dal Ministero della Attività Produttive (MAP) revisore per i
progetti presentati nell’ambito del programma PIA Innovazione di cui alla Circolare del MAP n.
966130 del 28/4/2004 ed al Decreto del 10 maggio 2004.
 Nel 2005 è stato invitato dal Magnifico Rettore dell’Università di Udine a far parte del gruppo
dei revisori per i progetti presentati al Ministero dell’Istruzione, dell’Università e della Ricerca
(MIUR) nell’ambito del Bando previsto dal D.M. n. 262 del 5 Agosto 2004 relativo alla
Programmazione del sistema Universitario per il triennio 2004-2006, art. 23 –
Internazionalizzazione. Con nota n. 2748 del 27 gennaio 2006, il Direttore Generale del
Dipartimento per l’Università, l’Alta Formazione Artistica e per la Ricerca Scientifica e
Tecnologica del MIUR, Dr. Antonello Masia, ha espresso con lettera al prof. Foresti un
ringraziamento per aver svolto con serietà e competenza l’incarico assegnatogli.
 Nel Marzo 2006 è stato nominato dall’ Israel Science Foundation (ISF) revisore per un progetto
di ricerca dal titolo “Super-resolution and Distortion Compensation Algorithms for Turbulent
Video Sequences”.
 Nel Settembre 2006 è stato invitato dal Consorzio Friuli Innovazione a revisionare il progetto di
ricerca dal titolo “Automazione dei controlli di qualità di apparecchiature radiologiche e gestione
dei dati su larga scala” nell’ambito del bando della Regione Friuli-Venezia Giauli per la
concessione di contributi a sostegno di progetti di trasferimento tecnologico per mobilità e di
progetti di ricerca di PMI ed enti pubblici (cod. BI/FI/06).
 Nel Novembre 2007 è stato nominato dall’ Engineering and Physical Sciences Research Council
(EPSRC), United Kingdom, revisore per il progetto di ricerca dal titolo “Information Fusion and
Automatic Event Interpretation Methods for an Intelligent Hospital Ward (I-WARD)”.
 Nel Gennaio 2009 è stato nominato dalla Direzione Generale Attività Produttive, Commercio,
Turismo Servizio Politiche di Sviluppo Economico della Regione Emilia Romagna, revisore per il
progetto di ricerca dal titolo “Sistema di controllo dinamico del parquet – Floor dynamic control
(FDC)”, presentato a valere sul Bando per progetti di ricerca collaborativa delle PMI (DGR
n.1043/2008). Il procedimento valutativo è stato coordinato dal Comitato degli Esperti del MIUR
istituito ai sensi della L.R. 7/2002.
 Nel Febbraio 2009 è stato nominato dall’ Singaporean Science Research Council (SSRC),
Singapore, revisore per il progetto di ricerca dal titolo “Vision-based coordination and control of a
household robot performing domestic chores in cluttered environment”.
 Nell’Agosto 2009 è stato nominato dalla Commissione Europea revisore per il bando EU Marie
Curie Fellowship nell’ambito del VII Programma Quadro.
 Nel Novembre 2009 è stato nominato dalla Ripartizione Ricerca dell’Università di Udine,
membro dell l’Advisory Board del progetto IN-FVG (progetto Europeo INTERREG, finanziato
dalla Regione Autonoma Friuli Venezia Giulia, il cui obiettivo è l’identificazione e il sostegno di
potenziali imprenditori, che vogliano sviluppare progetti d’impresa ad alto contenuto innovativo
legati ai molteplici settori imprenditoriali radicati nel territorio regionale).
 Nell’ Agosto 2012 con decreto n. 30/Ric. del 2 Febbraio 2012 del Direttore Generale del MIUR è
stato inserito nel nuovo Albo degli Esperti della Ricerca Industriale (di cui all'art. 7, comma 1, del
decreto legislativo 27 luglio 1999, n. 297).
 Marzo 2013 – Revisore di due progetti nell’ambito del bando MIUR “Futuro in Ricerca 2013”
(Decreto Ministeriale 28 dicembre 2012 n. 956/ric).
19
 Marzo 2013 – Revisore per il Research Grant Council (RGC) of Hong Kong per il progetto di
ricerca dal titolo “Orders-of-Magnitude Simpler Processing for Acoustic Sensing Systems”.
Partecipazione a Commissioni Giudicatrici per Concorsi
Procedure di Valutazione Comparativa per Posti da Ricercatore Universitario
 Agosto 1999 – Membro della Commissione Giudicatrice della procedura di valutazione
comparativa ad un 1 posto di Ricercatore Universitario, settore K05B, Facoltà di Scienze
Matematiche, Fisiche e Naturali dell’Università degli Studi di Torino, pubblicato sulla Gazzetta
Ufficiale n. 23 bis del 23/3/1999. Decreto di nomina Rettorale pubblicato sul supplemento alla
Gazzetta Ufficiale n. 64 del 13/8/1999.
 Agosto 2000 – Membro della Commissione Giudicatrice della procedura di valutazione
comparativa ad un 1 posto di Ricercatore Universitario, settore K05B, Facoltà di Lettere e Filosofia
dell’Università degli Studi di Napoli “Federico II”, pubblicato sulla Gazzetta Ufficiale n. 30 del
14/04/2000. Decreto di nomina Rettorale n. 2898 pubblicato sulla Gazzetta Ufficiale n. 72 del
15/09/2000.
 Ottobre 2009 – Revisore esterno per la procedura di valutazione comparativa ad un 1 posto di
Ricercatore Universitario a tempo determinato, settore ING-INF03, Facoltà di Ingegneria
dell’Università degli Studi di Trento”.
 Marzo 2010 – Membro della Commissione Giudicatrice della procedura di valutazione
comparativa ad un 1 posto di Professore Associato, settore INF01, Facoltà di Lettere e Filosofia
dell’Università degli Studi di Roma Tre”, pubblicato sulla Gazzetta Ufficiale n. 30 del 14/04/2000.
Decreto di nomina Rettorale n. 2898 pubblicato sulla Gazzetta Ufficiale n. 72 del 15/09/2000.
Commissione giudicatrice per gli esami di ammissione o esami finali dei corsi di dottorato di
ricerca
 Marzo 2005 – Membro della Commissione Giudicatrice per gli esami finali del Corso di
Dottorato di Ricerca in Informatica (XVII ciclo), presso la ICT International Doctorate School con
sede amministrativa presso l’Università degli Studi di Trento.
 Marzo 2006 – Membro della Commissione Giudicatrice per gli esami finali del Corso di
Dottorato di Ricerca in Informatica (XVIII ciclo), con sede amministrativa presso l’Università degli
Studi di Udine. Decreto di nomina Rettorale n. 206 del 28/03/2006.
 Novembre 2006 – Membro della Commissione Giudicatrice per gli esami di ammissione al Corso
di Dottorato di Ricerca in Comunicazione Multimediale (XXII ciclo), con sede amministrativa
presso l’Università degli Studi di Udine. Decreto di nomina Rettorale n. 595 del 11/09/2006.
 Novembre 2008 – Membro della Commissione Giudicatrice per gli esami di ammissione al Corso
di Dottorato di Ricerca in Comunicazione Multimediale (XXIV ciclo), con sede amministrativa
presso l’Università degli Studi di Udine. Decreto di nomina Rettorale n. 610 del 1/10/2008.
 Novembre 2010 – Membro della Commissione Giudicatrice per gli esami di ammissione al Corso
di Dottorato di Ricerca in Comunicazione Multimediale (XXVI ciclo), con sede amministrativa
presso l’Università degli Studi di Udine. Decreto di nomina Rettorale n. 610 del 1/10/2008.
20
Concorsi in Enti Pubblici
 Ottobre 2000 – Membro della Commissione Giudicatrice di un Concorso Pubblico per esami per
il reclutamento a tempo indeterminato di un “Istruttore Direttivo del Centro di Elaborazione Dati”
indetto dal Comune di Lignano Sabbiadoro (UD).
 Aprile 2001 – Membro della Commissione Giudicatrice di un Concorso Pubblico per esami per il
reclutamento a tempo indeterminato di un “Programmatore Esperto” indetto dal Comune di Lignano
Sabbiadoro (UD).
 Marzo 2002 – Membro della Commissione Giudicatrice di un Concorso Pubblico per esami per il
reclutamento a tempo determinato di una unita’ di personale dell’area tecnica, tecnico-scientifica ed
elaborazione dati presso il Dipartimento di Matematica ed Informatica dell’Università degli Studi di
Udine.
 Ottobre 2004 – Presidente della Commissione Giudicatrice di un Concorso Pubblico per esami
per il reclutamento a tempo determinato di una unita’ di personale dell’area tecnica, tecnicoscientifica ed elaborazione dati presso il Centro Polifunzionale di Pordenone dell’Università degli
Studi di Udine.
 Dicembre 2004 – Membro della Commissione Giudicatrice di un Concorso Pubblico per esami
per il reclutamento a tempo indeterminato di un istruttore direttivo per il Servizio Informatica ed
Impianti Elettrici indetto dal Comune di Cervignano del Friuli (UD).
 Luglio 2007 – Presidente della Commissione Giudicatrice di un Concorso Pubblico per esami per
il reclutamento a tempo determinato di una unita’ di personale dell’area tecnica, tecnico-scientifica
ed elaborazione dati presso il Centro Polifunzionale di Pordenone dell’Università degli Studi di
Udine.
Attività di Coordinamento della Ricerca
Membro della Commissione di Ateneo per la Ricerca Scientifica
 Nel Novembre 2004 è stato nominato dal Rettore dell’Università di Udine con D.R. n. 956
membro della Commissione di Ateneo per la Ricerca Scientifica .
Coordinatore di Attività di Ricerca Internazionali
 Nell’Ottobre 2002 è stato nominato dal pannelo IST della NATO-RTO Responsabile Scientifico
del progetto di ricerca Advanced Multisensor Surveillance System for Combating Terrorism al quale
hanno partecipato gruppi di ricerca di Stati Uniti, Olanda, Germania, Romania, Russia e Italia. Tale
attività ha avuto inizio nel Novembre 2003 e si è conclusa nell’Aprile 2008.
Responsabile di Laboratori di Ricerca
 Dal Giugno 2001 è Responsabile del Laboratorio di Visione Artificiale e Sistemi Real-Time
presso il Dipartimento di Matematica ed Informatica dell’Università di Udine.
Responsabile Scientifico di Borse di Ricerca
 Dicembre 1997 – Responsabile Scientifico di una Borsa di Ricerca dal Dipartimento di
Matematica ed Informatica (DIMI) dell’ Università di Udine dal titolo: “Progettazione e sviluppo di
algoritmi per l’estrazione ed elaborazione di dati acquisiti da una telecamera acustica” della durata
di 1 anno.
 Maggio 1998 – Responsabile Scientifico di una Borsa di Ricerca presso il DIMI dell’ Università
di Udine dal titolo: “Sviluppo di un sistema di classificazione di immagini acquisite mediante una
21
telecamera olografica sottomarina” della durata di 6 mesi, e una Borsa di Ricerca dal titolo
“Algoritmi di analisi di immagini acquisite mediante una telecamera olografica sottomarina” della
durata di 4 mesi ciascuna.
 Novembre 1998 – Responsabile Scientifico di una Borsa di Ricerca presso il DIMI dell’
Università di Udine dal titolo: “Analisi e sviluppo di metodologie per l’integrazione di dati ottici e
acustici. Validazione e test di algoritmi di basso e alto livello ” della durata di 1 anno.
Settembre 1999 – Responsabile Scientifico di una Borsa di Ricerca presso il DIMI dell’ Università
di Udine dal titolo: “Studio di metodi di apprendimento supervisionato e non supervisionato per
applicazioni nel campo dell’ elaborazione di immagini” della durata di 8 mesi.

Responsabile Scientifico di Assegni di Ricerca e Contratti di Collaborazione
 Marzo 1999 – Responsabile Scientifico di un Assegno di Ricerca (Legge 449/97, art. 51) della
durata biennale dal titolo: “Classificazione di immagini tramite reti neurali”.
 Agosto 1999 – Responsabile Scientifico di un Assegno di Ricerca (Legge 449/97, art. 51) della
durata biennale dal titolo: “Studio di modelli di reti neurali per l’analisi di dati multisensoriali”.
 Dicembre 1999 – Responsabile Scientifico di un Contratto di Collaborazione presso il DIMI dell’
Università di Udine dal titolo: “Studio e sviluppo di algoritmi di depth from focus e depth from
defocus” della durata di 3 mesi.
 Ottobre 2002 – Responsabile Scientifico di un Assegno di Ricerca (Legge 449/97, art. 51) della
durata annuale dal titolo: “Studio di algoritmi per l’inseguimento in tempo reale del movimento
umano in ambienti interni arbitrariamente complessi”.
 Dicembre 2003 – Responsabile Scientifico di un Assegno di Ricerca (Legge 449/97, art. 51) della
durata annuale dal titolo: “Studio e sviluppo di algoritmi di fusione dati multisensoriali per un
sistema di prevenzione dei rischi ambientali ”.
 Gennaio 2004 – Responsabile Scientifico di un Assegno di Ricerca (Legge 449/97, art. 51) della
durata biennale dal titolo: “Studio e sviluppo di un sistema di memorizzazione e retrieval di
documenti multimediali”.
 Aprile 2005 – Responsabile Scientifico di un Assegno di Ricerca (Legge 449/97, art. 51) della
durata annuale dal titolo: “Sviluppo di un sistema di visione artificiale per il supporto
all’automazione del monitoraggio del traffico stradale e della gestione e prevenzione di situazioni
critiche”.
 Novembre 2005 – Responsabile Scientifico di un Assegno di Ricerca (Legge 449/97, art. 51)
della durata di sei mesi dal titolo: “Studio di algoritmi e metriche per l’analisi delle prestazioni di
un sistema per l’inseguimento di oggetti in movimento in scene reali”.
 Gennaio 2006 – Responsabile Scientifico di un Assegno di Ricerca (Legge 449/97, art. 51) della
durata annuale dal titolo: “Sviluppo di un sistema per l’analisi e l’elaborazione di dati multimediali
per un’applicazione di controllo del traffico”.
 Aprile 2006 – Responsabile Scientifico di un Assegno di Ricerca (Legge 449/97, art. 51) della
durata annuale dal titolo: “Studio e sviluppo di metodi biometrici per l’identificazione personale
basati sul riconoscimento automatico dei volti”.
 Gennaio 2007 – Responsabile Scientifico di un Assegno di Ricerca (Legge 449/97, art. 51) della
durata annuale dal titolo: “Sviluppo di un sistema per l’analisi e l’elaborazione di dati multimediali
per un’applicazione di videosorveglianza”.
 Aprile 2007 – Responsabile Scientifico di un Assegno di Ricerca (Legge 449/97, art. 51) della
durata annuale dal titolo: “Studio e sviluppo di metodi automatici per il riconoscimento automatico
dei volti e di tecniche di streaming multimediale”.
22
 Settembre 2007 – Responsabile Scientifico di un Assegno di Ricerca (Legge 449/97, art. 51)
della durata annuale dal titolo: “Studio e sviluppo di nuovi modelli di comunicazione visiva per
applicazioni industriali e didattiche”.
 Gennaio 2008 – Responsabile Scientifico di un Assegno di Ricerca (Legge 449/97, art. 51) della
durata annuale dal titolo: “Studio di algoritmi di apprendimento automatico per l’elaborazione di
dati eterogenei per applicazioni di sicurezza e intelligenza d’ambiente”.
 Aprile 2008 – Responsabile Scientifico di un Assegno di Ricerca (Legge 449/97, art. 51) della
durata annuale dal titolo: “Studio di tecniche per la riconfigurazione ottimale e automatica di una
rete di sensori per applicazioni di videosorveglianza”.
 Settembre 2008 – Responsabile Scientifico di un Assegno di Ricerca (Legge 449/97, art. 51)
della durata di 6 mesi dal titolo: “Sviluppo di protocolli per il controllo remoto di telecamere
mobili”.
 Gennaio 2009 – Responsabile Scientifico di un Assegno di Ricerca (Legge 449/97, art. 51) della
durata di 6 mesi dal titolo: “Studio di un modello e analisi di appropriati strumenti tecnici per
l’ottimizzazione del processo di gestione di progetti di ricerca nell’ambito dei finanziamenti
nazionali, europei ed internazionali per la ricerca scientifica e tecnologica”.
 Aprile 2009 – Responsabile Scientifico di un Assegno di Ricerca (Legge 449/97, art. 51) della
durata annuale dal titolo: “Studio e sviluppo di algoritmi per la riconfigurazione automatica di un
coppia di sensori video all’interno di una rete di sensori”.
 Maggio 2009 – Responsabile Scientifico di un Assegno di Ricerca (Legge 449/97, art. 51) della
durata annuale dal titolo: “Attività di analisi e progettazione di un software per l’ inseguimento di
oggetti in movimento, comprendenti pedoni, gruppi di persone e veicoli, in aree la cui copertura
visuale richieda molteplici sensori video sincronizzati”.
 Gennaio 2010 – Responsabile Scientifico di un Assegno di Ricerca (Legge 449/97, art. 51) della
durata annuale dal titolo: “Studio di metodologie per la valorizzazione della ricerca e il
trasferimento tecnologico”.
 Gennaio 2010 – Responsabile Scientifico di un Assegno di Ricerca (Legge 449/97, art. 51) della
durata annuale dal titolo: “Studio di algoritmi adattivi per un sistema di fusione multisensore”.
Responsabile Scientifico di Borse di Dottorato di Ricerca
 Ottobre 2001 – Responsabile Scientifico di una Borsa di Dottorato di Ricerca (XVII ciclo) presso
l’Università degli Studi di Udine sul tema delle Reti neurali per applicazioni nel campo delle
particelle. Candidato Dott. Praveen Boinee.
 Ottobre 2002 – Responsabile Scientifico di due Borse di Dottorato di Ricerca (XVIII ciclo)
presso l’Università degli Studi di Udine sui seguenti temi: (a) Sistemi attivi di visione artificiale e
(b) Fusione dati multisensoriali per applicazioni di Ambient Intelligence. Candidati Dott. Christian
Micheloni e Dott. Lauro Snidaro.
 Gennaio 2005 – Responsabile Scientifico di una Borsa di Dottorato di Ricerca (XX ciclo) presso
l’Università degli Studi di Udine sul tema dell’Analisi semantica di eventi per l’interpretazione
automatica di scene reali complesse. Candidato Dott. Claudio Picciarelli.
 Gennaio 2007 – Responsabile Scientifico di due Borse di Dottorato di Ricerca (XXII ciclo)
presso l’Università degli Studi di Udine sui seguenti temi: (a) Elaborazione di immagini e video per
il riconoscimento di persone in ambienti non cooperativi, (b) Studio e sviluppo di ontologie per
l’analisi automatica del contenuto di sequenze video. Candidati Dott.ssa Ingrid Visentini e Dott.
Giovanni Ferrin.
23
 Gennaio 2008 – Responsabile Scientifico di una Borsa di Dottorato di Ricerca (XXIII ciclo)
presso l’Università degli Studi di Udine sul tema: Studio e sviluppo di nuovi modelli di reti neurali
per applicazioni di pattern recognition. Candidata Dott.ssa Asha Chaudhary.
 Gennaio 2013 – Responsabile Scientifico di una Borsa di Dottorato di Ricerca (XXVIII ciclo)
presso l’Università degli Studi di Udine sul tema: Studio e sviluppo di algoritmi di realta
aumentata. Candidato Dott. Marco Vernier
 Gennaio 2013 – Responsabile Scientifico di una Borsa di Dottorato di Ricerca (XXVIII ciclo)
presso l’Università degli Studi di Udine sul tema: Nuove metodologie pet la didattica in ambienti
multimediali. Candidato Dott. Marco Tommasi
Attività di Coordinamento della Didattica
Membro del Consiglio di Master di I livello
 Nel Febbraio 2003 è stato nominato dal Rettore dell’Università di Udine membro del Consiglio
del Master di I livello in “Information Technology” in convenzione con il Birla Science Center di
Hyderabad (India) istituito presso la Facoltà di Scienze Matematiche, Fisiche e Naturali
dell’Università degli Studi di Udine.
Presidente di Consiglio di Corso di Laurea
 Dall’Ottobre 2003 al Settembre 2009 è stato Presidente del Consiglio di Corso di Laurea
Triennale in Scienze e Tecnologie Multimediali presso la Facoltà di Scienze della Formazione
dell’Università degli Studi di Udine.
 Dall’Ottobre 2005 al Settembre 2008 è stato Presidente del Consiglio di Corso di Laurea
Specialistica in Linguaggi e Tecnologie dei Nuovi Media, presso la Facoltà di Scienze della
Formazione dell’Università degli Studi di Udine.
 Dall’Ottobre 2008 al Febbraio 2012 è stato Presidente del Consiglio di Corso di Laurea
Magistrale in Comunicazione Multimediale (D.M. 270 del 2004) presso la Facoltà di Scienze della
Formazione dell’Università degli Studi di Udine.
 Dal Maggio 2012 al Dicembre 2012 è stato è Presidente del Consiglio di Corso di Laurea
Magistrale in Comunicazione Multimediale e Tecnologie dell’Informazione (D.M. 270 del 2004),
laurea interfacoltà delle Facoltà di Scienze della Formazione e di Scienze Fisiche, Matematiche e
Naturali dell’Università di Udine.
Direttore di Master Universitario
 Nel Gennaio 2012 è stato nominato dal Rettore dell’Università di Udine Direttore del Master di I
livello e corso di aggiornamento in Didattica e Psicopedagogia per i Disturbi Specifici
dell’Apprendimento (DSA), finanziato dal MIUR e istituito presso la Facoltà di Scienze della
Formazione dell’Università degli Studi di Udine in convenzione con l’ufficio scolastico regionale
(USR) del Friuli-Venezia Giulia. Il master ha avuto 100 partecipanti tra i docenti delle scuole del
territorio.
24
Coordinatore di Corso di Studi
 Nel Gennaio 2013 è stato eletto Coordinatore del Consiglio unificato dei Corsi di Laurea
Triennale in Scienze e tecnologie multimdiali e di Laurea Magistrale in Comunicazione
Multimediale e Tecnologie dell’Informazione (D.M. 270 del 2004), attivati presso l’Università degli
studi di Udine.
Attività Progettuali
Partecipazione scientifica in progetti finanziati dalla CEE
(a) ESPRIT II project P5345 DIMUS (Data Integration in Multisensor Systems) della durata di 4
anni (1990-94)  Responsabile Scientifico Prof. G. Vernazza.
(b) ESPRIT III project P6068 ATHENA (Advanced Teleoperation for EartHwork Equipment
Navigation) della durata di 4 anni (1992-96)  Responsabile Scientifico Prof. G. Vernazza.
(c) ESPRIT project P8483 PASSWORDS (Parallel and real-time Advanced Surveillance System
With Operator assistance for Revealing Dangerous Situations) della durata di 3 anni (1994-97)
 Responsabile Scientifico Prof. G. Vernazza.
(d) BRITE-EURAM project CT96-0150 VENICE (Virtual Environment Interface by Sensory
Integration for Inspection and Manipulation Control in Multifunctional Underwater Vehicles)
della durata di 3 anni (1996-99)  Responsabile Scientifico Prof. G.G. Pieroni.
(e) MAST III project CT97-0079 HOLOMAR (High Resolution in Situ Holographic Recording and
Analysis of Marine Organisms and Particles) della durata di 3 anni (1997-2000)  Responsabile
Scientifico Prof. G.G. Pieroni.
Partecipazione scientifica in progetti finanziati dal CNR o dal MIUR
(a) Progetto di Ricerca Prometheus (Program for European Traffic Efficiency and Unprecedent
Safety), sezione PRO-ART Responsabile Scientifico Prof. Adorni.
(b) Progetto Finalizzato Trasporti 2 (PFT2), Tema Diagnostica e Manutenzione, Sistema di
sorveglianza per il monitoraggio di passaggi a livello ferroviari impresenziati della durata di 5
anni (1993-98)  Responsabile Scientifico Prof. G. Vernazza.
(c) Progetto MURST ex 40% per l’anno 1996 dal titolo Tecniche per la ricostruzione ed analisi di
modelli 3D con applicazioni ai beni culturali (Coordinatore Unita’ Operativa per il DIMI, Prof.
G.G. Pieroni) nell’ ambito del progetto Nazionale Sviluppo di workstation multimediali
(Cordinatore Nazionale Prof. V. Cantoni, Università di Pavia).
(d) Progetto MURST cofinanziato (con l’ Università di Cagliari e l’ Università di Genova) per il
biennio 1999-2001 dal titolo Sistemi intelligenti per la elaborazione e trasmissione di segnali
multidimensionali per applicazioni di video-sorveglianza in tempo reale.
Partecipazione scientifica in progetti finanziati da Enti o Industrie Nazionali
(a) Progetto finanziato dalla Societa’ CEOM S.p.A. (Consorzio Europeo per l’Oceanografia Marina
con sede a Palermo) dal titolo “Un sistema di visione automatica per la guida di un veicolo
autonomo sottomarino per applicazioni di ispezione di pipeline ” della durata di 1 anno (1997)
 Responsabile Scientifico Prof. G.G. Pieroni.
(b) Progetto finanziato dalla Societa’ Autovie Venete S.p.A. (con sede a Palmanova (UD)) dal titolo
“Un sistema di video sorveglianza per il monitoraggio di cavalcavia autostradali ” della durata
di 2 anni (1997-1998)  Responsabile Scientifico Prof. G.G. Pieroni.
25
(c) Progetto Regionale Friuli-Venezia Giulia dal titolo “Sistema multimediale per riconoscimento,
indicizzazione e recupero automatico di dati musicali” in collaborazione con il Dipartimento di
Scienze Storiche e Documentarie dell’Università di Udine, della durata di 2 anni (1999-2001) 
Responsabile Scientifico Prof. L. Zanoncelli.
Responsabile scientifico in progetti finanziati da Enti o Industrie Nazionali
(a) Progetto finanziato dalla Societa’ Autovie Venete S.p.A. dal titolo “Applicazione di sistemi
avanzati di elaborazione di immagini a problemi di traffico autostradale” della durata di 1 anno
(2000-2001).  Finanziamento ricevuto: 25000 Euro
(b) Progetto finanziato dalla Regione Friuli-Venezia Giulia dal titolo “Sistema integrato per
l’acquisizione non intrusiva e l’archiviazione digitale di un repertorio di codici e documenti sul
canto Gregoriano” in collaborazione con il Dipartimento di Scienze Storiche e Documentarie
(Prof. Albarosa) dell’Università di Udine, della durata di 2 anni (2001-2003) Finanziamento
ricevuto: 10000 Euro.
(c) Progetto finanziato dalla Regione Friuli-Venezia Giulia dal titolo “Sistema multimediale per
riconoscimento, indicizzazione e recupero automatico di dati musicali” in collaborazione con il
Dipartimento di Scienze Storiche e Documentarie dell’Università di Udine (Prof. Orcalli), della
durata di 2 anni (2002-2004)  Finanziamento ricevuto: 35000 Euro
(d) Progetto MIUR di interesse nazionale (PRIN03) dal titolo “Sistemi distribuiti di riconoscimento
multisensoriale a percezione aumentata per la sicurezza e la personalizzazione d'ambiente”
(2003-2004)  Finanziamento ricevuto: 42000 Euro
(e) Progetto co-finanziato dal Ministro della Difesa dal titolo “Sviluppo di un sistema automatico di
videosorveglianza per l’analisi, la detezione, l’inseguimento e la classificazione di oggetti in
movimento ed eventi complessi finalizzato alla prevenzione di attività terroristiche” della durata
di 3 anni (2005-2007).  Finanziamento ricevuto: 500000 Euro
(f) Coordinatore nazionale del progetto MIUR di interesse nazionale (PRIN06) dal titolo
“Ambienti intelligenti: interpretazione di eventi, riconfigurabilità sensoriale e interfacce
multimodali.” (2007-2009)  Finanziamento ricevuto: 115000 Euro. Unità Operative
partecipanti: Università di Roma La Sapienza (prof. S. Levialdi), Università di Pavia (prof. L.
Lombardi), Università di Padova (prof. R. Frezza).
(g) Progetto co-finanziato dal Ministro della Difesa dal titolo “Studio di un modello avanzato per la
riconfigurabilità automatica di una rete di sensori attivi da impiegare nella protezione/difesa di
basi militari allestite durante le missioni all’estero” della durata di 3 anni (2008-2010) 
Finanziamento ricevuto: 456000 Euro

Responsabile scientifico in progetti finanziati da Enti Internazionali (Unione Europea, etc.)
(a) Unione Europea - BRITE-CRAFT project BRST-CT98-5312 VENFLEX (Visual Recognition
and Mechanical Handling of Flexible Materials) della durata di 2 anni (1998-2000) –
Finanziamento ricevuto: 200000 Euro.
(b) Unione Europea - SURFACE TRANSPORT Strep project TST4-CT-2004-516235 MISS
(Monitor Integrated Safety System) della durata di 2 anni (2005-2006) – Finanziamento
ricevuto: 78000 Euro.
(c) Unione Europea - PASR - Preparatory Action on the enhancement of the European industrial
potential in the field of Security research - Progetto 204400 HAMLET (Hazardous Material
Localisation and Person Tracking) della durata di 15 mesi (Novembre 2006 – Febbraio 2008) Finanziamento ricevuto: 45000 Euro.
(d) European Defence Agency (EDA) - Collective Survivability Call (Defence R&T Joint
Investment Programme on Force Protection) project A-0380-RT-GC MUSAS (Multi Sensor Anti
26
Sniper System) della durata di 30 mesi (Gennaio 2008-Giugno 2010) - Finanziamento ricevuto:
408000 Euro
(e) European Defence Agency (EDA) - Collective Survivability Call (Defence R&T Joint
Investment Programme on Force Protection) project A-0444-RT-GC DAFNE (Distributed and
Adaptive Multisensor fusion Engine) della durata di 30 mesi (Marzo 2009-Settembre 2011)
(f) Unione Europea – SEE South Est Europe Transnational Cooperation Programme project
SEE/A/426/1.1 INTERVALUE (Inter-Regional Cooperation for Valorization of Research
Results) della durata di 36 mesi (1 Aprile 2009 – 31 Marzo 2012).
Brevetti

È co-autore con il Prof. Vernazza ed il Prof. Regazzoni dell’Università di Genova di un brevetto
di co-titolarietà con in Consiglio Nazionale delle Ricerche (CNR) dal titolo Sistema di Video
Sorveglianza per il Controllo di Ambienti Esterni. Tale brevetto è stato depositato nel 1999
(numero di deposito della domanda TO99A000378).
Associazioni Scientifiche
Gennaio 1992 – Aprile 2001
 Membro della IEEE (Institute of Electrical and Electronics Engineers).
Gennaio 1992 –Marzo 2010
 Membro dello IAPR (International Association for Pattern Recognition).
Gennaio 1995
 Membro del GRIN (Gruppo di Informatica) dal 1995.
Gennaio 1999
 Membro del GNCS (ex GNIM) (Gruppo Nazionale per il Calcolo Scientifico) dal 1999.
Maggio 2001
Senior Member della IEEE (Institute of Electrical and Electronics Engineers).

Aprile 2010
Fellow Member dello IAPR (International Association for Pattern Recognition).

Attività di Rappresentanza
 Rappresentante dei Ricercatori nel Consiglio di Corso di Laurea in Informatica (Facoltà di
Scienze Matematiche, Fisiche e Naturali dell’ Università di Udine) per il Triennio Accademico
1996-1999.
 Rappresentante dei Ricercatori nella Giunta di Dipartimento di Matematica ed Informatica per il
Triennio Accademico 1998-2001.
 Rappresentante dei Ricercatori nel Consiglio di Facoltà di Scienze Matematiche, Fisiche e
Naturali dell’ Università di Udine per il Triennio Accademico 1997-2000.
27
ATTIVITÀ DIDATTICA
L’attività didattica del prof. Foresti si è svolta in un primo tempo (1990-95) presso la Facoltà di
Ingegneria della Università di Genova, con alcune eccezioni costituite da seminari tenuti in altri
centri universitari e di ricerca, e presso la Facoltà di Ingegneria della Università di Trento, dove è
stato nominato Professore a contratto, titolare di un insegnamento ufficiale di durata annuale (ex art.
100). Dall’ Ottobre 1995 all’Agosto 2001, è stato Ricercatore per il settore disciplinare K05B
Informatica presso la Facoltà di Scienze Matematiche, Fisiche e Naturali dell' Università di Udine
(nell’ Ottobre 1998 ha ottenuto la conferma in ruolo).
Dal 1 Settembre 2001, è stato Professore Associato per il settore disciplinare INF01 Informatica
presso la Facoltà di Scienze Matematiche, Fisiche e Naturali dell' Università di Udine.
Dall’Ottobre 2003 è Presidente del Consiglio di Corso di Laurea in Scienze e Tecnologie
Multimediali, presso la Facoltà di Scienze della Formazione dell’Università degli Studi di Udine.
Dall’Ottobre 2003 è Presidente del Consiglio di Corso di Laurea Magistrale in Linguaggi e
Tecnologie dei Nuovi Media, presso la Facoltà di Scienze della Formazione dell’Università degli
Studi di Udine.
Dal 1 Novembre 2005, è Professore Straordinario per il settore disciplinare INF01 Informatica
presso la Facoltà di Scienze della Formazione dell' Università di Udine.
Dal 1 Dicembre 2005 è Preside Vicario della Facoltà di Scienze della Formazione dell'
Università di Udine.
Dal 1 Ottobre 2009 è Vicario della Facoltà di Scienze della Formazione dell' Università di
Udine.
Elencazione
-
Negli anni accademici 1991-92, 92-93 e 93-94, il Prof. Foresti ha tenuto alcuni Seminari
nell'ambito del corso di Teoria e Tecniche del Riconoscimento, Corso di Laurea in Ingegneria
Elettronica, Facoltà di Ingegneria dell’ Università di Genova.
-
Dal 1992 ad oggi ha svolto alcuni Seminari presso Università Italiane e Estere (Università di
Roma "Tor Vergata", Università di Cagliari, University College London (UK), Università di
Genova), Centri di Ricerca (Technopolis CSATA (Bari) e Microelectronics and Computer
Technology (Austin, Texas)) e Industrie Nazionali (Assolari Nuove Tecnologie (Bergamo)).
-
Nell' anno accademico 1993-94 ha prestato Collaborazione ed assistenza alle esercitazioni
pratiche di laboratorio nel corso di Comunicazioni Elettriche per Ingegneria Informatica ed è
stato redattore di due Dispense ufficiali per il corso di Teoria e Tecniche del Riconoscimento dal
titolo: (1) Metodi Sintattici per la classificazione, e (2) Tecniche numeriche per il
riconoscimento.
28
-
Nell' anno accademico 1994-95 è stato nominato Professore a Contratto, titolare dell'
insegnamento di Elettrotecnica (articolo 100/D del D.P.R. 382/80), nell' ambito del corso di
Diploma in Ingegneria Informatica ed Automatica e Ingegneria dell' Ambiente e delle Risorse
presso l' Università degli Studi di Trento.
-
Nell'Aprile del 1995 è stato nominato Professore a Contratto del corso di Prove e Misure di
Sistemi di Telecomunicazione, integrativo del corso ufficiale di Comunicazioni Elettriche
(articolo 25 del D.P.R. 382/80), nell'ambito del corso di Laurea in Ingegneria Elettronica presso
l' Università degli Studi di Genova.
-
Dall' Ottobre 1995 all’Agosto 2001, ha prestato servizio in qualita' di Ricercatore per il
raggruppamento scientifico-disciplinare K05B (Informatica) presso il Dipartimento di
Matematica ed Informatica (DIMI), Facoltà di Scienze Matematiche, Fisiche e Naturali dell'
Università di Udine. In tale periodo, oltre ai corsi e alle esercitazioni in aula e laboratorio ha
svolto i seguenti compiti didattici:
 assistenza agli studenti del corso con orario di ricevimento;
 collaborazione con gli studenti nelle ricerche attinenti alle loro tesi di laurea;
 componente delle Commissioni per esami di profitto.
 componente della Commissione per gli esami di Laurea in Scienze dell' Informazione e in
-
-
Informatica sia in qualita’ di relatore che in qualita’ di correlatore e controrelatore. È stato
relatore e/o correlatore di oltre 40 Tesi di Laurea nel settore dell’ Informatica.
Dal Settembre 2001 all’Ottobre 2005, ha prestato servizio in qualita' di Professore Associato per
il raggruppamento scientifico-disciplinare INF01 (Informatica) presso il Dipartimento di
Matematica ed Informatica (DIMI), Facoltà di Scienze Matematiche, Fisiche e Naturali dell'
Università di Udine.
Dal Novembre 2005 è in servizio in qualita' di Professore Straordinario per il raggruppamento
scientifico-disciplinare INF01 (Informatica) presso il Dipartimento di Matematica ed
Informatica (DIMI), Facoltà di Scienze della Formazione dell' Università di Udine.
Corsi ed esercitazioni
 A.A. 1994-95 
Titolare dell' insegnamento fondamentale di Elettrotecnica (come professore
a contratto, articolo 100 del D.P.R. 382/80) per il Corso di Diploma in
Ingegneria Informatica ed Automatica ed Ingegneria dell' Ambiente e delle
Risorse presso l' Università di Trento.
 A.A. 1994-95 
Titolare del Corso di Prove e Misure di Sistemi di Telecomunicazione,
integrativo del corso fondamentale di Comunicazioni Elettriche (professore a
contratto, articolo 25 del D.P.R. 382/80), nell'ambito del corso di Laurea in
Ingegneria Elettronica presso l' Università di Genova.
 A.A. 1995-96 
Esercitazioni del Corso di Documentazione Automatica (Corso di Laurea in
Scienze dell' Informazione, Università di Udine).
 A.A. 1996-97 
Esercitazioni del Corso di Documentazione Automatica (Corso di Laurea in
Scienze dell' Informazione e Diploma di Informatica, Università di Udine).
29
Esercitazioni del Corso di Sistemi di Elaborazione delle Informazioni II
(Corso di Laurea in Scienze dell' Informazione, Università di Udine).
Esercitazioni del Corso di Intelligenza Artificiale I (Corso di Laurea in
Informatica, Università di Udine).
 A.A. 1997-98 
Esercitazioni dei Corsi di Basi di Dati e Sistemi Informativi I e II (Corso di
Laurea in Informatica e Corso di Diploma in Informatica, Università di
Udine).
Laboratorio nell’ ambito del corso di Basi di Dati e Sistemi Informativi II
(Corso di Laurea in Informatica e Corso di Diploma in Informatica,
Università di Udine).
Esercitazioni del Corso di Sistemi di Elaborazione della Informazioni II
(Corso di Laurea in Informatica e Corso di Diploma in Informatica,
Università di Udine).
 A.A. 1998-99 
Supplenza del Corso di Intelligenza Artificiale I (Corso di Laurea in
Informatica, Università di Udine).
Supplenza del Corso di Intelligenza Artificiale II (Corso di Laurea in
Informatica, Università di Udine).
Supplenza del Corso di Informatica ed Archiviazione (K05B) nell’ ambito del
Corso di Diploma di Tecnico Sanitario di Radiologia Medica presso la
Facoltà di Medicina e Chirurgia dell’ Università di Udine.
 A.A. 1999-2000  Supplenza del Corso di Intelligenza Artificiale I (Corso di Laurea in
Informatica, Università di Udine).
Supplenza del Corso di Informatica ed Archiviazione (K05B) nell’ ambito del
Corso di Diploma di Tecnico Sanitario di Radiologia Medica presso la
Facoltà di Medicina e Chirurgia dell’ Università di Udine.
Supplenza dei Corsi di Fondamenti di Informatica (K05B) e Sistemi
Operativi (K05B) nell’ ambito del Corso di Diploma di Tecnico Audiovisivo
e Multimediale presso la Facoltà di Scienze della Formazione dell’ Università
di Udine (sede di Pordenone).
Supplenza del Corso di Sistemi di Elaborazione delle Informazioni II (Corso
di Laurea in Informatica, Università di Udine).
Supplenza del Corso di Elaborazione di Immagini (K05B) nell’ ambito del
Corso di Diploma di Operatore dei Beni Culturali presso la Facoltà di Lettere
dell’ Università di Udine (sede di Gorizia).
 A.A. 2000-2001  Supplenza del Corso di Sistemi di Elaborazione delle Informazioni I (Corso
di Laurea in Informatica, Università di Udine).
Supplenza del Corso di Sistemi di Elaborazione delle Informazioni II (Corso
di Laurea in Informatica, Università di Udine).
Supplenza del Corso di Informatica ed Archiviazione (INF01) nell’ ambito
del Corso di Diploma di Tecnico Sanitario di Radiologia Medica presso la
Facoltà di Medicina e Chirurgia dell’ Università di Udine.
Supplenza del Corso di Teoria e Tecniche dell’Elaborazione di Immagini
(INF01) nell’ ambito del Corso di Diploma di Tecnico Audiovisivo e
30
Multimediale presso la Facoltà di Scienze della Formazione dell’ Università
di Udine (sede di Pordenone).
 A.A. 2001-2002  Docenza del Corso di Reti di Calcolatori (Corso di Laurea in Informatica,
Università di Udine).
Docenza del Corso di Reti di Calcolatori e Sicurezza (Corso di Laurea in
Informatica, Università di Udine).
Docenza al Corso di Servizi Telematici Multimediali Distribuiti in
Applicazioni per l’Intelligenza di Ambiente nell’ambito del Dottorato di
Ricerca in Ingegneria Elettronica ed Informatica presso l’Università di
Genova.
Supplenza del Corso di Informatica ed Archiviazione (INF01) nell’ ambito
del Corso di Diploma di Tecnico Sanitario di Radiologia Medica presso la
Facoltà di Medicina e Chirurgia dell’ Università di Udine.
Supplenza del Corso di Informatica Applicata (INF01) nell’ ambito del Corso
di Diploma di Tecnico Audiovisivo e Multimediale presso la Facoltà di
Scienze della Formazione dell’ Università di Udine (sede di Pordenone).
 A.A. 2002-2003  Docenza del Corso di Reti di Calcolatori (Corso di Laurea in Informatica,
Università di Udine).
Docenza del Corso di Reti di Calcolatori e Sicurezza (Corso di Laurea in
Informatica, Università di Udine).
Supplenza del Corso di Informatica ed Archiviazione (INF01) nell’ ambito
del Corso di Laurea in Tecniche di Radiologia Medica, per Immagini e
Radioterapia presso la Facoltà di Medicina e Chirurgia dell’ Università di
Udine.
Supplenza del Corso di Informatica Applicata (INF01) nell’ ambito del Corso
di Laurea in Scienze e Tecnologie Multimediali presso la Facoltà di Scienze
della Formazione dell’ Università di Udine (sede di Pordenone).
Supplenza del Corso di Laboratorio di Tecnologie Informatiche (INF01)
presso la Scuola di Specializzazione per l’Insegnamento nella Scuola
Secondaria (SISS) dell’ Università di Udine.
 A.A. 2003-2004  Docenza del Corso di Reti di Calcolatori (Corso di Laurea in Informatica,
Università di Udine).
Docenza del Corso di Reti di Calcolatori e Sicurezza (Corso di Laurea in
Informatica e Corso di Laurea in Tecnologie Web e Multimediali, Università
di Udine).
Supplenza del Corso di Informatica ed Archiviazione (INF01) nell’ ambito
del Corso di Laurea in Tecniche di Radiologia Medica, per Immagini e
Radioterapia presso la Facoltà di Medicina e Chirurgia dell’ Università di
Udine.
Supplenza del Corso di Informatica Applicata (INF01) nell’ ambito del Corso
di Laurea in Scienze e Tecnologie Multimediali presso la Facoltà di Scienze
della Formazione dell’ Università di Udine (sede di Pordenone).
 A.A. 2004-2005  Docenza del Corso di Reti di Calcolatori (INF01) (Corso di Laurea in
Informatica, Università di Udine).
31
Docenza del Corso di Reti di Calcolatori e Sicurezza (INF01) (Corso di
Laurea in Informatica e Corso di Laurea in Tecnologie Web e Multimediali,
Università di Udine).
Supplenza del Corso di Informatica ed Archiviazione (INF01) nell’ ambito
del Corso di Laurea in Tecniche di Radiologia Medica, per Immagini e
Radioterapia presso la Facoltà di Medicina e Chirurgia dell’ Università di
Udine.
Supplenza del Corso di Informatica Applicata (INF01) nell’ ambito del Corso
di Laurea in Scienze e Tecnologie Multimediali presso la Facoltà di Scienze
della Formazione dell’ Università di Udine (sede di Pordenone).
 A.A. 2005-2006  Docenza del Corso di Reti di Calcolatori (INF01) (Corso di Laurea in
Informatica, Università di Udine).
Docenza del Corso di Reti di Calcolatori (INF01) nell’ ambito del Corso di
Laurea in Triennale in Scienze e Tecnologie Multimediali presso la Facoltà di
Scienze della Formazione dell’ Università di Udine (sede di Pordenone).
Supplenza del Corso di Elaborazione di Immagini e Video (INF01) nell’
ambito del Corso di Laurea in Magistrale in Linguaggi e Tecnologie dei
Nuovi Media presso la Facoltà di Scienze della Formazione dell’ Università
di Udine (sede di Pordenone).
Supplenza del Corso di Grafica 3D Interattiva (INF01) nell’ ambito del
Corso di Laurea in Magistrale in Linguaggi e Tecnologie dei Nuovi Media
presso la Facoltà di Scienze della Formazione dell’ Università di Udine (sede
di Pordenone).
Supplenza del Corso di Laboratorio avanzato di Realtà Virtuale (INF01)
nell’ ambito del Corso di Laurea in Magistrale in Linguaggi e Tecnologie dei
Nuovi Media presso la Facoltà di Scienze della Formazione dell’ Università
di Udine (sede di Pordenone).
Supplenza del Corso di Laboratorio di Tecnologie Informartiche – Modulo B
(INF01) nell’ ambito del Corso organizzarto dalla SSIS (Università di Udine)
per l'abilitazione nella classe A042 – Informatica.
 A.A. 2006-2007  Docenza del Corso di Reti di Calcolatori (INF01) nell’ ambito del Corso di
Laurea in Triennale in Scienze e Tecnologie Multimediali presso la Facoltà di
Scienze della Formazione dell’ Università di Udine (sede di Pordenone).
Docenza del Corso di Grafica 3D Interattiva (INF01) nell’ ambito del Corso
di Laurea in Magistrale in Linguaggi e Tecnologie dei Nuovi Media presso la
Facoltà di Scienze della Formazione dell’ Università di Udine (sede di
Pordenone).
Supplenza del Corso di Elaborazione di Immagini e Video (INF01) nell’
ambito del Corso di Laurea in Magistrale in Linguaggi e Tecnologie dei
Nuovi Media presso la Facoltà di Scienze della Formazione dell’ Università
di Udine (sede di Pordenone).
Supplenza del Corso di Laboratorio avanzato di Realtà Virtuale (INF01)
nell’ ambito del Corso di Laurea in Magistrale in Linguaggi e Tecnologie dei
32
Nuovi Media presso la Facoltà di Scienze della Formazione dell’ Università
di Udine (sede di Pordenone).
Supplenza del Corso di Laboratorio di Tecnologie Informartiche – Modulo B
(INF01) nell’ ambito del Corso organizzarto dalla SSIS (Università di Udine)
per l'abilitazione nella classe A042 – Informatica.
 A.A. 2007-2008  Docenza del Corso di Reti di Calcolatori (INF01) nell’ ambito del Corso di
Laurea in Triennale in Scienze e Tecnologie Multimediali presso la Facoltà di
Scienze della Formazione dell’ Università di Udine (sede di Pordenone).
Docenza del Corso di Grafica 3D Interattiva (INF01) nell’ ambito del Corso
di Laurea in Magistrale in Linguaggi e Tecnologie dei Nuovi Media presso la
Facoltà di Scienze della Formazione dell’ Università di Udine (sede di
Pordenone).
Supplenza del Corso di Elaborazione di Immagini e Video (INF01) nell’
ambito del Corso di Laurea in Magistrale in Linguaggi e Tecnologie dei
Nuovi Media presso la Facoltà di Scienze della Formazione dell’ Università
di Udine (sede di Pordenone).
 A.A. 2008-2009  Docenza del Corso di Elaborazione di Immagini e Video (INF01) nell’ ambito
del Corso di Laurea in Magistrale in Linguaggi e Tecnologie dei Nuovi
Media presso la Facoltà di Scienze della Formazione dell’ Università di
Udine (sede di Pordenone).
Docenza del Corso di Grafica e modelizzazione 3D (INF01) nell’ ambito del
Corso di Laurea in Magistrale in Comunicazione Multimediale presso la
Facoltà di Scienze della Formazione dell’ Università di Udine (sede di
Pordenone).
Supplenza del Corso di Reti di Calcolatori (INF01) nell’ ambito del Corso di
Laurea in Triennale in Scienze e Tecnologie Multimediali presso la Facoltà di
Scienze della Formazione dell’ Università di Udine (sede di Pordenone).
Supplenza del Corso di Laboratorio di Tecnologie Informartiche – Modulo B
(INF01) nell’ ambito del Corso organizzarto dalla SSIS (Università di Udine)
per l'abilitazione nella classe A042 – Informatica.
 A.A. 2009-2010  Docenza del Corso di Reti e Tecniche per la Comunicazione Multimediale
(INF01) nell’ ambito del Corso di Laurea in Triennale in Scienze e
Tecnologie Multimediali presso la Facoltà di Scienze della Formazione dell’
Università di Udine (sede di Pordenone).
Docenza del Corso di Grafica e modelizzazione 3D (INF01) nell’ ambito del
Corso di Laurea in Magistrale in Comunicazione Multimediale presso la
Facoltà di Scienze della Formazione dell’ Università di Udine (sede di
Pordenone).
 A.A. 2010-2011  Docenza del Corso di Reti e Tecniche per la Comunicazione Multimediale
(INF01) nell’ ambito del Corso di Laurea in Triennale in Scienze e
Tecnologie Multimediali presso la Facoltà di Scienze della Formazione dell’
Università di Udine (sede di Pordenone).
Docenza del Corso di Grafica e modelizzazione 3D (INF01) nell’ ambito del
Corso di Laurea in Magistrale in Comunicazione Multimediale presso la
33
Facoltà di Scienze della Formazione dell’ Università di Udine (sede di
Pordenone).
Docenza del Corso di Laboratorio didattico-informatico (INF01) nell’ ambito
del Corso di laurea in Scienze della Formazione Primaria dell’ Università di
Udine.
 A.A. 2011-2013  Docenza del Corso di Reti e Tecniche per la Comunicazione Multimediale
(INF01) nell’ ambito del Corso di Laurea in Triennale in Scienze e
Tecnologie Multimediali presso la Facoltà di Scienze della Formazione dell’
Università di Udine (sede di Pordenone).
Docenza del Corso di Grafica e modelizzazione 3D (INF01) nell’ ambito del
Corso di Laurea in Magistrale in Comunicazione Multimediale presso la
Facoltà di Scienze della Formazione dell’ Università di Udine (sede di
Pordenone).
Docenza del Corso di Laboratorio didattico-informatico (INF01) nell’ ambito
del Corso di laurea in Scienze della Formazione Primaria dell’ Università di
Udine.
Cicli di Lezioni e Seminari
Dal 1993 ad oggi ha svolto alcuni Seminari presso altre Università e Centri di Ricerca nazionali
ed internazionali:
(a) Aprile 1993 - Seminario su Sistemi di Riconoscimento Distribuiti per la Guida Autonoma di
Veicoli in Ambienti Reali presso Assolari Nuove Tecnologie - Divisione di Automazione e
Comandi a Distanza (Seriate, Bergamo).
(b) Aprile 1993 - Seminario su Tecniche di Voting Spaziale per il Riconoscimento Distribuito ed il
Tracking di Oggetti Planari in Scene 3D da Sequenze di Immagini presso il Centro Ricerche
Tecnopolis Csata Novus Ortus, Bari.
(c) Dicembre 1993 - Seminario su Tecniche di Elaborazione e Riconoscimento di Immagini per

Applicazioni di Telesorveglianza presso il Dipartimento di Ingegneria Elettronica dell'
Università di Roma "Tor Vergata" .
(d) Aprile 1994 – Seminario su Image Processing Techniques for Autonomous Vehicle Driving
presso il Department of Mechanical Engineering, University College London.
(e) Marzo 1995 - Seminario su Riconoscimento di Immagini per il Monitoraggio di Veicoli in
Movimento presso il Dipartimento di Ingegneria Elettronica ed Elettrotecnica dell' Università di
Cagliari.
(f) Luglio 1996 – Seminario su Reti Neurali Ibride per la Classificazione di Dati Multimediali
presso il Dipartimento di Ingegneria Biofisica ed Elettronica dell’ Università di Genova.
(g) Novembre 1997 – Seminario su Neural Trees for Pattern Recognition presso il Centro Ricerche
MCC (Microelectronics and Computer Technology), Austin, Texas, USA.
34
(h) Settembre 2000 – Ciclo di Lezioni sul tema dell’ Elaborazione di Immagini nell’ ambito del
Corso di Diploma di Operatore dei Beni Culturali presso la Facoltà di Lettere dell’ Università di
Udine (sede distaccata di Gorizia).
(i) Gennaio 2001 – Seminario presso l’Università di Udine sul tema Criteri e Modalita’ di
Valutazione dei Progetti di Ricerca Comunitari in collaborazione con l’Agenzia per la
Promozione della Ricerca Europea (APRE).
(j) Settembre 2001 – Ciclo di Lezioni sul tema dell’ Elaborazione di Immagini nell’ ambito del
Corso di Diploma di Operatore dei Beni Culturali presso la Facoltà di Lettere dell’ Università di
Udine (sede distaccata di Gorizia).
(k) Aprile 2002 - Seminario su Intelligent Systems for Real-Time Monitoring of Outdoor
Environments presso il Dipartimento di Computer Science dell’Università di Kingston, UK.
(l) Novembre 2002 – Relazione su invito dal titolo Sistemi di Sorveglianza Visuali presso la Scuola
“La Visione delle Macchine 2002” organizzata dal 10 al 15 Novembre 2002 a Vietri sul Mare
dall’Università degli Studi di Salerno e dall'Istituto di Calcolo e Reti ad Alte Prestazioni
(ICAR), sezione di Napoli del CNR.
(m) Dicembre 2002 – Relazione su invito dal titolo Sistemi di videosorveglianza per la prevenzione
di attacchi terroristici al Convegno su “Tecnologie Elettroniche per la lotta al Terrorismo”
organizzato dal Ministero della Difesa a Roma il 5-6 Dicembre 2002.
(n) Settembre 2006 – Seminario su invito dal titolo Advanced Multisensor Surveillance Systems for
Event Understanding presso l’INRIA di Sophia Antipolis, Francia.
(o) Novembre 2007 – Ha tenuto la prolusione per l’inaugurazione dell’anno accademico 2007-08
dell’Università di Udine, sede di Pordenone, con una lectio dal titolo Dalla Visione Naturale
alla Visione Artificiale.
(p) Maggio 2008 – Seminario su invito dal titolo Interfacce Multimodali per Sistemi di Video
Sorveglianza Avanzati presso l’Università di Roma La Sapienza, Dipartimento di Informatica.
(q) 2008-2014 – Visiting Professor presso la Klagenfurt Alpe Adria University di Klagenfurt
(Austria) per lo svolgimento del corso di “Artificial Vision” nell’ambito della Laurea Magistrale
in Information Technology.
Corsi di Aggiornamento e Formazione
Dal 1997 ad oggi ha svolto alcuni Corsi di Aggiornamento presso Aziende e Enti Pubblici
nazionali:
(a) Gennaio 1997 - Corso per Tecnico di Produzione Multimediale presso l’Agenzia Formativa
(IAL) del Fruili-Venezia Giulia finanziato dal Fondo Sociale Europeo.

(b) Giugno 1998 - Corso di Telecomunicazioni e Reti di Calcolatori della durata di 86 ore presso la
Societa’ Danieli S.p.A. di Buttrio (UD).
(c) Aprile 2000 - Corso di Sicurezza nelle Reti di Calcolatori presso la Societa’ Snaidero S.p.A. di
Manzano (UD).
35
(d) Settembre 2000 - Corso di Informatica presso l’ Associazione Piccole e Medie Industrie (API)
di Udine
(e) Settembre 2003 – Corso di Reti di Calcolatori e Sicurezza presso l’ENAIP di Goriza
nell’ambito del Corso di Specializzazione post-Laurea, finanziato dalla Regione Friuli-Venezia
Giulia, in Sistemista delle Reti.
36
ATTIVITÀ SCIENTIFICA
L'attività scientifica del Prof. Foresti ha avuto inizio nel 1989 con lo studio e lo sviluppo
progressivo di un sistema esperto general purpose in grado di gestire in modo distribuito dati
provenienti da più sensori. A livello di tesi di Laurea, ha iniziato lo studio ed il progetto di un
sistema esperto per il riconoscimento distribuito di immagini con applicazioni nel campo della
guida autonoma di veicoli.
Negli anni di svolgimento del Dottorato di Ricerca, l’attività di ricerca si è concentrata sullo
sviluppo di un modello teorico per l'architettura di un sistema per il riconoscimento distribuito in
grado di integrare tecniche simboliche e numeriche di elaborazione ed interpretazione di sequenze
di immagini multisensoriali.
Successivamente, negli anni di attività da Ricercatore, il prof. Foresti si è focalizzato sullo studio
di nuovi modelli di reti neurali per l’apprendimento e la classificazione di dati reali complessi, sul
riconoscimento di forme 2D e 3D in immagini reali multisensoriali, sullo studio di architetture
distribuite per la fusione dati multisensoriali e di metodi distribuiti per la regolazione adattiva dei
parametri di algoritmi di classificazione e analisi di immagini.
Negli ultimi anni il prof. Foresti si è dedicato allo sviluppo di sistemi di visione artificiale per la
sorveglianza attiva di ambienti reali.
L’attività di ricerca del Prof. Foresti puo' essere suddivisa in tre linee principali:
A) Visione attiva.
B) Fusione dati e fusione delle informazioni.
C) Riconoscimento ed interpretazione automatica di scene reali complesse
I metodi sviluppati nel contesto di tali linee hanno la caratteristica comune di avere spesso trovato
una validazione con esito positivo nei rispettivi settori applicativi.
Contributi originali alla ricerca
(RIRiviste internazionali / RN=Riviste nazionali / CIConvegni Internazionali / CNConvegni
Nazionali / LILibri / CL=Capitoli di libri / RP=Report Interni).
1) Visione attiva:
a) Metodi per la regolazione ed il controllo dei parametri intrinseci (fuoco, apertura, zoom,
guadagno, etc.) di una telecamera [RI: 13,67], [CL: 4], [CI: 17]
b) Metodi basati sulle reti Bayesiane per la regolazione adattiva dei parametri di algoritmi di
basso livello di un sistema di riconoscimento [RI: 11,17]
37
c) Studio e sviluppo di tecniche per l’individuazione, la localizzazione e l’inseguimento di
oggetti mediante telecamera mobile in pan e tilt [RI: 55,56,58,60], [CI: 73] e in zoom [CI:
80,86].
2) Fusione dati e fusione delle informazioni
a) Metodi e algoritmi di fusione dati [RI: 7,43], [CL: 9], [CI: 33,63,65-66,70,83,85,97], [CN:
1] e fusione delle informazioni [RI: 63], [CI: 89,91,96]
b) Metodi per la selezione e la valutazione del funzionamento dei sensori in un sistema
multisensoriale [RI:62], [CI: 79]
3) Riconoscimento ed interpretazione automatica di scene reali complesse:
a) Riconoscimento distribuito ed interpretazionee automatica di scene reali da immagini
multisensoriali (immagini ottiche e IR) [RI: 1,2,6,7,28], [RN: 1], [CL: 1], [CI: 1,13], [CN:
1]
b) Metodi di localizzazione ed inseguimento (tracking) di oggetti in scene reali da
telecamere statiche [RI: 4,5,9,20,23,26,38,46,65], [CI: 15,23,27,35,40,77,98,101], [CN:
2,12].
c) Metodi di estrazione e grouping di primitive descrittive (segmenti, archi di cerchio,
superfici planari) [RI: 3,8,10,12,14,15,16,32,33], [CL: 2], [CI: 2-6,7-12,14,15,16,26,29],
[CN: 3,6]
d) Metodi per il riconoscimento e per la stima della posa di oggetti 3D in immagini ottiche
[RI: 18,19,26,45], [CI: 28], in immagini radar [CI: 21,29], [CN: 5] ed in immagini
acustiche ed olografiche subacquee [RI: 15,29,31,37,39,40,47,50], [CI: 34,37,38,4143,45,46,49-55,58,60], [CL: 7,8]
e) Metodi basati sulla morfologia matematica di tipo statistico per l’analisi di forme e
codifica di immagini reali [RI: 24,30], [CL: 3,6], [CI: 18,22,24,25,30,31,40];
f) Metodi di classificazione basati su reti e alberi neurali [RI: 22,25,41,42,49,59], [CL: 5,10],
[CI: 32,36,48,56,59,61,62,99,100,104], [CN: 8];
g) Metodi per la videosorveglianza remota di ambienti reali impresenziati [RI:
21,27,34,35,36,44,60], [LI: 1,2], [CL: 5,6,11,12,13], [CI: 19,20,39,44,46,47,57,63-64,6769,71-72], [CN: 4,7,9] e metodi per l’intelligenza d’ambiente [L3], [CL17], [RN:
2,64,68], CN [10], [CI89].
h) Metodi per l’identificazione e la classificazione automatica di eventi [CL:18],
[RI:57,58,61,66,69], [CI: 76,81,82,88,90,92,102,103], [CN:13].
i) Metodi di face detection [CI. 93,94] e face recognition [CI: 95]
Presentazione dettagliata dell'attività di ricerca
38
A. VISIONE ATTIVA
Una delle linee principali dell’attività di ricerca del prof. Foresti riguarda lo studio di tecniche di
visione attiva. Obiettivo principale di questa linea di ricerca è quello di studiare nuovi metodi ed
algoritmi in grado di intervenire in modo attivo nel processo di acquisizione al fine di ottimizzare la
qualità dei dati. Tali metodi trovano applicazione in sistemi che devono operare in scene reali
caratterizzate da condizioni di bassa luminosita' (ad esempio, gallerie, etc.) e/o particolari
condizioni ambientali (ad esempio, nebbia, pioggia forte, etc.).
Nel contesto della visione attiva, l’attività di ricerca del prof. Foresti si è focalizzata sia sullo studio
e sullo sviluppo di algoritmi per l’individuazione, la localizzazione e l’nseguimento (tracking) di
oggetti in sequenze di immagini acquisite da telecamere mobili, sia sullo studio e sullo sviluppo di
algoritmi per la regolazione automatica dei parametri estrinseci (pan, tilt, etc.) e intrinseci (fuoco,
apertura, zoom, etc.) di sensori video. Il problema dell’individuazione, della localizzazione e del
tracking di oggetti in immagini acquisite da telecamere mobili è stato affrontato analizzando e
studiando algoritmi basati sull’estrazione di particolari feature (zone facilmente identificabili quali
punti di corner o punti di contorno dell’oggetto in movimento) opportunamente selezionate
all’interno dell’immagine. La classificazione e la determinazione delle corrispondenze di tali feature
tra frame consecutivi della sequenza hanno permesso di studiare un metodo innovativo per la
regolazione ottimale dei parametri estrinseci della telecamera. In particolare, la regolazione dei
parametri di pan e tilt ha permesso di sviluppare una procedura in grado di mantenere l’oggetto di
interesse al centro del piano immagine. Al fine di migliorare la qualità del processo di
classificazione e quindi del processo cognitivo del sistema di visione, non solo i parametri estrinseci
della telecamera, ma anche quelli intrinseci quali fuoco, apertura e zoom sono stati oggetto di studio
per la definizione di un algoritmo di regolazione automatica. In particolare, la regolazione del
parametro di zoom ha permesso di sviluppare una procedura in grado di mantenere una dimensione
adeguata e costante dell’oggetto sul piano immagine per un suo più accurato riconoscimento.
In sintesi, il prof. Foresti ha approfondito i seguenti temi: (1) studio e sviluppo di metodi basati
sulle reti Bayesiane per la regolazione adattiva dei parametri di algoritmi di basso livello di un
sistema di riconoscimento, (2) studio e sviluppo di tecniche per l’individuazione, la localizzazione e
l’inseguimento di oggetti mediante telecamera mobile pan-tilt-zoom (PTZ) e (3) metodi per la
regolazione automatica dei parametri intrinseci (fuoco, apertura, zoom, guadagno, etc.) di una
telecamera.
Regolazione adattiva dei parametri degli algoritmi di un sistema di riconoscimento
In [RI: 11] è proposto un nuovo metodo per la soluzione del problema della selezione dei parametri
ottimali all'interno di un sistema distribuito per il riconoscimento di immagini. La fase di
acquisizione, come descritto in [RI: 13], prevede la regolazione dei parametri intrinseci ed estrinseci
della telecamera, cosi' come il funzionamento degli algoritmi di elaborazione di immagini di seguito
applicati varia in funzione di altri parametri. Sulla base di questa osservazione generale che
39
consente di modellare sensori fisici ed algoritmi con la stessa rappresentazione, il metodo proposto
affronta il problema della regolazione come la massimizzazione della probabilita' congiunta dei
parametri utilizzati dai differenti moduli del sistema stesso. In particolare, il problema di
ottimizzazione globale viene partizionato e risolto in modo distribuito, considerando alcune misure
probabilistiche per la selezione e la stima dei parametri utilizzati dagli algoritmi del sistema. Ogni
modulo del sistema è fornito di una conoscenza a-priori sui parametri da regolare e di criteri
specifici per la stima della qualita’ dei dati. I moduli possono scambiarsi messaggi bidirezionali in
modo da arrivare attraverso iterazioni successive alla determinazione dell’insieme ottimo dei
parametri che forniscono la soluzione migliore. Un sistema di elaborazione di immagini, composto
da quattro moduli (acquisizione immagine, filtraggio, estrazione contorni, estrazione segmenti
rettilinei), è utilizzato come ambiente di test.
In [RI: 17], il modello delle reti Bayesiane proposto da Pearl è utilizzato per proporre un nuovo
metodo per la regolazione congiunta dei parametri degli algoritmi di un sistema multilivello di
visione operante su scene tempo varianti. Ogni modulo del sistema è modellato come un nodo di
una rete gerarchica. L’approccio proposto si basa su due stadi: (a) determinare una rappresentazione
esplicita dello stato del sistema (identificato come un insieme di parametri che controllano il
comportamento degli algoritmi) e (b) determinare un criterio di ottimizzazione che permetta al
sistema di mettere in relazione ogni dato di input locale con l’ informazione a-priori presente in
ogni nodo. In particolare, è stato utilizzato un criterio di ottimizzazione di tipo probabilistico basato
sulla teoria del Belief secondo cui i nodi della rete gerarchica giudicano la correttezza del risultato
locale sulla base di una funzione di belief (funzionale di costo associato ad ogni nodo della rete) che
tiene conto dell’ evidenza e delle aspettative trasmesse rispettivamente dai nodi superiori ed
inferiori della rete. I risultati ottenuti su un sistema di moduli distribuiti per l’elaborazione di
immagini ha dimostrato la superiorita’ del metodo proposto rispetto ai sistemi esistenti.
Studio e sviluppo di tecniche per l’individuazione, la localizzazione e l’inseguimento di oggetti
mediante telecamera mobile pan-tilt-zoom (PTZ)
Il principale obiettivo di questa linea di ricerca è quello di utilizzare una telecamera mobile
(telecamera Pan Tilt Zoom (PTZ) o telecamera fissa posizionata su robot mobile) per analizzare ed
interpretare automaticamente gli eventi che caratterizzano una scena reale.
In [RI: 58], è stato studiato e sviluppato un sistema di visione attiva per l’inseguimento di persone
in ambienti indoor mediante robot mobile equipaggiato con una telecamera fissa. I movimenti
traslatori del robot inducono nelle immagini acquisite dal sensore video un errore di parallasse che
rende inutilizzabili i classici algoritmi per l’identificazione dei cambiamenti. Al fine di ridurre gli
effetti di questo problema è stato utilizzato un algoritmo, proposto in [CI: 73], di allineamento delle
immagini in grado di gestire il tipo di trasformazioni indotte dallo spostamento della telecamera. In
particolare, è stato utilizzato un allineamento di tipo affine calcolato applicando l’equazione del
40
flusso ottico ad ogni pixel dell’immagine. Le prestazioni dell’algoritmo sono state ottimizzate sia
applicando la teoria degli stimatori robusti sia identificando alcune condizioni di funzionamento che
hanno permesso di ridurne sensibilmente il costo computazionale. Contestualmente allo sviluppo
dell’algoritmo di allineamento è stata anche studiata l’influenza che il parametro di zoom della
telecamera ha sulle prestazioni del sistema sviluppando una strategia di controllo attivo dello zoom
per ottimizzare la qualità delle immagini acquisite dal sistema di visione. Il sistema di visione
proposto si è rivelato in grado di (a) evitare i falsi allarmi introdotti dagli algoritmi di sogliatura
automatica che in assenza di oggetti in movimento evidenziano il rumore presente nella scena (sia
rumore di acquisizione della telecamera che errori dovuti al moto di parallasse), (b) rilevare la
presenza di oggetti in movimento sulla base di una classificazione della scena ottenuta con reti
neurali e automi a stati finiti.
In [RI: 56], è stato studiato e sviluppato un sistema di visione attivo per il monitoraggio in tempo
reale di aree esterne molto estese. Il vincolo del funzionamento in tempo reale del sistema ha
richiesto lo studio di una procedura semplice, ma allo stesso tempo efficiente, di registrazione delle
immagini acquisite da telecamera mobile. Il metodo proposto si basa sulla determinazione per ogni
frame della sequenza di un insieme di feature che viene utilizzato per creare e mantenere aggiornata
una mappa delle feature. La conoscenza della posizione delle feature valutate efficienti per il
processo di determinazione delle corrispondenze in frame successivi permette di ridurre
notevolmente il costo computazionale richiesto dalle normali tecniche di estrazione delle feature. La
procedura sviluppata si basa su un metodo di clustering delle feature che hanno corrispondenze in
frame successivi in grado di determinare gli outlier (feature considerate mal corrisposte) in base al
tipo di movimento che il sistema di visione deve rilevare nella scena.
Il sistema proposto in [RI: 58] è stato successivamente integrato in un progetto più ampio per lo
sviluppo di sentinelle mobili in grado di sorvegliare automaticamente ambienti chiusi di elevate
dimensioni [RI: 60]. Il sistema di visione è stato esteso aggiungendo specifiche funzionalità in
grado di permettere l’identificazione contemporanea di più persone. Il sistema comprende infatti un
modulo di rilevamento volti, basato sulla fusione di tre tecniche differenti: Principal Components
Analysis (PCA), reti neurali e filtri di pelle. Con la tecnica PCA il sistema viene addestrato ad
identificare dei vettori di feature (eigenfaces) che meglio rappresentano un insieme di volti
presentati in fase di training. Successivamente, le varie porzioni di immagine vengono espresse
come combinazione lineare di tali vettori, permettendo così di identificare tra volti e non-volti.
L’approccio basato su reti neurali identifica invece la presenza di volti analizzando la silhouette
degli oggetti identificati dai moduli di identificazione del movimento. La rete neurale viene quindi
addestrata a riconoscere, lungo la spline che approssima il contorno degli oggetti, il picco
41
caratteristico che corrisponde alla posizione della testa. Il filtro di pelle, infine, è in grado di rilevare
all’interno dell’immagine quelle aree che rappresentano zone di pelle sulla base di considerazione
cromatiche. La fusione dei dati generati da questi tre rilevatori permette un’identificazione robusta
del volto delle persone presenti nella scena, ed è la base per la successiva applicazione di eventuali
algoritmi di riconoscimento.
Il modello di registrazione traslatorio utilizzato nei lavori [RI: 56,58,60] non consente qualsiasi
movimento della telecamera mobile ma solo quelli vincolati a rotazioni di pan e di tilt intorno
all’asse ottico. Al fine di estendere il modello di registrazione delle immagini anche al caso di
rotazioni come il rollio attorno all’asse ottico e al caso di operazioni di zoom, è stato studiato un
nuovo metodo basato su una trasformata di tipo affine per modellare anche questi tipi di
movimento. In primo luogo, è stata studiata una tecnica di clustering in grado di estrarre un set
minimo di feature per la stima della matrice affine. La complessità di tale metodo si è rivelata di
tipo lineare rispetto alla cardinalità dell’insieme delle feature corrisposte a differenza di tecniche
note in letteratura quali Newton-Rapson, LsMeds, Ransac che risultano avere una complessità
quadratica. Analizzando i risultati ottenuti, si è osservato che la tecnica di clustering sviluppata
risultava affidabile per segmentare le feature appartenenti ad oggetti in movimento con velocità
vettoriali differenti all’interno del piano immagine. Sulla base di tale considerazione, in [CI: 80] è
stato studiato e sviluppato un algoritmo per la determinazione efficiente di un punto di
inseguimento, detto fixation point, utile per la regolazione ottimale dei parametri estrinseci della
telecamera quali pan, tilt e zoom al fine di mantenere l’oggetto inseguito al centro del piano
immagine e con una dimensione sufficientemente adeguata per un successivo riconoscimento. In
[CI: 86], è presentato un algoritmo di tracking per telecamera mobile di tipo PTZ in grado di
mantenere gli oggetti di interesse al centro dell’immagine durante l’inseguimento. L’algoritmo
proposto prende in esame due differenti tipologie di movimento all’interno dell’immagine acquisita:
(a) il reale movimento degli oggetti e (b) il movimento degli oggetti (statici) indotto dal movimento
della telecamera. L’integrazione di tali informazioni mediante un ciclo di stima-aggiornamento
rende possibile mantenere traccia e stimare la posizione degli oggetti di interesse all’interno
dell’immagine e di conseguenza determinare l’ammontare della regolazione dei parametri estrinseci
della telecamera.
Metodi per la regolazione automatica dei parametri intrinseci (fuoco, apertura, zoom, guadagno,
etc.) di una telecamera
Lo studio e lo sviluppo da parte del prof. Foresti di algoritmi per la regolazione automatica dei
parametri intrinseci (fuoco, apertura, zoom, guadagno elettronico, etc.) di un sensore video è
42
iniziato verso la metà degli anni Novanta e si è focalizzato principalmente sullo sviluppo di tecniche
di visione attiva, in grado di inserire nel sistema la capacità di associare azioni correttive dei
parametri intrinseci sulla base di una stima della qualità del dato ottenuta dagli algoritmi di
elaborazione. La regolazione è stata utilizzata come un processo locale di ottimizzazione di
funzionali di costo dipendenti dai parametri degli algoritmi di elaborazione. E’ stato definito uno
spazio degli stati sulla base dei vari parametri considerati, e tale spazio è stato successivamente
esplorato lungo i vari assi (focale, apertura, etc.) secondo un ordinamento euristico descritto
attraverso regole di produzione. L’obiettivo è quello di determinare l'immagine di qualità migliore
considerando prima un funzionale legato alla luminosità media locale (e quindi alla apertura ed al
guadagno elettronico) ed in un secondo tempo di valutare il contenuto differenziale globale per
ottimizzare la scelta della lunghezza focale.
In [CI: 17] è presentato un nuovo metodo per il controllo di parametri intrinseci (fuoco, apertura,
zoom, guadagno elettronico, etc.) di una telecamera per investigare variazioni significative in una
scena reale sulla base di una analisi dell' immagine effettuata mediante algoritmi di basso livello.
Tale metodo è esteso in [RI: 13], dove l’approccio seguito è quello di regolarizzare il problema
utilizzando tecniche proprie della visione attiva, in grado di inserire nel sistema la capacita' di
associare azioni correttive dei parametri sulla base di una stima della qualita' del dato ottenuta dagli
algoritmi di elaborazione. La regolazione viene intesa come un processo locale di ottimizzazione di
funzionali di costo dipendenti dai parametri degli algoritmi di elaborazione. Pertanto viene definito
uno spazio degli stati sulla base dei vari parametri considerati, e tale spazio viene successivamente
esplorato lungo i vari assi (focale, apertura, etc.) secondo un ordinamento euristico descritto
attraverso regole di produzione. In questo caso, si cerca l'immagine di qualita' migliore prima
considerando un funzionale legato alla luminosita' media locale (e quindi alla apertura ed al
guadagno elettronico) mentre in un secondo tempo si valuta il contenuto differenziale globale per
ottimizzare la scelta della lunghezza focale. Il metodo proposto è stato testato sia nel contesto di
guida autonoma di veicoli che in quello di sorveglianza di ambienti ferroviari, aereoportuali e
metropolitani (p.e., stazioni o passaggi a livello ferroviari impresenziati, etc).
In [CL: 4] è presentato un nuovo metodo per la stima della distanza di un oggetto dal punto di vista
dell' osservatore (posizione del sensore) da una sequenza monoculare di immagini. Il metodo si basa
sul calcolo del gradiente dell' immagine acquisita da una telecamera a parametri intrinseci ed
estrinseci regolabili. La messa a fuoco dell' immagine è fatta variare (modificando i parametri della
telecamera) all' interno di piccole finestre spaziali poste a differente distanza dall' osservatore finchè
non si raggiunge il grado di messa a fuoco ottimale. La distanza focale corrispondente al miglior
grado di messa a fuoco permette di ottenere una stima della distanza dell' oggetto inquadrato dall'
43
osservatore. Il metodo è stato provato all' interno sia di un sistema di sorveglianza per ambienti
interni (laboratorio) che esterni (stazioni metropolitane). I risultati ottenuti hanno dimostrato la
capacita' del metodo di fornire in tempo reale un segnale di allarme nel caso di ingresso nell' area
monitorata dalla telecamera di un oggetto intruso (p.e., una persona) e fornire anche una stima della
distanza di tale oggetto dal punto di osservazione.
Durante il triennio 2005-08, il prof. Foresti ha continuato i suoi studi nel campo della visione attiva
partendo dal concetto proposto da Alamoinos secondo il quale la visione attiva consiste
“nell’interazione tra osservatore e sensore per decidere attivamente cosa osservare e come
osservarlo”. Tale concetto è stato esteso nella direzione in cui non solo i parametri estrinseci di una
telecamera, ma anche quelli intrinseci vengono allo stesso tempo regolati per migliorare il processo
cognitivo del sistema di visione. Nell’ambito del progetto MIUR di interesse nazionale dal titolo
“Sistemi distribuiti di riconoscimento multisensoriale a percezione aumentata per la sicurezza e la
personalizzazione d'ambiente”, di cui il prof. Foresti è stato responsabile scientifico dell’unità
operativa dell’Università di Udine, è stato sviluppato un sistema costituito da una gerarchia di reti
neurali eterogenee atte a determinare l’ottimalità dei parametri di fuoco e di apertura nel caso di
immagini acquisite da telecamera mobile per scopi di sorveglianza. Tale studio è consistito nel
regolare i parametri intrinseci in base alla qualità della segmentazione degli oggetti di interesse. La
qualità del processo di segmentazione è stata misurata per mezzo di opportuni operatori di qualità
(brightness e sharpness quality) che analizzati da un albero neurale generalizzato determinano il
parametro che deve essere regolato per incrementare la qualità di acquisizione dell’immagine di
input del sistema di visione. Due reti neurali, opportunamente addestrate, sono poi state utilizzate
per determinare in maniera veloce ed affidabile i nuovi valori di fuoco e di apertura che la
telecamera deve selezionare per ottenere una acquisizione ottimale dell’oggetto osservato. E’
interessante notare come tale processo di regolazione sia basato sugli oggetti di interesse e non,
come accade nei comuni dispositivi, sull’intera immagine.
L’uso di reti di sensori ha inoltre richiesto lo sviluppo di opportune tecniche di comunicazione che
permettano l’ottimizzazione della larghezza di banda per la trasmissione multimediale attraverso
reti eterogenee. In particolare, in [RI: 67] il prof. Foresti in collaborazione con altri autori ha
studiato una tecnica multi casting per la trasmissione uno a molti di dati multimediali (video e
audio) che consente di ridurre la banda richiesta per la trasmissione dei dati da un singolo sensore
verso più stazioni di elaborazione. La possibilità di modificare in tempo reale i parametri intrinseci
del sensore permette di adattare la qualità dell’immagine acquisita dal sensore video in funzione
della larghezza di banda disponibile in un dato istante temporale. Il sistema di visione può quindi
automaticamente decidere la qualità del dato da trasmettere: dalla semplice trasmissione di un
44
segnale di allarme si può passare alla trasmissione del blob (da 2 livelli di grigio fino a 16 milioni di
colori) dell’oggetto in movimento nella scena fino alla trasmissione dell’intero frame con 24 bit per
pixel. Tale metodologia è stata successivamente sviluppata per consentire la trasmissione anche
attraverso canali a banda stretta (PSTN/ISDN) o attraverso collegamenti ad elevato ritardo
(collegamenti satellitari – doppio salto satellitare) .
B. FUSIONE DATI E FUSIONE DELLE INFORMAZIONI
La seconda linea dell’attività di ricerca del prof. Foresti ha riguardato lo studio di tecniche di
fusione dati e fusione delle informazioni. Nell’ambito della fusione dati, l’attività di ricerca del
prof. Foresti si è focalizzata sullo studio dell’utilizzo di più sensori video sia omogenei che
eterogenei (sensori ottici e IR) per l’analisi di scene reali caratterizzate dalla presenza di numerosi
oggetti in movimento quali persone in stazioni ferroviarie e metropolitane, persone e veicoli in
aeroporti, aree autostradali e cittadine, ecc.. La maggiore quantità di dati a disposizione ha permesso
di affrontare i numerosi problemi (occlusioni generate dalla parziale o totale sovrapposizione di
oggetti, limitato arco temporale di funzionamento, etc.) che affliggono i sistemi basati su singolo
sensore, ma ha richiesto lo studio e lo sviluppo di tecniche specifiche di fusione per la gestione della
ridondanza offerta da più sensori che osservano la stessa scena. Al fine di combinare informazioni
provenienti da sensori multipli, è stato studiato un metodo in grado di effettuare una valutazione
della qualità delle informazioni fornite da ogni sensore in maniera da pesare conseguentemente
l’affidabilità del sensore stesso. Tale metodo assegna un fattore di qualità ad un dato sensore e
successivamente combina in maniera pesata i dati forniti da sensori affidabili e da sensori meno
affidabili.
Lo studio delle tecniche di fusione dati è stato poi esteso e generalizzato al caso della fusione delle
informazioni nel contesto dei sistemi di interpretazione e riconoscimento di sequenze video. Il
problema dell’analisi ed interazione degli eventi è stato affrontato attraverso una modellazione
esplicita della conoscenza del dominio effettuata per mezzo di specifiche ontologie.
In sintesi, il prof. Foresti ha approfondito i seguenti temi: (1) algoritmi di fusione dati e algoritmi di
fusione delle informazioni e (2) metodi per la selezione e la valutazione del funzionamento dei
sensori in un sistema multisensoriale.
Algoritmi di fusione dati e fusione delle informazioni
Lo studio e lo sviluppo da parte del prof. Foresti di algoritmi di fusione dati è iniziato negli anni
Novanta e si è focalizzato principalmente sullo sviluppo di tecniche di integrazione multisensoriale
per applicazioni di guida autonoma di veicoli (sistema di riconoscimento DOORS per veicoli
autonomi sviluppato durante il periodo del Dottorato di Ricerca). In [RI: 7], sono state introdotte
due tecniche di fusione dati. La prima è utilizzata dai moduli di basso livello del sistema ed é basata
45
sulla determinazione delle corrispondenze tra regioni ottenute segmentando le immagini originali,
mentre la seconda è utilizzata dai moduli di alto livello per integrare i dati spaziali ottenuti dai
diversi sensori. I risultati di tali studi sono stati pubblicati nel lavoro [RI: 43] G.L. Foresti and C.S.
Regazzoni, "Multisensor Data Fusion for Driving Autonomous Vehicles in Risky Environments",
IEEE Transactions on Vehicular Technology, Vol. 51, No. 5, September 2002, pp. 1165 -1185, che
ha ricevuto il Best Automotive Electronics Paper Award dalla IEEE Society on Vehicular
Technology per l’anno 2002. Il lavoro descrive un sistema di fusione dati multisensoriali per la
guida autonoma di un veicolo che si deve muovere in un ambiente industriale. Il sistema acquisisce
dati da diverse tipologie di sensori posti sia a bordo del veicolo (sensori ad ultrasuoni e un laser
range finder) sia nell’ambiente in cui il veicolo deve muoversi (telecamere). L’obiettivo principale
del sistema è quello di individuare situazioni di potenziale pericolo (presenza di ostacoli fissi e
mobili) per il veicolo durante lo svolgimento dei sui compiti ed eventualmente generare un allarme.
Inoltre, il sistema in virtù dell’integrazione dei dati multisensoriali, è in grado di aggiungere
importanti potenzialità al veicolo quali la capacità di individuare grosse buche nel terreno e di
discriminare tra diversi oggetti presenti nel suo ambiente di lavoro. La fusione dati operata dal
sistema ne aumenta sensibilmente la robustezza e l’accuratezza compensando gli errori ed il
limitato raggio di azione di un solo sensore o di una sola tipologia di sensori.
In [CL: 8], è presentata una rete distribuita di sensori per l’integrazione multilivello dei dati
provenienti da sensori eterogenei nell’ambito di applicazioni di visione artificiale. La rete proposta
è caratterizzata dalle seguenti proprieta’: (a) ogni nodo della rete ha un proprio grado di autonomia
e “intelligenza” e conosce solo una parte del problema da risolvere in modo che la rappresentazione
dell’informazione sia semplice (rispetto ad un sistema centralizzato); (b) l’architettura proposta
permette di imporre dei vincoli locali ad ogni nodo in modo da ridurre il numero di possibili
soluzioni e quindi la quantita’ di informazione da propagare agli altri nodi. La rete di nodi è
organizzata in una struttura gerarchica ad albero che consiste di un nodo root (nodo di decisione) e
tanti nodi foglia (livello dei sensori) quanto il numero dei sensori fisici utilizzati. I livelli intermedi
(nodi di elaborazione) sono rappresentati da specifici algoritmi (definiti sensori virtuali) in grado di
estrarre feature significative direttamente dai sensori o dai nodi posti sul livello inferiore. La fusione
dati può avvenire sia a livello del nodo radice che dei nodi intermedi. Numerosi test in diversi
contesti applicativi nel campo della guida autonoma di robot mobili hanno dimostrato la validita’
del sistema proposto. Successivamente, tale sistema è stato sperimentato nel contesto di un sistema
di videosorveglianza per parcheggi esterni dotati di telecamere ottiche e infrarosso per garantire il
corretto funzionamento del sistema sia con illunimazione naturale che artificiale [CI: 63].
Recentemente, il prof. Foresti ha continuato i suoi studi nel campo della fusione dati multisensoriali
e sulla fusione delle informazioni focalizzando la sua attenzione sul problema della fusione di
traiettorie di oggetti in movimento in scene reali. Le traiettorie sono estratte da immagini acquisite
da sensori multipli e modellate in cluster di traiettorie.
Sulla base della teoria dell’evidenza di Dempster-Shafer per la gestione dell’incertezza, i dati
provenienti dai singoli sensori e le informazioni incerte riguardo alle traiettorie dei veicoli sono stati
46
integrati all’interno di un sistema multisensore per il controllo delle anomalie del traffico stradale.
La teoria dell’evidenza di Dempster-Shafer permette di estendere la classica definizione Bayesiana
della probabilità, andando ad assegnare porzioni di probabilità anche ad insiemi di eventi atomici,
permettendo così di rappresentare l’eventuale ignoranza dell’osservatore sul verificarsi di tali
eventi.
Nel caso della clusterizzazione di traiettorie la teoria dell’evidenza è stata applicata sia nel contesto
di sistemi monocamera [CI: 85], in cui l’approccio Dempsteriano viene usato per stabilire il grado
di appartenenza di una traiettoria ad uno specifico cluster, sia nei sistemi multicamera [CI: 83], in
cui il modello di Dempster-Shafer viene utilizzato per risolvere il problema della fusione dei dati
provenienti da telecamere diverse, in modo da gestire un unico albero di cluster comune a tutte le
telecamere.
In [CI: 96], il modello proposto in [CI: 83] e in [CI: 85], è stato generalizzato per poter essere
applicato ad un sistema reale per il controllo della sicurezza di un aeroporto da possibili attacchi
terroristici. Il sistema è dotato non solo di numerosi sensori video posizionati in differenti punti
dell’aeroporto, ma anche di sensori chimici per la rilevazione della presenza di materiali esplosivi e
di sensori radar per il tracking di persone.
Il problema della rappresentazione della conoscenza basata su regole (rule-knowledge) in aggiunta
alla conoscenza tassonomica (taxonomical knowledge) viene affrontato in [CI: 89] e in maggior
dettaglio in [CI: 91]. In questi lavori viene discussa in maniera critica la mancanza di un framework
in grado di comprendere in maniera armonica entrambi i tipi di conoscenza al fine di agevolare la
creazione e la manutenzione delle basi di conoscenza a priori relative ad un dato dominio.
In [CI: 97], alcuni concetti fondamentali presi da differenti discipline quali Linguaggi Formali,
Semantica e Filosofia del Linguaggio, sono utilizzati per definire nuovi modelli formali di fusione
delle informazioni per la soluzione di problemi relativi alle forme linguistiche e per aumentare la
conoscenza nel contesto di uno scenario di interazione tra differenti persone. Il metodo proposto si
basa sull’osservazione che lo stimolo acustico al quale le persone sono soggette durante un
colloquio ha una forte correlazione con informazioni visive del volto. Lo studio dimostra quindi che
le informazioni visive possono essere integrate con le informazioni di tipo audio per ridurre i
problemi di ambiguità durante un dialogo tra due o più persone migliorando il livello di
comprensione della scena da parte di un sistema multisensoriale di sorveglianza.
Metodi per la selezione e la valutazione del funzionamento dei sensori in un sistema
multisensoriale
Lo studio e lo sviluppo da parte del prof. Foresti di metodi per la selezione e la valutazione della
qualità del funzionamento di un sistema multisensoriale è iniziata negli anni 2000-01 e si è
focalizzato principalmente sulla definizione ed analisi di misure di qualità per l’ottimizzazione del
funzionamento di una rete di sensori sia omogenei che eterogenei. I risultati di tali studi hanno
portato alla definizione e allo sviluppo di una rete distribuita di sensori per l’integrazione
multilivello dei dati provenienti da sensori eterogenei nell’ambito di applicazioni di visione
artificiale. La rete proposta è caratterizzata dalle seguenti proprietà: (a) ogni nodo della rete ha un
47
proprio grado di autonomia e “intelligenza” e conosce solo una parte del problema da risolvere in
modo che la rappresentazione dell’informazione sia semplice (rispetto ad un sistema centralizzato);
(b) l’architettura proposta permette di imporre dei vincoli locali ad ogni nodo in modo da ridurre il
numero di possibili soluzioni e quindi la quantità di informazione da propagare agli altri nodi. La
rete di nodi è organizzata in una struttura gerarchica ad albero che consiste di un nodo root (nodo di
decisione) e tanti nodi foglia (livello dei sensori) quanto il numero dei sensori fisici utilizzati. I
livelli intermedi (nodi di elaborazione) sono rappresentati da specifici algoritmi (definiti sensori
virtuali) in grado di estrarre feature significative direttamente dai sensori o dai nodi posti sul livello
inferiore. La fusione dati può avvenire sia a livello del nodo radice che dei nodi intermedi.
Numerosi test in diversi contesti applicativi tra cui quello della guida autonoma di robot mobili
hanno dimostrato la validità del sistema proposto.
In [RI: 62], il prof. Foresti in collaborazione con altri autori, ha analizzato il problema della fusione
dati nel contesto dell’inseguimento di oggetti in movimento in un sistema di videosorveglianza.
Il processo di fusione è dinamicamente regolato tenendo in considerazione le prestazioni dei singoli
sensori nelle operazioni di rilevazione ed inseguimento di un specifico target (oggetto in movimento
nella scena). Tale regolazione dinamica è ottenuta attraverso una funzione che corregge la
covarianza dell’errore di misura associato all’informazione di posizione del target in base ad una
misura di qualità della segmentazione dell’oggetto individuato nella scena. In tal modo, gli errori di
localizzazione dovuti ad un errore nella segmentazione dei blob degli oggetti possono essere ridotti
migliorando l’accuratezza del processo di tracking. I risultati sperimentali sono stati ottenuti nel
contesto di un sistema reale di videosorveglianza composto da tre sensori video di tipologia
differente direttamente connessi allo stesso nodo della rete ed utilizzati per individuare ed inseguire
una persona in movimento in una scena reale. Il sistema, valutando la qualità della segmentazione
dell’oggetto individuato nella scena da ciascun sensore, assegna un differente peso al singolo
sensore ed ottimizza i risultati del processo di fusione.
Successivamente, il sistema proposto in [RI: 62] è stato sperimentato in [CI: 79] nel contesto di un
sistema di videosorveglianza per parcheggi esterni dotati di telecamere ottiche e infrarosso per
garantire il corretto funzionamento del sistema sia con illuminazione naturale che artificiale.
C. RICONOSCIMENTO ED INTERPRETAZIONE AUTOMATICA DI SCENE REALI
COMPLESSE.
La terza linea dell’attività di ricerca del prof. Foresti ha riguardato lo studio di tecniche di
riconoscimento ed interpretazione automatica di scene reali complesse. Tale linea di ricerca è nata
negli anni Novanta con lo studio e lo sviluppo di un sistema di guida automatica che ha richiesto lo
studio sia di algoritmi di basso livello per l’elaborazione e l’analisi delle immagini acquisite da una
telecamera sia di algoritmi di alto livello per l’interpretazione delle scene reali. Nell’ultimo periodo,
l’attività di ricerca del prof. Foresti ha riguardato i metodi per l’identificazione e la classificazione
automatica di eventi. La ricerca in questo settore si è concentrata sullo studio e lo sviluppo di
48
algoritmi per l’analisi delle traiettorie degli oggetti in movimento nella scena osservata. Le
traiettorie sono state modellate sia mediante curve di Bezier che attraverso Support Vector Machine
(SVM) e sono stati studiati appropriati algoritmi di clustering per il raggruppamento automatico di
traiettorie simili e che si ripetono nella scena con una certa frequenza. L’analisi di tali cluster ha
permesso di individuare quelle traiettorie che sono generate da oggetti con movimenti anomali e
quindi potenzialmente pericolosi (ad esempio, nel contesto di un sistema per il monitoraggio del
traffico stradale possono essere così individuati eventi potenzialmente pericolosi per la sicurezza
degli automobilisti quali sorpassi non consentiti, inversioni di marcia, soste in aree pericolose, etc.).
Sono stati poi studiati metodi per l’intelligenza d’ambiente per aumentare la sicurezza di ambienti
di lavoro ed edifici pubblici. L’utilizzo di numerosi sensori eterogenei ha richiesto sia lo studio di
appropriate tecniche di fusione dati che l’analisi di avanzati sistemi multimediali. La
rappresentazione della conoscenza specifica dell’ambiente intelligente è stata modellata attraverso
ontologie formali basate sulle Suggested Upper Merged Ontology (SUMO) library; i risultati
ottenuti sono stati visualizzati attraverso il plug-in Jambalaya Protègè.
Nel contesto della linea di ricerca sul riconoscimento ed interpretazione automatica di scene reali ha
assunto un ruolo particolarmente importante lo studio e lo sviluppo di tecniche di localizzazione
delle regioni dell’immagine corrispondenti ad un volto umano. Tali tecniche consentono di ottenere
un’informazione ad alto valore semantico molto significativa per la successiva interpretazione della
scena. La ricerca effettuata in questo ambito ha permesso di realizzare un algoritmo basato sulle
tonalità di colore della pelle umana e sulle caratteristiche salienti del volto al fine di individuare la
presenza di un volto in sequenze video acquisite sia in ambienti esterni che interni.
Riconoscimento distribuito di scene reali da immagini multisensoriali
Subito dopo il conseguimento della Laurea, i risultati ottenuti durante lo svolgimento della tesi sono
stati raccolti in due pubblicazioni [RN: 1] e [CN: 1] contenenti rispettivamente una descrizione
generale di un sistema basato sulla conoscenza per la guida autonoma di veicoli e la definizione di
un metodo per la ricostruzione di superfici planari 3D a partire da singole immagini provenienti da
telecamere nel campo del visibile e dell'infrarosso. I primi risultati ottenuti hanno dimostrato che
tale sistema poteva fornire una parziale soluzione al problema del riconoscimento di scene reali,
anche se con limiti computazionali e di robustezza.
Nel tentativo di aumentare la robustezza del sistema, il Prof. Foresti ha iniziato lo studio di un
sistema distribuito multisensoriale in cui le risorse (memoria e processi) fossero distribuite tra più
moduli. In [CL: 1] e [RI: 1] sono illustrati i concetti fondamentali che hanno portato alla
progettazione del sistema DOORS (Distributed Object-Oriented Recognition System) che si basa su
una struttura di controllo distribuita, con organizzazione dei moduli di tipo gerarchico. In
particolare, è descritta l'architettura dell'alto livello del sistema, con riferimento alle metodologie
relative alla rappresentazione della conoscenza ed all’ inferenza logica seguite nel processo di
interpretazione del segnale visivo raffigurante scene stradali reali e sintetiche di diversa
complessita'.
49
In [RI: 7] è descritta una estensione del sistema DOORS, con l'introduzione di tecniche di fusione
dati sia a livello intermedio, basate sulle corrispondenze tra regioni ottenute segmentando le
immagini originali, sia ad alto livello basate sulla fusione di dati spaziali 3D relativi a diversi
sensori. I risultati raggiunti hanno dimostrato come tale sistema fosse adatto al problema del
riconoscimento di immagini stradali in differenti situazioni ambientali (immagini diurne e/o in
presenza di nebbia o scarsa visibilita') anche se con limiti computazionali. Nel tentativo di ridurre i
limiti computazionali del sistema proposto, l’attività di ricerca è stata focalizzata sullo studio di
nuovi metodi per ottenere una rappresentazione della conoscenza più flessibile ed in grado di
includere nella rappresentazione dipendenze tra modelli a differenti livelli [Tesi di Dottorato]. In
primo luogo, è stata proposta l' architettura di un sistema di visione distribuito organizzato sulla
base di un processo di regolarizzazione e di un meccanismo di indirizzamento bottom-up [RI: 2];
successivamente, tale meccanismo è stato esteso al caso eterarchico [RI: 6]. Nel sistema proposto in
[RI: 2], ogni modulo è in grado di trasformare adattivamente con un processo di regolarizzazione i
dati in ingresso provenienti dal basso livello in osservazioni più complete. Tale sistema è applicato
al problema del riconoscimento di oggetti 3D regolari composti da superfici planari. Durante lo
sviluppo di questo riconoscitore, è stato proposto anche un particolare algoritmo basato sulla
trasformata di Hough per il riconoscimento di superfici planari [CI: 8]. Tale algoritmo ha la
caratteristica di essere invariante alle rotazioni 2D, alla scala e alla proiezione prospettica, ed è in
grado di effettuare una stima della posa di oggetti composti da superfici planari in termini di angoli
di slant e tilt.
In [RI: 6] è proposta una nuova e più completa organizzazione del sistema basata su una struttura
gerarchica a differenti livelli di astrazione. Particolare attenzione è dedicata al flusso di messaggi tra
i diversi moduli del sistema che avviene sulla base di uno schema locale utilizzante una rete
probabilistica di stimatori di variabili casuali; messaggi top-down sono usati per comunicare ai
moduli inferiori le predizioni fatte sulla base delle informazioni a-priori sul dominio di
applicazione, mentre messaggi bottom-up sono usati per comunicare ai moduli superiori le evidenze
supportate da soluzioni locali. I vari moduli continuano a generare messaggi finchè una soluzione
accettabile non viene trovata localmente in ogni modulo. A questo punto il flusso di messaggi
relativo al riconoscimento di una scena ha termine e la soluzione viene comunicata all'operatore.
In [RI: 23], i risultati del processo di riconoscimento applicato a scene stradali per la localizzazione
di ostacoli in essa contenuti sono presentati insieme con uno studio comparativo del carico
computazionale suddiviso fra i diversi moduli del sistema. L'approccio cosi' sviluppato è risultato
essere adattivo e facilmente parallelizzabile, consentendo di ottenere risultati significativamente
superiori rispetto allo stato dell'arte.
Parallelamente allo sviluppo del riconoscitore distribuito e con l' obiettivo di velocizzare il processo
di riconoscimento, è stato affrontato il problema della ricerca delle corrispondenze (matching) tra
un dato corrente e un insieme di modelli 3D di oggetti noti a-priori [CI: 1-6]. In particolare, sono
stati utilizzati due tipi di modelli: un modello simbolico, che consiste in una descrizione simbolica
delle caratteristiche (features) degli oggetti tramite funzioni di membership fuzzy, ed uno numerico,
50
che consiste invece in un insieme di immagini rappresentanti i contorni degli oggetti caratteristici,
direttamente ricavate dalle viste sintetiche. La funzione di questo secondo insieme di modelli è da
mettere in relazione con l'utilizzo di tecniche associative come metodo di indicizzazione guidato dai
dati dell'insieme dei modelli usati dal riconoscitore.
Individuazione, localizzazione ed inseguimento di oggetti in scene reali da telecamere statiche
Il problema dell’ individuazione, localizzazione ed inseguimento di oggetti 3D in movimento in
ambienti esterni non controllati (con sufficiente o scarsa illuminazione) è stato affrontato in diversi
lavori presentati sia su Riviste Internazionali in [RI: 4,5,9,20,23,26,38,46] che su Conferenze
Internazionali [CI: 23,27,35,40].
In [RI: 4] il Prof. Foresti ha sviluppato nel dettaglio un metodo di inseguimento in tempo reale di un
oggetto 3D a partire da una sequenza di immagini. Il risultato è la posizione dell' oggetto (un
veicolo autonomo in movimento in un ambiente industriale) su una mappa. La novita' del metodo
consiste nel rappresentare lo stato spazio-temporale del veicolo (posizione, velocita', accelerazioni,
dimensioni) e il modello delle osservazioni (proiezione prospettica dell'oggetto 3D sul piano
immagine) mediante le equazioni di un filtro di Kalman esteso. Sono stati ottenuti risultati
soddisfacenti sia su sequenze di immagini sintetiche che reali, permettendo l' inseguimento in modo
robusto di un oggetto in lunghe sequenze di immagini. Un estensione di questo metodo al caso della
localizzazione ed inseguimento di oggetti multipli in movimento all' interno della stessa scena è
stato proposto in [RI: 9]. Tale tecnica è stata applicata con buoni risultati a casi reali nel contesto
del progetto CEE Athena (ESPRIT 6068) per il monitoraggio di veicoli intrusi nell'area di lavoro di
un veicolo autonomo utilizzato in ambiente industriale [CI: 19] [CI: 33].
L' analisi del problema dell’ inseguimento in tempo reale di oggetti 3D in scene esterne ha richiesto
lo sviluppo di alcune tecniche veloci e robuste per l' identificazione delle zone dell' immagine
caratterizzate dalla presenza di oggetti in movimento rispetto ad uno sfondo fisso. In [RI: 5] è
proposto un nuovo metodo per l'identificazione dei cambiamenti significativi in sequenze di
immagini robusto a variazioni delle condizioni di illuminazione della scena. Tale metodo utilizza l'
immagine binaria delle differenze (ottenuta come differenza tra l'immagine corrente e quella di
sfondo) come ingresso ad una particolare funzione ad isteresi in grado di classificare il singolo pixel
secondo l' appartenenza a due diverse classi: oggetto in movimento o sfondo. I risultati ottenuti su
immagini reali nel contesto dell' applicazione di un sistema di sorveglianza per passaggi a livello
ferroviari non presenziati [CN: 2,4,7] hanno dimostrato la robustezza e l' affidabilita' del metodo
proposto anche in condizioni ambientali avverse (situazioni di pioggia forte, scarsa illuminazione
della scena, presenza di nebbia, etc.). In [CI: 15] tale metodo è stato esteso al caso di scene con
presenza di oggetti multipli in movimento.
In [RI: 20], è descritto un metodo per l’inseguimento di oggetti multipli di forma regolare (composti
da superfici planari) in una sequenza monoculare di immagini ottiche. Ogni oggetto, identificato
univocamente sul piano immagine per mezzo di un algoritmo di identificazione dei cambiamenti, è
rappresentato da un insieme di segmenti rettilinei. Un nuovo modello di filtro di Kalman esteso è
utilizzato per inseguire tali segmenti in frame successivi della sequenza e per stimarne i parametri
51
del moto. I risultati ottenuti sia su sequenze di immagini sintetiche che reali hanno dimostrato la
superiorita’ del metodo proposto rispetto allo stato dell’arte. Tuttavia, il metodo presenta una
elevata complessita’ computazionale dovuta al processo di estrazione di segmenti rettilinei ed è
applicato a scene reali non complesse (ben illuminate e in condizioni ambientali normali). Al fine di
superare tali limiti, in [RI: 19] è proposto un metodo in grado di operare in scene reali scarsamente
illuminate, caratterizzate dalla presenza di ombre, occlusioni, riflessioni luminose artificiali e/o
disturbate da pioggia forte o presenza di nebbia. In particolare, è presentato un innovativo algoritmo
di aggiornamento in tempo reale dell’ immagine di riferimento (background image) che permette di
minimizzare gli errori in fase di identificazione dei cambiamenti dovuti a rumore di acquisizione o a
presenza di ombre. In [RI: 26] è proposto un metodo per l’identificazione in tempo reale di oggetti
multipli (oltre 10 contemporaneamente) in sequenze di immagini complesse. In particolare, sono
utilizzati operatori morfologici binari di tipo statistico per filtrare il rumore e contemporaneamente
per favorire l’aggregazione di pixel appartenenti ad oggetti in movimento. Una innovativa
procedura di confronto permette di identificare univocamente ed inseguire gli oggetti, anche nei casi
in cui uno o più di essi si presentino uniti o divisi, oppure appaiano o scompaiano nel frame
successivo. Un esteso confronto con i metodi esistenti in letteratura dimostra la validita’ del metodo
proposto.
In [CI: 35] è proposto un modello di filtro di Kalman per l’inseguimento in tempo reale di veicoli in
grado di integrare le informazioni di movimento (acquisite tramite odometri) con quelle di un GPS
(global position system) di tipo differenziale. Tale sistema permette ad un centro di controllo
remoto di monitorare un insieme di veicoli in movimento anche in zone d’ ”ombra
elettromagnetica” come lunghe gallerie, autorimesse, etc. Nel lavoro presentato in [RI: 23] è
descritto un sistema di classificazione di immagini stradali basato sull’ integrazione di
riconoscimento ed inseguimento di veicoli. Tale sistema è una estensione di quello presentato in
[RI: 6] al caso dinamico di sequenze di immagini ed è basato su una cooperazione bidirezionale tra
riconoscimento ed inseguimento. Il processo di riconoscimento, computazionalmente oneroso, è
attivato periodicamente solo su alcuni frame della sequenza per identificare gli oggetti presenti nella
scena. Il processo di inseguimento invece è utilizzato per mantenere le corrispondenze tra oggetti
identificati in istanti di riconoscimento successivi, determinando frame dopo frame la nuova posa di
ogni oggetto. L’integrazione dei due processi permette di abbassare notevolmente i tempi di calcolo
rendendo il sistema più vicino ad una applicazione reale per veicoli autonomi.
In [CI: 23] è presentato un nuovo metodo per la stima della posizione e dei movimenti di una
persona in scene reali complesse da una sequenza di immagini. Il metodo proposto si basa sull'
introduzione di un modello matematico per la rappresentazione dei principali movimenti del corpo
umano. La precisione e la robustezza dimostrate dal metodo soprattutto in condizioni di
funzionamento non controllate si sono rivelate superiori rispetto a quelle ottenute da altri approcci
presenti nello stato dell' arte.
In [RI: 38] è presentato un sistema per l’analisi di scene reali contenenti oggetti multipli in
movimento basato sull’integrazione di tecniche di tracking e di classificazione per mezzo di una
52
rete distribuita di sensori. Il sistema è in grado di ridurre i problemi generati da occlusioni e parziali
sovrapposizioni degli oggetti in movimento nella scena. Classificatori basati su alberi neurali sono
utilizzati per distinguere oggetti isolati e gruppi di oggetti, mentre un filtro di Kalman esteso è
utilizzato per stimare il numero di oggetti in movimento presenti nella scena, la loro posizione ed i
relativi parametri di moto. I risultati sperimentali proposti su scene reali complesse (con presenza di
numerose ombre e parziali sovrapposizioni degli oggetti) dimostrano l’efficienza e la robustezza del
metodo proposto.
In [RI: 65], è presentato un sistema per l’analisi in tempo reale del movimento di una persona e la
sua rappresentazione virtuale attraverso una interfaccia uomo-macchina. Il sistema di visione
proposto è in grado di determinare il movimento di ogni parte del corpo (testa, braccia, gambe, etc.)
utilizzando una solo telecamera e senza far ricorso, come nei sistemi commerciali utilizzati
nell’industria cinematografica, a specifici marcatori (landmark) posizionati sul corpo della persona
monitorata. I movimenti delle singole parti del corpo della persona sono individuati ed inseguiti
attraverso differenti algoritmi ed i dati ottenuti sono integrati attraverso un approccio basato sui
particle filters. In output il sistema è in grado di produrre una animazione in tempo reale di un
avatar in ambiente VRML or X3D.
In [CI: 97], è proposto un algoritmo per la rilevazione e l’inseguimento di oggetti in movimento in
sequenze di immagini. In tale lavoro, il classico approccio al problema dell’inseguimento basato
sull’uso di stimatori ottimi quali il filtro di Kalman è stato sostituito da un approccio basato sulla
tecnica di on-line boosting. L’algoritmo di tracking proposto non ricerca nella scena una o più
feature che caratterizzano l’oggetto da inseguire e che sono state individuate nel frame precedente,
ma cerca l’intero oggetto come appartenente ad una determinata classe di oggetti (ad esempio, una
persona, un’auto). L’approccio proposto integra quindi riconoscimento e tracking utilizzando uno i
risultati dell’uno per migliorare i risultati dell’altro. In [CI: 101], il metodo è stato ulteriormente
sviluppato ed integrato anche con una procedura in grado di riconoscere ed inseguire oggetti a
differenti scale, ossia oggetti che si allontanano o si avvicinano alla telecamera.
In [CI: 77], è proposto un sistema automatico per il monitoraggio del traffico stradale in grado di
rilevare autonomamente il passaggio degli autoveicoli, la loro direzione e velocità.
Successivamente, nell’ambito del lavoro di ricerca condotto nell’ambito del progetto europeo, Sesto
Programma Quadro, MISS (Monitor Integrated Safety System) (TST4-CT-2004-516235), sono
stati sviluppati algoritmi per l’inseguimento robusto di veicoli in sequenze video acquisite in
ambienti scarsamente illuminati (es. tunnel). I risultati scientifici del progetto sono stati pubblicati
in [CN: 12] per quello che riguarda percorsi urbani, gallerie e zone scarsamente illuminate.
Estrazione e grouping di primitive descrittive.
In [CI: 7] e [CI: 16] il Prof. Foresti ha proposto alcune modifiche all'algoritmo classico (proposto da
Duda e Hart) per l'individuazione di rette in immagini bidimensionali mediante la trasformata di
Hough (HT). L'analisi nello spazio trasformato viene resa più efficiente computazionalmente e più
affidabile mediante la cancellazione progressiva dei contributi delle primitive individuate. Tale
53
modifica evita in particolare i picchi spuri generati dall'introduzione di primitive contigue nello
spazio trasformato.
In [RI: 3], è proposta una estensione del metodo basato sulla HT proposto in [CI: 7,16] al dominio
simbolico (cioè al livello delle primitive): le label simboliche associate a ciascun segmento
rettilineo possono essere usate per partizionare lo spazio di Hough ed isolare i contributi provenienti
da differenti regioni dell'immagine. Un segmento viene rappresentato come un elemento dinamico
in uno spazio parametrico bidimensionale; ogni cella dello spazio rappresenta una retta con una
certa direzione e distanza da una origine fissata, mentre ogni elemento contiene le informazioni
degli estremi in tale direzione. Grazie alla informazione simbolica fornita da un inseguitore di
contorni, è possibile raggruppare insiemi di voti spazialmente continui in elementi differenti dello
spazio di accumulazione dei voti. Una operazione di fusione locale di informazione contigua nello
spazio dei parametri permette di ovviare a problemi di discretizzazione di tale spazio, fondendo
gruppi con la stessa etichetta distribuiti in locazioni adiacenti. L'algoritmo è stato validato su
immagini sintetiche e reali di crescente complessita' dimostrando risultati decisamente superiori
rispetto allo stato dell' arte soprattutto in relazione ai problemi dei picchi spuri, della perdita di
informazione spaziale e della discretizzazione dello spazio dei parametri.
In [RI: 8], questo metodo viene esteso al caso di estrazione di primitive circolari. La maggiore
novita’ è rappresentata dall’ introduzione di un criterio di disaccoppiamento della equazione di
secondo ordine di un cerchio che consente di effettuare due operazioni di voting
"monodimensionali". I risultati vengono sperimentati nel caso di identificazione del numero di
persone osservate da una telecamera per problemi di stima di affollamento di ambienti sorvegliati
(stazioni ferroviarie o metropolitane).
In [RI: 33], è proposto un metodo per l’ individuazione in tempo reale di segmenti rettilinei in
immagini multisensoriali (ottiche, infrarosso, radar, acustiche, etc.). Tale metodo presenta numerose
innovazioni sia rispetto al metodo proposto in [RI: 3], in quanto viene eliminata la necessita' di preelaborare l’ immagine di input con un algoritmo di inseguimento dei contorni (la distanza da un
punto di riferimento viene valutata per determinare la vicinanza spaziale di due punti che votano per
lo stesso parametro), sia rispetto allo stato dell’ arte, riducendo la perdita’ di informazione spaziale
e gli errori di discretizzazione, ed eliminando i falsi massimi dallo spazio degli accumulatori.
I metodi classici di estrazione di primitive descrittive da un immagine sono limitati a primitive
relativamente semplici da un punto di vista strutturale: punti caratteristici (corner), segmenti
rettilinei o circolari. Molto spesso, in problemi di riconoscimento di oggetti si rende necessario
comparare descrizioni di tipo più complesso con i modelli di un database. La complessita'
computazionale di questo confronto rende intrattabile il problema, se affrontato nel caso di molti
elementi. È pertanto utile raggruppare primitive semplici in primitive più complesse in maniera
indipendente dal set di modelli disponibile. In questo contesto il Prof. Foresti ha proposto la
formulazione di un modello markoviano multilivello per il raggruppamento di alcune primitive
descrittive (contorni o regioni). Tale modello utilizza il formalismo delle reti probabilistiche
bayesiane per dare basi teoriche al meccanismo di comunicazione fra i vari livelli e dimostra come
54
il classico criterio di stima Maximux A-Posteriori Probability (MAP) possa essere considerato come
un caso particolare della stima Most Probable Explanation (MPE), valida in reti multilivello di
Markov Random Fields (MRF). In [CI: 10], esteso poi in [RI: 12], è proposto un modello di
raggruppamento di segmenti rettilinei, rappresentati come un grafo i cui archi costituiscono
relazioni di tipo geometrico (convergenza, colinearita', parallelismo). Il modello MRF consente di
etichettare i nodi del grafo sulla base della minimizzazione di un funzionale di costo in cui si tiene
conto del livello di convessita' delle forme raggiunte. I risultati ottenuti nel caso di immagini reali
complesse hanno permesso di mettere a punto uno dei pochi metodi esistenti in letteratura per il
raggruppamento di primitive descrittive in modo completamente bottom-up. In [CI: 14] e più
dettagliatamente in [CL: 2] questo approccio è stato esteso al caso di raggruppamento di primitive
descrittive non omogenee (linee rette e cerchi) finalizzato al riconoscimento di persone in ambienti
esterni come stazioni ferroviarie o metropolitane. In [CN: 3] e [CN: 6], il problema del
raggruppamento è esteso a primitive descrittive di più alto livello: superfici di tipo planare. In [RI:
15], il metodo di voting per raggruppamento di segmenti rettilinei è stato esteso al riconoscimento
veloce di oggetti in immagini acustiche sottomarine utilizzate sia per la guida di veicoli autonomi
(AUV) sia per le ricerche di tipo archeologico.
In [RI: 16] è proposto un nuovo metodo di trasformazione 2D-3D per determinare da un insieme di
segmenti rettilinei estratti da una singola immagine a livelli di grigio la posa di oggetti 3D composti
da superfici planari. L’ aspetto più innovativo del metodo proposto è che la stima della posa avviene
per oggetti di dimensione qualsiasi e si è dimostrata robusta a variazioni di scala, traslazioni,
rotazioni e distorsioni prospettiche (slant e tilt).
I medodi di caratterizzazione e raggruppamento di primitive descrittive precedentemente descritti
sono stati estesi in [CI: 9] e [CI: 12] al caso di sequenze di immagini (scene dinamiche).
In [RI: 14], è proposto un metodo di voting per identificare ed inseguire (in tempo reale) segmenti
rettilinei in una sequenza di immagini. L’ aspetto di maggior originalita’ di questo metodo è
contenuto nella possibilita’ di caratterizzare ed inseguire segmenti rettilinei direttamente nello
spazio delle feature, solo sulla base di quattro parametri (posizione, orientazione, lunghezza e
baricentro) e senza richiedere complesse e computazionalmente onerose operazioni di confronto e
trasformazioni inverse, necessarie per la trasformata di Hough classica.
Recentemente in [RI: 32], il Prof. Foresti ha unificato tutto il lavoro fin qui svolto sull’argomento
della ricerca di primitive descrittive per il riconoscimento di scene reali, definendo un’ architettura
gerarchica di tipo bottom-up per l’ estrazione, la caratterizzazione ed il raggruppamento di linee e
segmenti in immagini ottiche. Il processo di mapping dei dati da un livello n-esimo al livello (n+1)esimo dell’ architettura proposta avviene attraverso un processo di trasformazione comune basato su
tecniche di voting. Grazie alla generalita’ di tali tecniche (il tipo di primitiva descrittiva cercata
dipende esclusivamente dall’equazione di voting) l’architettura proposta riesce ad automatizzare la
ricerca di linee rette, segmenti rettilinei, cerchi e archi di cerchio, ellissi ed archi di ellissi, etc. ed il
loro raggruppamento in strutture più complesse (figure geometriche regolari come triangoli,
rettangoli, etc.). L’ output del sistema contiene cosi’ una descrizione di alto livello degli oggetti
55
presenti nella scena osservata, rappresentata come insiemi di viste 2D che corrispondono alla
proiezione sul piano immagine delle superfici che compongono gli oggetti stessi. I risultati ottenuti
su immagini ottiche raffiguranti scene reali con caratteristiche diverse hanno dimostrato la validita’
del metodo proposto.
In [RI: 10] il Prof. Foresti ha affrontato il problema della ricostruzione di superfici di oggetti da
misure sparse ottenute dopo aver illuminato la scena con un campo elettromagnetico alla frequenza
delle microonde. Tale problema è un classico problema mal-posto che richiede una conoscenza apriori per poter essere regolarizzato. Inoltre, la presenza di un mezzo scatteratore tra la sorgente e l'
oggetto ha reso la ricerca più complessa. Lo stato dell' arte sull' argomento proponeva lavori basati
sulla soluzione dell' equazione per lo scattering inverso nella sua forma integrale che richiede
operazioni di inversione di grosse matrici (processo computazionalmente molto oneroso). In questo
contesto, il Prof. Foresti ha proposto un nuovo metodo basato sui Gibbs Markov Random Fields
(GMRF) che permette di regolarizzare il problema in esame ottenendo una soluzione
sufficientemente precisa senza dover ricorrere a complesse operazioni tra matrici. Confronti fra i
due approcci hanno dimostrato come il nuovo metodo basato sui GMRF permetta di ottenere
risultati di precisione e correttezza paragonabili, ma in circa un quarto del tempo.
Riconoscimento di oggetti e stima della posa in immagini ottiche, radar e acustiche
In [CI: 34] e [CI: 37], l’ informazione proveniente da sensori ottici ed acustici è integrata per
identificare oggetti in immagini subacquee e ricostruire in modo virtuale l’ambiente in esame.
Obiettivo del lavoro è quello di fornire un supporto alla navigazione di un veicolo teleoperato da
una stazione di lavoro remota. In [RI: 15], è stata sviluppata una nuova tecnica di voting per il
riconoscimento e la determinazione dell’orientazione (asse principale) di oggetti 3D in immagini
acustiche subacquee acquisite da una telecamera acustica o da un sonar di tipo forward looking. Il
metodo che funziona per oggetti di forma regolare composti da superfici di tipo planare, è
organizzato gerarchicamente su due livelli. Il primo livello analizza un istogramma ottenuto
sommando i voti ricevuti dai punti di contorno con orientazione simile. I massimi di tale
istogramma indicano con buona approssimazione le orientazioni principali dei lati dell’oggetto
presente nell’ immagine. Per evitare falsi oggetti, il secondo livello, confronta i massimi ottenuti
con quelli di un set di modelli predefiniti e memorizzati in un database. Il principale vantaggio del
metodo proposto è la sua velocita’ e robustezza al rumore di tipo moltiplicativo che caratterizza le
immagini acustiche.
In [RI: 31], estensione del lavoro [CI: 38], è presentato un nuovo metodo per la classificazione di
immagini ottiche subacquee. Tale metodo si basa sull’ utilizzo di una rete neurale di tipo multi-layer
perceptron (con algoritmo di apprendimento di tipo backpropagation) per coadiuvare un veicolo
autonomo subacqueo nell’ identificare ed inseguire una condotta sottomarina. Il metodo si è
dimostrato preciso e robusto nell’ identificare i bordi della condotta anche in immagini fortemente
rumorose a causa di presenza di sabbia, differenti condizioni di illuminazione e assorbimento
dell’acqua. Miglioramenti al processo di classificazione sono stati ottenuti grazie all’ integrazione
di tecniche di ragionamento geometrico [CI: 43] e uso di alberi neurali [CI: 45].
56
In [RI: 38], è presentato un sistema di visione automatica per la guida di un veicolo subacqueo
autonomo in operazioni di ispezione di condotte sottomarine. Tale sistema utilizza un modello 3D
della scena e un filtro di Kalman esteso per il controllo del movimento del veicolo. Il sistema
utilizza come osservazioni le equazioni delle rette dei bordi della condotta (estratte mediante un
filtro basato sulla trasformata di Hough) e un modello a-priori per inferire informazioni 3D sulla
scena. Numerosi esperimenti di guida autonoma del veicolo in differenti condizioni ambientali
(scarsa illuminazione, condotta parzialmente coperta da sabbia, etc.), con differenti tipi di correnti
marine e in presenza di particolari ostacoli (particolari cavalletti e materassi utilizzati per ancorare
la condotta al fondo) hanno dimostrato la validita’ e la robustezza del sistema.
In [RI: 39], è proposto un metodo per l’individuazione di particolari strutture chiamate anodi
presenti in alcuni punti di una condotta sottomarina. La localizzazione di tali strutture, la cui forma
è di tipo ellittico e la cui posizione è nota a-priori con una precisione dell’ordine del metro, permette
di stimare la posizione del veicolo autonomo durante il suo spostamento lungo la condotta. Un
modello 3D della scena e la stima della posizione 3D di tali ellissi permette al sistema di validare le
strutture trovate, eliminando quelle incompatibili con la posizione del veicolo (e quindi del punto di
vista della telecamera).
In [RI: 40], il metodo proposto in [RI: 31] è esteso al caso di riconoscimento di diverse tipologie di
condotte sottomarine caratterizzate da differenti colori e materiali, tipo di fondo marino, tipo di
incrostazioni, etc. A tal fine è stato proposto un sistema gerarchico, basato su un classificatore
neurale con struttura ad albero, in grado di adattare la risoluzione di differenti zone delle immagine
da classificare ad un certo livello in base ai risultati della classificazione ottenuta dal livello
superiore. I risultati ottenuti hanno dimostrato la validita’ del metodo e la sua capacità a guidare un
veicolo sottomarino per alcune decine di chilometri lungo una condotta posta su fondali con
caratteristiche differenti (sabbia, ghiaia, etc.).
In [RI: 18] è proposta una estensione del metodo presentato in [CI: 28] al caso di stima della posa di
oggetti 3D a partire da sequenze di immagini reali. Tale stima avviene sulla base di un confronto tra
una descrizione dell' oggetto basata sullo scheletro statistico e un database contenente un set di
descrizioni di differenti oggetti. Lo scheletro estratto da ogni oggetto viene approssimato con
segmenti rettilienei e la funzione di scheletro è approssimata con tratti di splines di tipo NURBS.
L’aspetto innovativo del lavoro è la semplicita’ della rappresentazione dell’ informazione associata
ad ogni oggetto (un insieme di segmenti e i coefficienti delle splines) che permette di ottenere, oltre
alla validazione del processo di riconoscimento, una stima della posa in tempo reale.
In [CI: 21] è affrontato, in collaborazione con il Dipartimento di Ingegneria Elettronica dell'
Universita di Roma "Tor Vergata" e con il Dipartimento di Ingegneria Elettronica dell' Universita di
Firenze, il problema della sorveglianza del traffico aereo di superficie. Il ruolo del Prof. Foresti in
tale collaborazione è stato quello di sviluppare un metodo, basato sulla trasformata di Hough, in
grado di stimare l' orientazione di un aereo ad ogni frame di una sequenza di immagini radar. I
primi risultati ottenuti sono serviti per dimostrare la fattibilita' di un sistema di sorveglianza di
questo tipo, attualmente in fase di realizzazione presso l' aereoporto di Roma "Leonardo da Vinci".
57
In [CI: 29] è proposta una modifica del metodo presentato in [CI: 21] adattandolo ad immagini
prodotte da un simulatore radar ad elevata risoluzione. Tale applicazione ha dimostrato la
possibilita' di utilizzare algoritmi veloci di elaborazione di immagini nel contesto di un sistema di
sorveglianza del traffico aereo di superficie, fino ad oggi svolto esclusivamente dal radar secondario
e dal controllo visivo di un operatore umano. In [CN: 5] i risultati ottenuti in [CI: 21,29] per singole
immagini sono estesi a intere sequenze di immagini simulate o reali.
Morfologia Matematica Statistica
In collaborazione con il Prof. A.N. Venetsanopoulos dell' Università di Toronto, il Prof. Foresti ha
contribuito a definire una nuova classe di operatori morfologici (sia elementari, quali erosione,
dilatazione, apertura, chiusura, che più complessi, come skeleton e pattern spectrum) di tipo
statistico per l’ analisi di forme, codifica e stima della posa di oggetti in immagini rumorose (sia
binarie che a livelli di grigio) In [CI: 18,22,24,30] e [CL: 3], sono descritte le proprieta’ principali
di tali operatori ed è dimostrato come tali operatori possono essere interpretati come stimatori a
varianza minima del modello probabilistico e possono essere ottenuti a partire dalle leggi
fondamentali della teoria della probabilità. Il principale vantaggio di tali operatori consiste nella
possibilitá di introdurre, nel filtraggio operato, la conoscenza a priori riguardo il livello di rumore
che si suppone affligga l'immagine e sulla forma degli oggetti aspettati nella scena. In [RI: 21] sono
presentati i risultati dell' applicazione di alcuni operatori morfologici statistici elementari e del
pattern spectrum statistico nel contesto di un sistema di sorveglianza per passaggi a livello ferroviari
funzionante in tempo reale. L' uso di tali operatori permette di ottenere una metodologia comune
per tre diverse fasi di estrazione dell' informazione dalla scena: identificazione dei cambiamenti,
focalizzazione dell' attenzione e riconoscimento degli oggetti presenti.
Nell' ambito degli studi sulla Morfologia Matematica Statistica è stato affrontato il problema della
codifica di immagini binarie e a livelli di grigio con un bit rate molto basso. In particolare, in [CI:
25] è presentato un nuovo metodo di rappresentazione della forma in immagini binarie rumorose
che puo' essere utilizzato sia per problemi di riconoscimento che per problemi di codifica. Il metodo
consiste di tre passi principali: (a) estrazione dello scheletro morfologico statistico degli oggetti
presenti nell' immagine, (b) approssimazione geometrica dei punti dello scheletro in segmenti
rettilinei e (c) approssimazione della funzione di forma associata ad ogni segmento sulla base di
spline parametriche. La rappresentazione degli oggetti cosi' ottenuta si è dimostrata essere
facilmente utilizzabile per ricostruire una approssimazione della forma originale per mezzo di uno
specifico algoritmo di ricostruzione, e quindi anche utilizzata per la codifica di immagini. In [CI:
40] tale metodo di codifica è integrato con l’informazione relativa all’ inseguimento di uno o più
oggetti dimostrandosi utile per applicazioni reali di video sorveglianza, e in [CI: 31] è integrato con
una funzionalita’ di codifica progressiva che permette di regolare il livello di compressione dei dati.
In [RI: 24], è presentato un metodo per il riconoscimento di forme 2D in immagini binarie
fortemente corrotte da rumore. Tale metodo utilizza una nuova classe di operatori morfologici
binari di tipo parametrico il cui funzionamento puo’ essere regolato adattivamente in base ad una
opportuna strategia di schedulazione che permette di definire ricorsivamente l’ operazione di
58
estrazione dello scheletro morfologico. I parametri considerati possono essere modificati ad ogni
iterazione del processo di estrazione dello scheletro permettendo di regolare le caratteristiche del
descrittore di forma. In particolare, nel presente lavoro è dimostrato come scegliendo una
regolazione di tipo logaritmico di tali parametri sia possibile rallentare il processo di erosione e
dilatazione ai primi passi dell’algoritmo (quando si processano i pixel del contorno dell’oggetto, e
quindi si caratterizza e codifica la sua forma) eliminando i punti di rumore con un effetto simile a
quello di un filtro mediano, ed accelerarlo ai passi successivi (quando si processa la parte interna
dell’oggetto che non ha più informazione di forma) velocizzando la convergenza dell’algoritmo. I
risultati ottenuti sia su immagini sintetiche che su immagini reali fortemente corrotte da rumore
(fino al 25%), dove gli operatori della morfologia classica falliscono (lo scheletro classico perde
connettivita’ non appena si supera il 2-3% di rumore), dimostrano una elevata robustezza del
metodo proposto.
In [RI: 30], è presentato un nuovo descrittore di forma di tipo morfologico, il pattern pecstrum
statistico di ordine superiore, in grado di estrarre da oggetti in immagini reali un insieme di
caratteristiche descrittive invarianti per posizione, dimensioni e orientazione, e robuste al rumore.
Tale descrittore combina le proprieta’ di invarinaza del pattern pecstrum di ordine superiore con le
proprieta’ di robustezza al rumore del pattern pecstrum statistico. Una rete neurale di tipo backpropagation è stata scelta per validare il metodo in diversi problemi di classificazione, sia su
immagini sintetiche che reali, corrotte da rumore e contenenti oggetti in diverse pose.
Metodi di classificazione basati su reti e alberi neurali
Recentemente, l’attività scientifica del Prof. Foresti ha riguardato principalmente lo studio e lo
sviluppo di nuovi modelli di reti neurali e relative metodologie, orientati al riconoscimento
automatico di forme 2D da immagini ottiche o infrarosso e di forme 3D da immagini di profondita’
(immagini range) per l' analisi di scene reali complesse. In particolare, in [CI: 32], esteso poi in [RI:
22], il problema della classificazione di superfici è affrontato con un nuovo modello ibrido di
riconoscitore in grado di combinare i vantaggi delle reti neurali classiche e degli alberi di decisione.
Tale modello, definito albero neurale, è caratterizzato da una struttura ad albero dove ogni nodo è
composto da una rete neurale (p.e., perceptron senza strati nascosi). Un innovativo algoritmo di
apprendimento automatico permette di suddividere opportunamente il training set fra nodi padri e
figli dell’ albero e minimizzare la possibilita’ che il processo di apprendimento finisca in minimi
locali. Il principale vantaggio degli alberi neurali rispetto alle reti neurali classiche (multilayer
perceptron, radial basis function, mappe di Kohonen, etc.) è che tali strutture possono essere
costruite in modo automatico durante il processo di apprendimento senza richiedere nessun tipo di
informazione a-priori circa il numero di neuroni, strati nascosti, soglie o particolari parametri per
forzarne la convergenza. Essi permettono di ottenere la convergenza dell’ algoritmo di
apprendimento anche con training set complessi ed in casi dove le reti neurali classiche falliscono.
Inoltre, rispetto agli alberi di decisione, gli alberi neurali permettono di ottenere migliori percentuali
di classificazione con dimensioni, in termini di numero di nodi, ridotte (mediamente oltre il 50%). I
risultati ottenuti nel contesto del riconoscimento di superfici da immagini di profondita’, ed
59
successivamente estese al riconoscimento di oggetti 3D in sequenze di immagini ottiche ed
infrarosse [RI: 25], [CI: 36,48], [CN; 8] e [CL: 5], hanno dimostrato la superiorita’ di questo nuovo
approccio rispetto alle reti neurali classiche sia nella fase di apprendimento (una riduzione media dei
tempi di elaborazione di un fattore pari a 5) che in quella di classificazione. In particolare, in [RI:
25], è presentata una nuova architettura di rete neurale con struttura ad albero in grado di estendere il
processo di classificazione a più cammini paralleli dell’albero neurale. Ad ogni nodo interno viene
fatto un test sul valore di attivazione delle due uscite più elevate: se la differenza tra queste due
uscite è superiore ad una soglia fissata a priori, la classificazione del pattern in esame viene estesa ad
entrambi i cammini. Al termine del processo di classificazione (quando tutti i cammini finiscono in
nodi foglia dell’albero che contengono la classe di appartenenza del pattern in esame), si ottiene un
set di possibili classificazioni anzichè una sola. Un semplice criterio di decisione a maggioranza
puo’ essere utilizzato per selezionare la classe più probabile. Questo tipo di albero neurale è stato
usato sia per ottenere una interprertazione veloce ed approssimata della scena classificando ogni
pixel dell’ immagine di input come appartenente ad una fra un insieme di classi di possibili oggetti
statici (strade, cielo, vegetazione, case, etc.) o ad una classe di possibili oggetti in movimento
(veicoli, pedoni, etc.), sia per ottenere una più precisa classificazione degli oggetti in movimento
(auto, camion, furgoni, etc.), stimandone anche la loro posa. Numerosi esperimenti sia su immagini
ottiche che infrarosse hanno dimostrato la superiorita’ del metodo proposto in termini di percentuale
di classificazione corretta rispetto ad altri metodi presenti in letteratura (multi-layer perceptron,
binary decision tree, standard neural tree, etc.).
In [RI: 42] è stato proposto un modello generalizzato di albero neurale, definito Generalized Neural
Tree, in grado di adattare (in fase di addestramento) la propria struttura alle caratteristiche ed alla
complessita’ del problema da affrontare e quindi del training set. Tale caratteristica apre la strada
alla possibilità di progettare sistemi neurali adattivi, cioè sistemi che in momenti opportuni
modificano la propria configurazione interna allo scopo di fornire risposte sempre adeguate ai
cambiamenti dell’ambiente esterno. In particolare, in questo lavoro viene proposto un algoritmo che
permette, quando necessario, di modificare (attraverso procedure di backtraching) neuroni già
addestrati in livelli dell’albero più vicini al nodo radice, per addattarli meglio al training set (ridurre
l’errore medio globale). I risultati sperimentali su immagini sintetiche (sagome di aerei) e reali
(immagini autostradali) hanno dimostrato la validita’ del metodo confrontandolo con reti neurali
classiche, classificatori statistici, ed alberi neurali in termini di prestazioni (percentuale di corretta
classificazione) e caratteristiche dell’apprendimento.
In [RI: 59], è stato presentato un nuovo modello di rete neurale di tipo auto organizzante con
struttura ad albero, Growing Hierarchical Tree SOM (GHTSOM). Il modello proposto utilizza una
topologia dinamica e strategie di addestramento non supervisionato per effettuare una
classificazione di tipo gerarchico di insiemi di dati non preclassificati. L’algoritmo si basa sulle reti
neurali di tipo Kohonen’s Self-Organizing Map (SOM) cercando di preservare una relazione con i
modelli biologici. Tale relazione è basata su due processi auto-organizzanti, uno durante il processo
di apprendimento (learning) quando la struttura ad albero della SOM è costruita e l’altro durante la
60
fase di clustering quando vengono definite le connessioni di tipo topologico. L’algoritmo è stato
applicato al riconoscimento automatico di pattern quali caratteri dell’alfabeto e sequenze di DNA.
In [CI: 99] è presentato un metodo di classificazione basato sull’idea del ragionamento abduttivo
per il riconoscimento del comportamento di una o più persone in movimento nella scena monitorata
da un sistema di videosorveglianza, mentre in [CI: 100] è presentato un classificatore dinamico di
tipo on-line boosting in grado di incrementare le proprie prestazioni sulla base dei nuovi campioni
ricevuti in input. Tale classificatore è stato applicato al problema dell’inseguimento di un oggetto in
una scena reale basato su classificazioni in frame successivi dello stesso oggetto. Inoltre, al fine di
incrementare le prestazioni in termini temporali del classificatore dinamico, è stato proposto un
modello a cascata ed un meccanismo in grado di adattarsi alle variazioni di scala dell’oggetto
osservato [CI: 104].
Sorveglianza in tempo reale di ambienti impresenziati e metodi di ambient intelligence
Il problema dell’ interpretazione e della sorveglianza di scene reali esterne è affrontato in due libri
recentemente pubblicati [LI: 1,2] e in terzo in fase di pubblicazione [LI: 3], ed in alcuni recenti
lavori presentati in [RI: 21,27,34,35,36,44], [CL: 5,6,11-13], a Conferenze Internazionali [CI:
19,20,39,44,47,63-64,67-69,71-72] e a Conferenze Nazionali [CN: 2,4,7,9].
In [RI: 21], estensione del lavoro presentato in [CI: 39], è descritto un metodo per l’individuazione,
la localizzazione e la classificazione di oggetti in movimento in un area esterna sorvegliata in modo
remoto. L’ aspetto di maggior novita’ del lavoro consiste nell’ applicazione al processo di
classificazione di un nuovo operatore morfologico statistico, il pecstrum statistico (o specstrum), che
è invariante a traslazioni, rotazioni, variazioni di scala ed è robusto al rumore. Tali proprieta’
permettono di ottenere un classificazione in tempo reale basata sul confronto tra il pecstrum
statistico estratto dall’oggetto in esame con quelli contenuti in una base di dati ed estratti da modelli
reali di oggetti osservati da punti di vista differenti. Il sistema proposto è stato applicato con
successo alla sorveglianza di passaggi a livello ferroviari fornendo buoni risultati in termini di
percentuale di classificazione, invarianza al punto di vista, robustezza al rumore e tempi di
elaborazione. In [CL: 5] è presentato un metodo per videosorveglianza di ambienti esterni in grado
sia di riconoscere gli oggetti in movimento sia di dare una classificazione pixel per pixel dell’ intera
scena. In particolare, il task di interpretazione è basato su un nuovo modello di albero neurale
addestrato con pattern invarianti (momenti di Maitra) estratti direttamente dai blob degli oggetti
individuati sul piano immagine. I risultati ottenuti hanno dimostrato l’ efficienza del metodo in
termini di percentuale di classificazione corretta sia su immagini ottiche che infrarosse. In [CI:
44,47], il metodo proposto in [CL: 5] è applicato al problema della sorveglianza di cavalcavia
autostradali con sensori ottici e infrarosso; in [LC: 7], il task di classificazione è esteso
all’interpretazione dell’ intera scena ed alla classificazione di eventi a rischio. Un particolare
modello di rete neurale è addestrato per interpretare il comportamento dinamico di ogni oggetto al
fine di individuare situazioni di pericolo.
61
In [RI: 27], le funzionalita’ del sistema di sorveglianza proposto in [RI: 21] sono estese all’
inseguimento in tempo reale di oggetti 3D. Tale risultato è reso possibile grazie all’applicazione di
un nuovo operatore morfologico, lo scheletro morfologico statistico, che per le sue caratteristiche
geometriche, puo’ essere utilizzato sia come feature nel processo di classificazione che in quello di
inseguimento. Il riconoscimento è ottenuto confrontando una approssimazione analitica della
funzione di scheletro con quelle ottenute da un set di modelli e memorizzate in una base di dati. L’
inseguimento è ottenuto applicando un filtro di Kalman esteso a diversi parametri geometrici
derivati dallo scheletro statistico estratto dall’ oggetto in movimento. I risultati ottenuti dimostrano
un miglioramento rispetto al metodo proposto in [RI: 21] sia in termini di tempi di elaborazione (il
sistema aumenta il frame rate di circa il 30% sulla stessa piattaforma HW), accuratezza della
localizzazione e robustezza al rumore.
In [RI: 34], lavoro introduttivo del numero speciale dal titolo Video Processing and
Communications in Real-Time Video-Based Surveillance Systems pubblicato sulla rivista Real-Time
Imaging, vol. 7, no. 5, 2001 (Academic Press), è proposto uno studio sulle caratteristiche principali
di un sistema multimediale di video sorveglianza. Particolare enfasi è data agli aspetti di
elaborazione, interpretazione e trasmissione in tempo-reale delle immagini dal sensore fisico ad un
centro di controllo e fusione dati remoto. In [RI: 35], lavoro introduttivo al numero speciale ad
invito dal titolo Video Communications, Processing and Understanding for Third Generation
Surveillance Systems pubblicato sulla rivista Proceeding of IEEE , vol. 89, no. 6, 2001, (IEEE
Press), è proposta una approfondita analisi dello stato dell’arte sui moderni sistemi di video
sorveglianza con particolare attenzione agli sviluppi della ricerca sia in campo accademico che
industriale.
In [RI: 36], è presentata una approfondita discussione e analisi dell’impatto dei sistemi di
elaborazione distribuiti e delle nuove tecniche di communicazione sui moderni sistemi di
sorveglianza multimediali. In particolare, sono analizzati gli aspetti relativi alla distribuzione delle
risorse del sistema tra più unita’ di elaborazione e canali di trasmissione a larga banda. Nel lavoro si
dimostra come una architettura gerarchica in grado di partizionare in modo dinamico i principali
task logici di elaborazione (rappresentazione, riconoscimento e comunicazione) sia in grado di
ottenere una buona distribuzione dell’intelligenza in un sistema di video sorveglianza. In
particolare, sono indicati i vantaggi di tale soluzione in termini di (a) aumento della flessibilita’ del
sistema, (b) possibilita’ di riconfigurazione e (c) allocazione ottima delle risorse di elaborazione e di
banda trasmissiva disponibili.
In [RI: 42], è proposto un sistema di recupero di eventi di interesse in sequenze video (video-shot
detection) basato sull’analisi del contenuto (content-based) del video stesso. Tale sistema è stato
studiato come ausilio ad un operatore umano che deve monitorare contemporaneamente più
ambienti (ad esempio, stazioni metropolitane) per rilevare eventi pericolosi (ad esempio, oggetti
abbandonati o persone che assumono comportamenti inusuali). Il sistema proposto si è dimostrato
superirore agli altri sistemi esistenti in letteratura per la sua capacità di monitorare azioni di gruppi
62
di persone e/o di singoli anche parzialmente occlusi alla vista delle telecamere per brevi intervalli
temporali.
Negli ultimi anni, il prof. Foresti ha continuato il suo lavoro di ricerca nel settore della
videosorveglianza, focalizzando maggiormente l’attenzione sul tema dell’identificazione e analisi di
eventi di interesse [CI: 81] e sviluppando alcune applicazioni reali. In [CI: 88] sono presentati i
risultati ottenuti nell’ambito del progetto finanziato dall’Unione Europea TST4-CT-2004-516235
MISS (Monitor Integrated Safety System) della durata di 2 anni (2005-2006), dove l’unità operativa
dell’Università di Udine, coordinata dal prof. Foresti, ha sviluppato un sistema di monitoraggio del
traffico in grado di identificare e segnalare in tempo reale ad un operatore eventuali anomalie (code,
auto ferme in zone non autorizzate quali corsie autobus, manovre pericolose quali inversioni a U,
etc.) o situazioni di incidente.
Il continuo sviluppo e miglioramento degli algoritmi di basso e medio livello (identificazione dei
cambiamenti, aggiornamento del background, localizzazione e tracking di oggetti in movimento
nella scena) ha spostato l’attenzione dei ricercatori del settore della video sorveglianza automatica
verso i moduli di più alto livello del sistema che hanno il compito di analizzare ed interpretare il
contenuto della scena monitorata. L’idea di base è quella di superare i tradizionali limiti dei sistemi
di CCTV basati su telecamere a circuito chiuso, in cui l’osservazione e le conseguenti decisioni
sono sempre demandate ad un operatore umano. E’ noto tuttavia che l’attenzione di un operatore
umano che deve osservare contemporaneamente decine di monitor decresce rapidamente col
passare del tempo, per cui la sorveglianza di ambienti complessi, quali ad esempio aeroporti o
stazioni ferroviarie e metropolitane, in cui centinaia di telecamere sono attive contemporaneamente,
diventa estremamente complessa. La linea di ricerca del prof. Foresti si è focalizzata sullo studio di
sistemi automatici in grado di affiancarsi (e non sostituirsi) all’operatore umano per identificare e
segnalare automaticamente le situazioni anomale e/o di potenziale rischio.
Gli approcci esistenti per l’identificazione automatica di eventi di interesse si basano sulla
modellazione esplicita e sulla modellazione probabilistica. In [RI: 58] viene analizzato lo stato
dell’arte sull’argomento e vengono fornite alcune descrizioni delle principali tecniche di
modellazione sia esplicita che probabilistica degli eventi. In [RI: 61], articolo di introduzione al
numero speciale sulla rivista Machine Vision Applications, Vol. 18, No. 3-4, Agosto 2007 dal
titolo Novel Concepts and Challenges for the Next Generation of Video Surveillance Systems, viene
fornita una panoramica dei nuovi sistemi di videosorveglianza esistenti e delle principali tecniche di
elaborazione ed interpretazione di eventi in scene reali complesse.
Nel caso della modellazione esplicita il sistema ha una descrizione completa degli eventi da
riconoscere, espressa in termini di sottoeventi atomici che il modulo di visione artificiale è in grado
di rilevare. In questo modo il sistema agisce essenzialmente da parser di eventi, attivando la
rilevazione di un evento quando la sua particolare sequenza di sottoeventi viene identificata. Questo
approccio offre una notevole espressività semantica (il sistema è in grado di dire cosa sta accadendo
nella scena), tuttavia soffre di pesanti limitazioni in termini di flessibilità, in quanto è limitato a
riconoscere solo quegli eventi descritti a priori in una base di conoscenza, sia questa definita
63
manualmente da esperti del settore o appresa in maniera automatica. Nell’approccio probabilistico
invece il sistema genera, automaticamente e in tempo reale, un modello statistico della distribuzione
(ad esempio spaziale e temporale) dei sottoeventi atomici rilevabili, costruendo così un modello di
normalità sulla base delle osservazioni effettuate dal sistema, e classificando come eventi di
interesse quegli eventi che si discostano da tale modello. Si fa quindi l’ipotesi che gli eventi di
interesse siano rari, e quindi anomali, rispetto alla vasta maggioranza di eventi normali.
Il lavoro di ricerca del prof. Foresti si è concentrato sull’analisi probabilistica di eventi, in
particolare usando come feature le traiettorie degli oggetti in movimento [CL: 18]. Le traiettorie
infatti hanno un’elevata potenzialità discriminante per l’identificazione di eventi di interesse,
soprattutto in quelle situazioni in cui esistono poche tipologie di movimenti, come ad esempio nei
contesti di controllo del traffico [CN: 13] o di monitoraggio di aree pubbliche [CI: 76]. In [CI: 82],
poi esteso nella pubblicazione su rivista [RI: 57], è stato proposto un metodo per la clusterizzazione
delle traiettorie articolato su tre fasi fondamentali: (a) definizione e rappresentazione delle
traiettorie e dei cluster di traiettorie; (b) definizione di una misura di distanza o di somiglianza tra
traiettorie e cluster; (c) aggiornamento dei cluster di traiettorie. L’algoritmo di clusterizzazione
proposto crea una gerarchia di cluster con struttura ad albero che permette di ridurre la complessità
del problema (quando un oggetto si trova in una zona comune a più cluster non è necessario tenere
traccia di ipotesi multiple, poiché l’intera zona sarà rappresentata da un cluster unico) e di fare
eventualmente previsioni multiple sugli spostamenti futuri dell’oggetto stesso. L’etichettatura
dell’albero di cluster con delle probabilità di utilizzo dei cluster stessi permette di associare, ad ogni
traiettoria completa, la probabilità globale che una traiettoria venga generata, sulla base delle
osservazioni precedenti. L’albero di cluster rappresenta quindi il modello di normalità descritto in
precedenza, e permette di identificare le traiettorie che, sulla base dell’analisi delle traiettorie
precedenti, risultano anomale.
Lo studio e lo sviluppo di metodi di analisi di eventi è proseguito successivamente ricercando
soluzioni alternative per l’analisi probabilistica delle traiettorie [CI: 90]. In [CI: 102] è stata
presentata l’idea di utilizzare Support Vector Machines (SVM) per l’analisi probabilistica degli
eventi affrontando il problema di selezionare un set di parametri di training in grado di ottimizzare
l’operazione di clustering. La soluzione proposta in [CI: 102] si è rivelata interessante dal punto di
vista teorico, ma con il limite di una elevata complessità computazionale. Al fine di risolvere il
problema, in [CI: 103], e successivamente in [RI: 66], è stato presentato un algoritmo più efficiente
basato su SVM per la rilevazione di eventi anomali che si discostano da normali pattern di attività
della scena monitorata. In particolare, è stato sviluppato un metodo di clustering di traiettorie basato
su una SVM di tipo singola classe in grado di classificare correttamente le traiettorie anche nel caso
di un numero incognito di outliers nei dati di addestramento (training set). Le traiettorie sono sotto
campionate in modo da poter utilizzare per la loro rappresentazione vettori di dimensione prefissata
ed è stata sviluppata una innovativa procedura in grado di eliminare la presenza di outliers sulla
base di considerazioni geometriche nello spazio delle feature della SVM.
64
In [CI: 84] è presentato un metodo per l’analisi esplicita degli eventi basato sull’analisi temporale e
sulla rappresentazione statistica del tempo normalmente utilizzato per compiere determinate attività
all’interno della scena monitorata (ad esempio, le operazioni di parcheggio di un auto o la sosta
breve di un’auto in una zona di divieto, etc.). In [CI: 92] il metodo proposto è stato integrato con un
innovativa tecnica di visualizzazione in tempo reale dei dati statistici temporali associati a ciascun
evento che si verifica nella scena. Le idee espresse nei lavori [CI:84] e [CI: 92] sono state
ulteriormente sviluppate e completate in [RI: 69], dove un sistema completo di videosorveglianza
per un parcheggio esterno è stato dotato di funzionalità basate sull’anali temporale degli eventi. In
particolare, sono stati definiti eventi semplici (ad esempio un’auto entra nel parcheggio, una
persona si muove all’interno dell’area monitorata, un’auto si ferma, un’auto riparte, etc.) ed eventi
complessi (ad esempio, un’auto con ID1 entra nel parcheggio, si ferma in posizione (x,y,z), una
persona appare nella zona monitorata vicino alla posizione in cui l’auto si è appena fermata e si
allontana) come successione temporale di eventi semplici. Un insieme di funzioni Gaussiane è stato
associato a ciascun evento semplice ed è stato utilizzato per dare una rappresentazione statistica
temporale agli eventi rilevati nella scena osservata.
Nelle moderne aree cittadine si è ultimamente assistito ad un continuo dotarsi di sensori per il
controllo del territorio, dalle stazioni per il controllo del tasso di inquinamento alle telecamere a
circuito chiuso per il controllo del traffico fino alle telecamere per la sicurezza all'interno di
stazioni, aeroporti e banche. Tale esigenza è dettata dalla necessità di aumentare la sicurezza e la
qualità di vita del cittadino, tuttavia tali obiettivi sono generalmente disattesi a causa dell'arretrata
tecnologia. Le installazioni attuali si affidano quasi esclusivamente all'interpretazione umana dei
dati, che tuttavia non può far fronte all'enorme quantità di informazione che viene generata dalla
rete di sensori [L1]. L’intelligenza d’ambiente, la cui ricerca è stata significativamente incoraggiata
dalla Commissione Europea, rappresenta una stimolante sfera applicativa degli studi condotti su
sistemi di visione intelligenti. Gli scenari prospettati per i sistemi di intelligenza d’ambiente
coinvolgono le più avanzate soluzioni multimediali e rappresentano un grandissimo potenziale per
le tecniche di fusione dati dovendo essere integrati i flussi informativi di numerosi sensori
eterogenei.
Il prof. Foresti ha iniziato gli studi sul tema dell’intelligenza d’ambiente con lo sviluppo del
progetto MIUR di interesse nazionale (PRIN03) dal titolo “Sistemi distribuiti di riconoscimento
multisensoriale a percezione aumentata per la sicurezza e la personalizzazione d'ambiente” (20032004) e continuati successivamente con il progetto del MIUR di interesse nazionale (PRIN06) dal
titolo “Ambienti intelligenti: interpretazione di eventi, riconfigurabilità sensoriale e interfacce
multimodali” (2007-09), di cui il prof. Foresti è attualmente coordinatore nazionale.
In particolare, nell’ambito del progetto MIUR PRIN06 sono state studiate nuove tecniche per
l'integrazione di sensori eterogenei allo scopo di incrementare la capacità di comprensione delle
attività all'interno di aree pubbliche da parte di un sistema di controllo “intelligente”. Le tecniche
proposte hanno il duplice scopo di permettere la riconfigurazione automatica della rete di sensori e
di supportare l'attività decisionale degli operatori umani mediante opportune tecniche di
65
rappresentazione multimodale della conoscenza. Il sistema utilizza sia sensori fissi (ad es.
telecamere di sorveglianza) sia sentinelle mobili (ad esempio, agenti di polizia dotati di PDA e/o
telecamere mobili). I dati così raccolti possono essere successivamente elaborati al fine di inferire
interpretazioni ad alto livello delle attività in corso all'interno dell'ambiente osservato (ad es.
riconoscere i comportamenti sospetti per il posizionamento ottimale di un'autobomba nei pressi di
un obiettivo sensibile). Il coinvolgimento di diversi tipi di sensori ha richiesto inoltre uno studio di
opportune tecniche di trasmissione dati che tengano conto delle limitazioni imposte da canali
trasmissivi eterogenei e lo studio di opportune tecniche di rappresentazione dei dati acquisiti in
grado di offrire un'adeguata interfaccia multimodale all'operatore umano [RI: 64].
Un nuovo contributo all’interpretazione e comprensione delle sequenze video è stato proposto in
[CL: 18], ed esteso ed approfondito in [RI:63], dove l’analisi e l’interpretazione di eventi è basata
sulla modellazione esplicita della conoscenza del dominio attraverso ontologie. Le ontologie
costituiscono un framework per la rappresentazione della conoscenza relativa a un dato dominio.
L’approccio proposto in [RI: 63] è da considerarsi complementare all’approccio probabilistico
proposto in [RI: 57], [RI: 66] e [RI: 69].
In [RI: 68], articolo di introduzione al numero speciale sulla rivista Image and Vision Computing
Journal (previsto in pubblicazione nel 2009) dal titolo Computer Vision Methods for Ambient
Intelligence, viene fornita una panoramica delle più recenti tecniche di computer vision applicate
nel campo dell’intelligenza d’ambiente.
Metodi di face detection e face recognition
Il problema della localizzazione dei volti all’interno di immagini singole o componenti di un filmato
video viene definito come ricerca delle aree o sezione d’immagine che contengono volti. Tale
problema è affrontato in letteratura con una serie di step incrementali quali segmentazione,
estrazione e validazione del pattern estratto per la verifica della presenza di un volto o di particolari
caratteristiche facciali. Le applicazioni degli algoritmi di localizzazione e riconoscimento volti
richiedono di operare in tempo reale su immagini acquisite da telecamere statiche poste in ambienti
non controllati in cui le persone possono muoversi liberamente. In tale contesto, diversi fattori
concorrono ad aumentare le difficoltà nell’effettuare la localizzazione dei volti: (a) Variazioni nella
posa: i volti possono assumere diverse pose rispetto al piano immagine ed all’asse ottico passante
per il suo centro, inoltre i volti possono essere parzialmente occlusi da altri oggetti; (b) Condizioni
del volto: il pattern del volto può subire notevoli cambiamenti in corrispondenza di variazioni delle
espressioni o a causa di modifiche dette cosmetiche (occhiali, barba, cappelli, ecc…); (c)
Condizioni delle immagini: essendo la detezione effettuata mediante analisi delle immagini fattori
quali variazioni di luce, distanza e livello di zoom possono incidere sul processo di generazione
dell’immagine e quindi modificare sostanzialmente il pattern del volto; (d) Fattori ambientali:
caratteristiche ambientali quali lo sfondo (oggetti statici presenti nella scena) o occlusioni rendono
la fase di detezione estremamente complessa.
Nell’ambito degli studi su sistemi di videosorveglianza avanzati, il prof. Foresti si è occupato
recentemente del problema di identificare le persone presenti in un ambiente monitorato. Tale
66
problema ha richiesto lo studio di algoritmi sia per l’identificazione della presenza del volto nella
scena osservata sia per la sua classificazione. L’aspetto innovativo di questa linea di ricerca è
l’applicazione dei metodi proposti al caso di persone non cooperative che si muovono in ambienti
reali [CI: 93]. La non cooperatività delle persone nella scena osservata non permette al sistema di
visione di ottenere, come normalmente accade nei sistemi esistenti in letteratura di identificazione e
riconoscimento del volto, una vista frontale del volto stesso.
In [CI: 94] è stato proposto un nuovo classificatore composto da una cascata di classificatori di tipo
on-line boosting assimetrici (detti AsymBoost) per la localizzazione di volti in immagini reali. La
non simmetricità del classificatore studiato è stata utilizzata per dividere l’immagine in due classi
distinte: volti e non volti. L’aspetto innovativo del metodo proposto consiste nel miglioramento
della strategia di learning ottenuta introducendo nell’algoritmo AsymBoost una procedura di
controllo reattivo della simmetria della cascata di classificatori durante la fase di apprendimento.
I volti così individuati e localizzati nell’immagine sono poi inviati ad un algoritmo di
classificazione dei volti [CI: 95] che procede con l’assegnazione di ciascun volto ad una delle
persone presenti in un database precedentemente costruito (ad esempio, contenenti i volti e le loro
caratteristiche principali di tutte le persone che sono autorizzate ad entrare in un dato ambiente).
67
ALLEGATI
68