UN IV E RS I T À D E G L I S TU DI D I N APO L I “ PAR TH E NO P E” Corso di Dottorato di Ricerca in SCIENZE GEODETICHE E TOPOGRAFICHE TESI DI DOTTORATO METODOLOGIE E TECNICHE PER LA MODELLAZIONE TRIDIMENSIONALE INVERSA Relatore Chiar. Prof. Salvatore Troisi Coordinatore Prof. Lorenzo Turturici XXI CICLO Candidato Dr. Fabio Menna INDICE Riassunto 1 Capitolo 1 Modellazione tridimensionale e sue applicazioni 1.1 INTRODUZIONE 5 1.2 MODELLAZIONE 3D INVERSA 7 1.2.1 PIANIFICAZIONE DI UN PROGETTO PER LA MODELLAZIONE 3D 8 1.2.2 METODI DI RILIEVO PER LA MODELLAZIONE 3D 9 1.2.2.1 FOTOGRAMMETRIA 12 1.2.2.2 S.A.R. 15 1.2.2.3 SONAR 17 1.2.2.4 LASER SCANNING 18 1.2.3 STRATEGIA DI RILIEVO: LA SCELTA DELLA TECNICA 21 1.2.5 STRUTTURAZIONE DEL DATO SPAZIALE 23 1.2.6 MODELLI 3D FOTO-REALISTICI 27 1.2.7 ANALISI SPAZIALE 29 1.3 APPLICAZIONI DELLA MODELLAZIONE 3D INVERSA 31 1.3.1 CARTOGRAFIA E STUDIO DEL TERRITORIO 31 1.3.2 ARCHITETTURA E BENI CULTURALI 33 1.3.3 INDUSTRIA AUTOMOBILISTICA, AERONAUTICA E NAVALE 34 1.3.4 MEDICINA 34 1.3.5 FLUIDODINAMICA 35 Capitolo 2 Modellazione 3D fotogrammetrica 2.1 DEFINIZIONI 36 2.1.1 FONDAMENTI GEOMETRICI 36 2.1.2 ABERRAZIONI OTTICHE: DISTORSIONI RADIALE E TANGENZIALE 40 2.1.3 ORIENTAMENTO INTERNO 44 I INDICE 2.1.4 ORIENTAMENTO ESTERNO 49 2.1.5 EQUAZIONI DI COLLINEARITÀ 50 2.2 ORIENTAMENTO E CALIBRAZIONE DI SINGOLE IMMAGINI 52 2.2.1 SPACE RESECTION 52 2.2.2 TRASFORMAZIONE LINEARE DIRETTA (DLT) 53 2.3 ORIENTAMENTO DI STEREO−COPPIE DI IMMAGINI 57 2.3.1 GEOMETRIA EPIPOLARE 58 2.3.2 ORIENTAMENTO RELATIVO 60 2.4 ORIENTAMENTO E CALIBRAZIONE MULTI-IMMAGINE: BUNDLE ADJUSTMENT 61 2.5 CORRISPONDENZE TRA IMMAGINI 64 2.5.1 COLLIMAZIONE SEMIAUTOMATICA DI TARGET CIRCOLARI 67 2.5.2 METODI DI IMAGE MATCHING 68 2.6 TEXTURING MAPPING 71 Capitolo 3 Modellazione 3D con sensori ottici attivi 3.1 INTRODUZIONE 74 3.2 SISTEMI OTTICI ATTIVI A SCANSIONE 74 3.2.1 LASER SCANNER DISTANZIOMETRICI 75 3.2.2 SISTEMI OTTICI 3D A TRIANGOLAZIONE 81 3.3 TECNICHE DI ALLINEAMENTO E REGISTRAZIONE DI NUVOLE DI PUNTI 85 3.3.1 87 METODI DI ALLINEAMENTO SURFACE-MATCHING 3.4 IL SISTEMA AIRBORNE LASER SCANNING 3.4.1 89 96 I SISTEMI GPS-INS II Indice Capitolo 4 Modellazione del territorio: il software LAIM 4.1 INTRODUZIONE 99 4.2 UN TIPICO FLUSSO DI ELABORAZIONE PER LA GENERAZIONE DI MODELLI TRIDIMENSIONALI DEL TERRENO CON IL SOFTWARE LAIM 101 4.2.1 IMPORTAZIONE DEI DATI E SEPARAZIONE DELLE ECO 102 4.2.2 FILTRAGGIO 104 4.2.2.1 106 PRISMATIC BUFFERED TIN (PBTIN) 4.3 PROBLEMATICHE INERENTI LA SELEZIONE DEI PUNTI SEME: CONFRONTO LAIM – TERRASCAN 4.4 IL TEST ISPRS DELL’ALGORITMO PBTIN 115 116 4.5 UN ESEMPIO DI UTILIZZO DEL SOFTWARE LAIM PER LA MODELLAZIONE DI UNA FRANA DA DATI LASER SCANNING TERRESTRE 129 Capitolo 5 Modellazione 3D inversa nel settore dei beni culturali 5.1 INTRODUZIONE 5.1.1 136 GLI STANDARD NELLA DOCUMENTAZIONE DIGITALE E NELLA MODELLAZIONE 3D INVERSA DEI BENI CULTURALI 5.2 MODELLAZIONE MULTI-SCALA DEL FORO DI POMPEI 138 140 5.2.1 METODOLOGIE DI MODELLAZIONE 3D MULTI-RISOLUZIONE 141 5.2.2 ELABORAZIONE DEI DATI 142 5.2.3 INTEGRAZIONE DEI DATI MULTI-TECNICA 145 5.3 MISURAZIONE E RICOSTRUZIONE DI SUPERFICI 3D CON TECNICHE FOTOGRAMMETRICHE 148 5.3.1 SOFTWARE COMMERCIALI E DI RICERCA 148 5.3.1.1 SAT-PP 149 5.3.1.2 ARC 3D WEBSERVICE 150 5.3.2 ESEMPI E ANALISI DELLE PERFORMANCE 5.4 RILIEVO TLS DELLA FRANA DI NOCERA INFERIORE III 150 143 Indice Capitolo 6 Modellazione 3D per il reverse engineering: alcuni esempi applicativi nel settore dell’ingegneria navale 6.1 INTRODUZIONE 161 6.2 MODELLAZIONE FOTOGRAMMETRICA DI MODELLI IN SCALA DI CARENE E PROPULSORI PER LE PROVE IDRODINAMICHE IN VASCA NAVALE 163 6.2.1 MODELLAZIONE 3D INVERSA DELLA CARENA IN SCALA 164 6.2.2 MODELLAZIONE 3D INVERSA DELL’ELICA ORVEA E034 172 6.3 INTEGRAZIONE DI TECNICHE DI FOTOGRAMMETRIA DIGITALE E LASER SCANNING PER IL REVERSE ENGINEERING DELLA CARENA DI UNA BARCA A VELA 178 6.3.1 RILIEVO E MODELLAZIONE FOTOGRAMMETRICA 178 6.3.2 RILIEVO E MODELLAZIONE LASER SCANNING 182 6.3.3 ELABORAZIONE DEI DATI LASER 184 6.3.3.1 ALLINEAMENTO CON METODO ITERATIVE CLOSEST POINT – ICP 184 6.3.3.2 ORIENTAMENTO CON REFERENCE POINTS – RPS DA FOTOGRAMMETRIA 185 6.3.4 CONFRONTO DEI RISULTATI 186 6.3.4.1 LASER ICP – FOTOGRAMMETRIA 187 6.3.4.2 LASER RPS – FOTOGRAMMETRIA 189 6.3.4.3 CONFRONTO CON IL PIANO DI COSTRUZIONE E ANALISI DI SIMMETRIA DELLA CARENA 191 Conclusioni 195 Bibliografia 199 IV Riassunto Riassunto Negli ultimi anni sono stati fatti numerosi passi in avanti nel settore delle discipline del rilievo e della rappresentazione grazie all’avvento di nuove tecnologie e al perfezionamento e all’ottimizzazione di quelle già esistenti, che ne hanno notevolmente esteso i campi d’applicazione. Strumentazione automatica per il rilievo, software di basso costo (o addirittura gratuiti) e loro semplicità d’utilizzo, hanno introdotto le discipline del rilievo tridimensionale anche in campi in cui tradizionalmente ci si affidava a rappresentazioni più tipicamente grafiche e spesso delegate alla sola interpretazione soggettiva degli operatori addetti ai lavori. Le tecnologie e le metodologie oggigiorno esistenti sono senz’altro in grado di soddisfare i requisiti di un’ampia gamma di utenze con costi, tempi di elaborazione, accuratezze e affidabilità funzioni soprattutto degli scopi finali. Cartografia, architettura, ingegneria, documentazione dei beni culturali, robotica, navigazione e medicina sono i principali settori d’interesse benché sono note ulteriori applicazioni in campi come la cinematografia e i videogames. L’impiego oramai standardizzato delle tecnologie informatiche sta rivoluzionando il modo di concepire la rappresentazione degli oggetti e se nel passato (ma ancora oggi), l’uso di rappresentazioni bidimensionali “rappresentava” uno standard necessario, il futuro pare orientato verso i database informatici tridimensionali. L’era della rappresentazione cartacea sta man mano cedendo il passo a quella informatica in maniera quasi spontanea, latente e con una rapidità che solleva importanti problematiche circa gli standard da seguire e l’affidabilità e la compatibilità delle procedure utilizzate. Ancora oggi la filiera di produzione del dato spaziale rimane in molti casi legata storicamente ad un prodotto finale di tipo bidimensionale1. La staticità del supporto bidimensionale impone l’uso di una simbologia che rende difficile la lettura, l’interpretazione e di conseguenza l’accessibilità delle informazioni ai non esperti del settore rinchiudendo così le varie discipline e ambiti applicativi del rilievo in compartimenti stagni. Modelli tridimensionali integrati con informazioni di vario genere sono oggi molto diffusi partendo da applicazioni prettamente scientifiche sia in ambito ingegneristico (termografia in ingegneria meccanica) che nel campo dei beni culturali (analisi multispettrale, termica di dipinti e reperti) sino a giungere ad applicazioni didattiche e socio-culturali come i musei virtuali 1 Si pensi per esempio al concetto di “errore di graficismo” tipicamente legato al supporto cartaceo e tuttora impiegato in cartografia numerica o alle difficoltà che si riscontrano nel rappresentare secondo piante e prospetti statue e oggetti strutturalmente complessi -1- Riassunto e i sistemi informativi territoriali integrati nei navigatori satellitari GPS. Il grande successo di massa riscontrato con tali applicazioni è da attribuire soprattutto alle moderne tecnologie informatiche sia hardware che software che consentono in maniera agevole analisi e visualizzazioni scenografiche fotorealistiche persino su telefoni cellulari (…virtual museum, car navigator). L’aspetto scenografico non è da considerarsi solo meramente estetico ma anzi visto come un mezzo che semplifica la lettura delle informazioni che salta la fase di decodifica e interpretazione di simboli non sempre di immediata comprensione. Alla immediatezza dell’informazione si affianca la portabilità dei dati, facilmente accessibili e divulgabili sul web. I modelli tridimensionali costituiscono quindi un argomento di notevole interesse sia tecnico-scientifico che socio-culturale; i campi applicativi sono molteplici, ognuno con i propri requisiti e le proprie difficoltà specifiche. La modellazione 3D può essere vista come una serie di processi atti a definire la forma tridimensionale di un oggetto mediante l’utilizzo di software detti modellatori 3D in uno spazio virtuale al computer nel quale è possibile interagire ed effettuare analisi di vario genere. Il processo di modellazione nasce come supporto alla progettazione nell’ ambito dell’industria (CAD, CAM) automobilistica e aeronautica negli anni ’60 del secolo scorso abbracciando con il passare degli anni campi che escono dall’ambito tecnico (grafica, cinematografia, videogames); in questi casi la generazione del modello 3D avviene in maniera interattiva al computer secondo le esigenze del progettista/disegnatore che conosce le geometrie dell’oggetto da realizzare. In altri casi l’oggetto da modellare in 3D, antropico o naturale, è già esistente ma non se ne conoscono le forme che devono essere rilevate con tecniche di metrologia. Mentre in progettazione dal progetto si giunge al modello 3D, in questi casi il processo è inverso: dall’oggetto reale si giunge al suo modello tridimensionale. Questo processo di modellazione inversa in ambito ingegneristico prende il nome di reverse engineering. Topografia, Fotogrammetria, scansioni laser e per proiezione (fringe projector, pattern projector), metrologia industriale con Coordinate Measurement Machine (CMM) sono le tecniche oggi più usate in ambito di modellazione inversa e ognuna presenta vantaggi/svantaggi in termini di accuratezze, affidabilità, tempi di esecuzione dei rilievi e costi. La fotogrammetria sta attraversando una fase di rinascita con l’avvento della tecnologia digitale grazie alla quale anche con fotocamere amatoriali, e quindi di basso costo, è possibile effettuare misure di vario tipo raggiungendo accuratezze relative elevate. Il notevole interesse per questa tecnologia è motivato, oltre che dai suoi bassi costi, soprattutto -2- Riassunto dalla sua versatilità: i sensori fotografici possono essere utilizzati in diversi ambienti (nello spazio, in aria, acqua) e facilmente installati su piattaforme di diverso tipo come satelliti, aerei e elicotteri, Unmanned Aerial Vehicle (UAV) e anche sott’acqua con i Remotely Operated Vehicle (ROV). La fotogrammetria vanta in confronto alle altre tecniche, la possibilità di unire al dato metrico rilevato, un contenuto semantico derivante dall’immagine fotografica utile anche per scopi fotointerpretativi e analisi di vario genere. Le tecniche di rilievo con sensori attivi come i laser scanner stanno divenendo sempre più popolari soprattutto in ambito terrestre grazie alla loro semplicità di utilizzo e a software specificamente progettati per consentire anche a operatori non esperti in materia di metrologia di effettuare rilievi per la modellazione tridimensionale. La grande velocità d’acquisizione di questi strumenti richiede però una fase di elaborazione molto onerosa data l’enorme mole di dati non strutturata acquisita, oltre che potenti strumenti software per la loro gestione. Lo scopo di questa ricerca è quello di analizzare le problematiche inerenti il processo di modellazione inversa con tecniche di Fotogrammetria e laser scanning su oggetti dalle caratteristiche e dimensioni differenti tra loro. La ricerca è soprattutto applicata e numerose sperimentazioni sono state eseguite: da grandi estensioni di territorio (landscape modelling, city modelling), passando per architetture, imbarcazioni, parti meccaniche, e reperti archeologici di piccolissime dimensioni come quelle di una moneta. Le principali metodologie di modellazione sia manuali che automatiche vengono così analizzate seguendo un approccio multiscala e differenziate in funzione dei singoli casi affrontati. In molti casi un’analisi comparativa delle procedure oggi utilizzate in fase di calibrazione, rilievo, elaborazione e analisi, viene illustrata e integrata presentando algoritmi e software sviluppati in proprio. Il capitolo primo introduce le problematiche della modellazione tridimensionale inversa indipendentemente dalla tipologia di tecnica di rilievo utilizzata. In questo modo, sebbene i campi d’applicazione siano molto differenti tra loro e richiedano approcci diversificati in funzione delle esigenze dei singoli casi (strumentazioni, tecniche, e metodi di elaborazione), è possibile comunque individuare nell’intero diagramma di flusso della modellazione 3D delle fasi che li accomunano ed essere visto quindi attraverso una chiave di lettura più generale. Vengono inoltre illustrate le principali tecnologie e tecniche di rilievo tridimensionale oggi esistenti sottolineando come, nelle più diffuse applicazioni di modellazione, le tecniche fotogrammetrica e a scansione con sistemi ottici attivi siano le più -3- Riassunto produttive e versatili. Nel capitolo due vengono quindi mostrate le principali relazioni analitiche che stanno alla base della fotogrammetria e descritti i più importanti metodi per la misurazione automatica di punti sulle immagini. Il capitolo tre mostra una panoramica dei principali sistemi ottici attivi a scansione sia per applicazioni terrestri, come i laser scanner distanziometrici e triangolatori (TLS) e i proiettori di luce strutturata, sia i laser scanner aerotrasportati (ALS). Sono illustrati i principi di funzionamento, le principali caratteristiche e riportati i risultati di importanti test per l’analisi di errori e problematiche inerenti l’utilizzo di tali sistemi. I capitoli 4,5,6 riportano le sperimentazioni eseguite in ambito di modellazione 3D inversa. Il capitolo 4 mostra le problematiche principali che si presentano nella modellazione 3D dell’ambiente e del territorio con tecniche laser scanning sia aereo che terrestre. Viene presentato un software, sviluppato dallo scrivente in linguaggio Matlab, denominato LAIM (Laser e IMmagini) in cui sono implementati originali algoritmi proprietari per il filtraggio e la classificazione automatica dei punti così come importanti funzioni di integrazione fotogrammetrica. Nel capitolo 5 sono affrontate le problematiche inerenti la modellazione nel settore della documentazione e conservazione dei beni culturali. Il capitolo 6 mostra le potenzialità della modellazione tridimensionale per il reverse engineering attraverso importanti applicazioni nel settore dell’architettura navale. -4- Capitolo 1 Modellazione 3D inversa Modellazione tridimensionale e sue applicazioni 1.1 INTRODUZIONE 5 1.2 MODELLAZIONE 3D INVERSA 7 1.3 APPLICAZIONI 31 1.1 INTRODUZIONE La modellazione tridimensionale (3D) viene oggi generalmente associata all’insieme di processi atti a definire la forma di un oggetto in tre dimensioni con l’ausilio di un computer. Sia che l’oggetto debba essere disegnato/progettato, sia che esista già nel mondo reale, il processo si conclude in genere con la visualizzazione del suo modello virtuale su un monitor di un computer; mediante software specifici l’utente può successivamente interagire virtualmente con il modello che può essere ruotato, sottoposto ad analisi geometriche di vario tipo (sezionamento, calcolo dei volumi, estensioni delle superfici, ecc.), inserito in ambienti di realtà virtuale (simulatori di navigazione, rendering, cinematografia, videogame) o utilizzato come “calco digitale” per eventuali riproduzioni e stampe 3D (fresatura). Grazie alle moderne tecnologie informatiche, sia hardware che software, quel che fino a pochi anni fa richiedeva un computer da un milione di dollari e spazi adeguati a contenerlo, può oggi essere sostituito da un piccolo computer portatile che pesa meno di un chilo e dal costo di poche centinaia di dollari. Tale tecnologia informatica, sempre più portabile e di basso costo, ha trasformato l’uso del computer da strumento di supporto per scopi tecnico-scientifici, a mezzo per la diffusione della cultura (soprattutto tramite internet) e per scopi ricreativi. I modelli 3D si inseriscono agevolmente in questo contesto di innovazione perché consentono rappresentazioni esteticamente piacevoli e soprattutto di immediata lettura, senza decodifica di alcuna simbologia. Il loro utilizzo spazia da scopi altamente tecnici e di elevata precisione come l’analisi delle deformazioni geometriche in tempo reale di un antenna satellitare sottoposta a sbalzi termici o il controllo di qualità di parti meccaniche nelle catene di montaggio, sino a giungere a fini prettamente ricreativi come la ricostruzione 3D del volto di personaggi dello spettacolo e dello sport da inserire nei videogame. Anche nell’ambito del marketing su WEB la generazione di modelli 3D desta notevole interesse e ciò è dimostrato dal grande numero di aziende che sui propri siti internet pubblica i cataloghi dei prodotti in 3D. -5- Capitolo 1 Modellazione 3D inversa L’attenzione multilaterale verso i modelli tridimensionali costituisce un importante incentivo alla ricerca e allo sviluppo innovativo in questo settore e sta muovendo, soprattutto negli ultimi anni, imponenti risorse economiche e umane. Molto è stato fatto in termini di visualizzazione e sviluppo di software modellatori per progettazione, grafica e animazione 3D (CAD, CAM e modellatori grafici come Maya, 3DMax o Lightwave) in cui procedure e metodologie operative sono oramai pressoché standardizzate. Ciò che ancora richiede molti sforzi e la confluenza di esperienze specifiche è il processo di modellazione inversa del mondo reale. Il problema è abbastanza semplice nella sua definizione: “dato un oggetto reale di qualsiasi dimensione, ricostruirne un modello digitale virtuale con accuratezza, affidabilità e livello di dettaglio funzioni dell’utilizzo finale”. La risoluzione di tale problema non risulta però altrettanto semplice dal momento che si tratta di oggetti reali, continui che in qualche modo devono essere digitalizzati, discretizzati. Se da una parte durante la fase di progettazione di un oggetto, questo viene rappresentato da forme geometriche note o comunque definibili da una o più superfici matematiche, nel mondo reale il problema è completamente opposto perché sia che si tratti di oggetti antropici che naturali, le forme geometriche “perfette” esistono solo se si stabilisce un certo grado di astrazione e tolleranza. Una colonna che in fase di progettazione è stata disegnata come un cilindro, una volta realizzata non lo sarà più se non entro le tolleranze di costruzione; se questa viene poi sottoposta a carichi troppo elevati potrebbe addirittura subire delle deformazioni ad esempio incurvandosi. Per questo oggetto reale diversi tipi di modellazione potrebbero essere richiesti: § controllo di qualità/collaudo dopo la messa in opera per verificare che l’oggetto sia stato realizzato rispettando le specifiche tolleranze di progetto; § analisi delle deformazioni geometriche per studi strutturali; § semplice modellazione con forme parametriche (altezza e raggio del cilindro) in un progetto di modellazione 3D a scopi divulgativi (ad esempio una colonna antica). Ciascuno dei tre esempi appena elencati richiede un differente approccio alla modellazione più o meno complesso e con precisioni e livello di dettaglio estremamente differenti. La modellazione tridimensionale inversa è quell’insieme di processi che, attraverso la fase di rilievo dell’oggetto, ne ricava informazioni geometriche così da poterne ricostruire le forme mediante appositi software. -6- Capitolo 1 Modellazione 3D inversa In questo capitolo sono descritte tecnologie e metodologie oggigiorno usate in ambito di modellazione tridimensionale inversa (dall’oggetto fisico, reale al suo modello 3D mediante un rilievo metrico) in diversi campi d’applicazione e su differenti scale dimensionali. Benché le caratteristiche degli oggetti in questione siano molto differenti tra loro e richiedano approcci diversificati in funzione delle esigenze dei singoli casi (strumentazioni e tecniche di rilievo diverse), è possibile comunque individuare nell’intero diagramma di flusso della modellazione 3D delle fasi che li accomunano; in questo modo ciò che in letteratura viene generalmente suddiviso per singole aree disciplinari (beni culturali, meccanica, landscape modelling, reverse engineering, building modelling, close range modelling, aerial modelling) può essere visto attraverso una chiave di lettura più generale. Le problematiche e le tecniche di rilievo ed elaborazione più specifiche dei singoli casi vengono analizzate distintamente nei prossimi capitoli anche attraverso esempi ed esperienze maturate durante la fase di sperimentazione. 1.2 MODELLAZIONE 3D INVERSA: DALL’OGGETTO REALE AL SUO MODELLO VIRTUALE Il modello 3D di un oggetto reale è una sua rappresentazione virtuale: l’oggetto viene discretizzato secondo primitive geometriche più o meno elementari, in genere una composizione di superfici o l’unione di segmenti di retta, archi, ecc. Punti, segmenti, archi definiscono la struttura geometrica del modello 3D (modello wireframe) sui quali si “stendono” successivamente le superfici (dove necessario) ottenendo così una rappresentazione “solida” dell’oggetto. Sia che si tratti di modelli dalla forma semplice (un modello di edificio) che complessa (la fusoliera di un aereo o la carena di una imbarcazione) la modellazione può essere ricondotta a un problema di campionamento. L’elemento geometrico fondamentale è quello matematicamente più semplice di tutti: il punto. L’unione di due punti definisce un segmento di retta, tre punti un triangolo, così come la circonferenza per essi passanti o il piano che li contiene. A loro volta solidi primitivi come il prisma, il parallelepipedo, la sfera, il cono ecc. sono definiti come figure derivanti indirettamente da quella fondamentale che è il punto. Anche geometrie più complesse come le curve spline o le superfici NURBS sono definite da relazioni matematiche calcolate in punti (nodi) che possono o meno appartenere all’oggetto stesso. La modellazione 3D di oggetti reali può essere quindi suddivisa in almeno tre fasi: -7- Capitolo 1 Modellazione 3D inversa 1. rilievo; 2. elaborazione; 3. generazione delle superfici e loro unione, attraverso le quali misurare o determinare indirettamente le coordinate tridimensionali (Xi, Yi, Zi) di un minimo numero di punti (rilievo ed elaborazione) necessari a definirne le forme (generazione delle superfici) in funzione del livello di semplificazione definito a priori. In genere le tre fasi appena elencate sono oggi comuni in tutti i progetti di modellazione a meno di differenze derivanti da particolari applicazioni. 1.2.1 PIANIFICAZIONE DI UN PROGETTO PER LA MODELLAZIONE 3D La generazione di un modello tridimensionale è un’operazione che consiste di passi ben definiti attraverso i quali si “recuperano” le informazioni geometriche necessarie per la rappresentazione digitale dell’oggetto in 3D garantendo requisiti specifici come accuratezza e affidabilità metriche, tempi e costi per la produzione del dato spaziale. Tali parametri, definibili come specifiche di progetto della modellazione 3D, sono soprattutto funzione degli scopi finali del modello tridimensionale (monitoraggio deformazioni o solo visualizzazione) oltre a essere dettati da circostanze ambientali di rilievo (volo aereo, spazi ristretti, rilievo in concomitanza con altre operazioni di manutenzione sull’oggetto da modellare). I modelli 3D sono divenuti molto popolari negli ultimi anni, un prodotto d’innovazione che, come tale, “deve” apportare benefici e vantaggi, in termini di risorse umane ed economiche, con costi uguali o addirittura inferiori alle “vecchie” tecnologie. Poiché il processo di modellazione 3D consta di numerose fasi, il rispetto delle specifiche di progetto può avvenire soltanto previa accurata pianificazione del progetto che tenga sotto controllo tutti i parametri richiesti. La pianificazione è il cuore del processo di modellazione, la fase più importante di tutto il progetto ma anche quella più complessa. Le difficoltà non risiedono soltanto nei tecnicismi di progetto ma soprattutto nel dialogo tra la committenza e il produttore del dato spaziale. L’innovazione informatica e con essa tutte le applicazioni derivate, costituiscono un fenomeno la cui espansione a macchia d’olio raggiunta negli ultimi anni, ha sollevato importanti questioni circa la sua controllabilità, gli standard da seguire e compatibilità con tecnologie del passato (la definizione di “passato” è sempre più opinabile). Le ricerche scientifiche spesso viaggiano parallele in vagoni stagni che vanno verso la stessa destinazione ma portando nomi differenti; la logica di mercato vende “innovazioni centellinate“ obbligando l’utenza tecnologica a continue operazioni di up-8- Capitolo 1 Modellazione 3D inversa grade delle proprie strumentazioni e software per stare al passo con gli “standard” di compatibilità del momento. Infine il cambio generazionale tra professionisti dell’era analogica, con differente “forma-mentis”, e quelli dell’era digitale non si è ancora completato, con conseguenti continue e disperate corse verso l’aggiornamento professionale ai nuovi sistemi informatici. Il risultato è un fenomeno di entropia tecnologica spontaneo e pressoché incontrollabile all’interno del quale, data la settorializzazione delle competenze scientifiche, l’unica possibile soluzione a una “vera innovazione” sta nel dialogo e nella confluenza delle singole esperienze. La pianificazione di un progetto di modellazione deve tener conto di questa realtà eterogenea in cui in molti casi la committenza non conosce concretamente le potenzialità dei modelli 3D e soprattutto le difficoltà e i costi che sorgono per soddisfare particolari richieste. È quindi solo attraverso il dialogo tra committente e team di modellazione che si possono arginare richieste spesso sovradimensionate con conseguenti inutili sprechi di risorse economiche e temporali per convergere piuttosto in un prodotto che sia realmente innovativo, conveniente e utile. Nel caso di progetti di modellazione di vaste aree o oggetti molto complessi è importante tener presente che nella gestione, visualizzazione e analisi dei modelli 3D, possono essere richiesti potenti strumenti hardware e software che il committente dovrebbe acquisire. Nel caso in cui ciò non sia possibile, il progetto deve essere ridimensionato. Il dialogo non deve fermarsi alla sola pianificazione ma seguire l’intero processo dei lavori perché, soprattutto in progetti di una certa entità, gli imprevisti potrebbero costringere a ridimensionare le specifiche di progetto. La pianificazione di un progetto di modellazione 3D inizia in genere con la definizione di alcune linee guida che servono soprattutto ad avere un’idea sull’entità del progetto quali dimensione e complessità dell’area/oggetto da modellare e quindi il numero di persone necessarie per ottenere determinati risultati in un certo tempo. La qualità metrica del dato spaziale è quella che fornisce innanzitutto informazioni circa la strumentazione e le tecniche da utilizzare e quindi l’esperienza e le competenze necessarie per garantirla. Ad esempio potrebbe essere richiesto un modello 3D di un bene culturale per scopi divulgativi su internet: l’utente dall’interfaccia del browser WEB deve poter principalmente ruotare e zoomare sull’oggetto osservandone principali forme e dettagli geometrici oltre che apprezzarne la rappresentazione foto-realistica. L’affidabilità delle misure, ovvero la possibilità che siano presenti degli errori grossolani, non è di fondamentale importanza per questi scopi e un modello parzialmente errato non conduce ad alcuna dannosa conseguenza nella pratica. Al contrario in un progetto di modellazione -9- Capitolo 1 Modellazione 3D inversa per il reverse engineering in ambito navale, un’errata definizione delle forme della carena di una imbarcazione oltre le tolleranze consentite nella progettazione di interventi di modifica sullo scafo, potrebbe comportare problemi in fase di realizzazione delle stesse modifiche, o addirittura la cattiva governabilità dell’unità navale durante la navigazione. Nel primo caso un rilievo speditivo con tecniche automatiche può soddisfare in tempi rapidi e costi molto contenuti i requisiti di divulgazione preposti; nel secondo caso la calibrazione degli strumenti, il rilievo e l’elaborazione dei dati devono essere attentamente controllati lungo l’intero flusso di lavoro per garantire i requisiti di accuratezza e affidabilità tipici dei progetti ingegneristici. Accuratezza e affidabilità sono parametri che guidano verso la scelta della tecnica da utilizzare nella modellazione 3D, livello di dettaglio e estensione dell’area/oggetto da rilevare forniscono invece indicazioni sul tempo necessario per la realizzazione del progetto. In progetti di vasta estensione in cui è richiesto un elevato livello di dettaglio, l’utilizzo di strumentazioni/tecniche di rilievo automatiche è consigliabile se non addirittura necessario (accuratezza e affidabilità permettendo) considerato il fatto che i tempi di consegna sono in genere molto stringenti. Se l’oggetto del rilievo risulta particolarmente complesso (ostruzioni, zone dell’oggetto non facilmente accessibili, oggetto in movimento) devono essere prese in considerazione l’utilizzo di più tecniche e la loro integrazione,. In molti casi è utile integrare ulteriori informazioni aggiuntive note a priori (CAD, CAM, DTM, cartografia, disegni di progetto, ecc..) al fine di ottimizzare tempi e costi per la generazione del modello 3D finale. 1.2.2 METODI DI RILIEVO PER LA MODELLAZIONE 3D Un metodo di rilievo è un procedimento attraverso il quale applicando particolari tecniche si determinano direttamente o indirettamente le grandezze di interesse. In letteratura si è soliti suddividere i metodi di rilievo per la modellazione 3D in due principali classi: per contatto e senza contatto. La differenza che sta alla base di tale classificazione, come facilmente intuibile, è che i metodi per contatto necessitano di un’interazione diretta con l’oggetto da rilevare il quale deve essere accessibile fisicamente. a) metodi per contatto. Appartengono a questa categoria tecniche che fanno uso di strumenti e sistemi di misura diretta come i più antichi e tradizionali metri, squadre, - 10 - Capitolo 1 Modellazione 3D inversa goniometri, calibro, micrometro così come strumenti più sofisticati quali i moderni misuratori automatici e semiautomatici di coordinate (Coordinate Measuring Machine – CMM). Nel primo caso si tratta di sistemi non usati nella pratica della modellazione e l’affidabilità delle misure è interamente delegata all’esperienza e competenza dell’operatore. Nel caso dei sistemi CMM, questi consentono misurazioni molto accurate (sino a pochi micron) e sono soprattutto usati nell’ambito di applicazioni industriali come i controlli di qualità lungo le catene di montaggio. L’architettura dei CMM è molto variabile, spesso specificamente progettata in funzione degli oggetti da rilevare, ma il modello più popolare è quello configurato come un coordinatometro a tre assi ortogonali. L’ingombro e il peso di questi sistemi richiede la loro installazione in appositi laboratori di metrologia, da cui la necessità che l’oggetto da rilevare sia trasportabile. In questi strumenti l’operazione di misura consiste nel tastare la superficie dell’oggetto, un punto alla volta, con una sonda collegata a un braccio (figura 1.2.1) i cui movimenti (traslazioni e rotazioni) sono misurati in un sistema di riferimento cartesiano strumentale OXYZ. Il vantaggio principale è che forniscono direttamente le coordinate dei punti Pi(Xi,Yi,Zi) con un’elevata affidabilità sia perché le operazioni vengono eseguite sotto il controllo e la supervisione di un operatore, sia perché ogni punto misurato appartiene all’oggetto poiché la sonda entra in contatto con la sua superficie. I principali svantaggi dei CMM, oltre alla staticità imposta dal peso e dall’ingombro, risiedono nella limitata dimensione massima degli oggetti da rilevare (ad esempio relativa alla lunghezza del braccio articolato o alla lunghezza del ponte) e al tempo necessario per misurare un numero cospicuo di punti. Sono quindi strumenti poco versatili in ambito di modellazione 3D se non per applicazioni industriali dove sono richieste poche misurazioni mirate ma estremamente accurate e affidabili. Figura 1.2.1 – Alcuni misuratori di coordinate per contatto. Sulla sinistra modello a ponte con tre assi ortogonali, al centro modello con braccio articolato, e a destra modello specifico per le eliche. - 11 - Capitolo 1 Modellazione 3D inversa b) Metodi senza contatto. A questa classe appartengono le tecnologie oggi più diffuse e usate in ambito di modellazione 3D che fanno uso di sensori sia passivi che attivi quali fotogrammetria, Synthetic Aperture Radar (SAR), SONAR, laser scanning, structured light projectors. Il grande successo di tali tecnologie è ampiamente giustificato da molteplici fattori che le caratterizzano come ad esempio la versatilità, la trasportabilità, i costi e i tempi richiesti per la produzione del dato spaziale. 1.2.2.1 FOTOGRAMMETRIA La fotogrammetria è la più antica delle tecniche di telerilevamento che permette l’estrazione di informazioni metriche e semantiche di un oggetto a partire da una o più fotografie in cui esso compare. Pone le basi sugli studi fatti già nel X sec d.C. da astronomi arabi e da autorevoli uomini di scienza come Leonardo Da Vinci su un semplice dispositivo, denominato camera oscura (l’antenato della moderna fotocamera), che riproduceva il “fenomeno” delle proziezioni centrali, modello geometrico e matematico sul quale si fonda la fotogrammetria. Il metodo di determinazione delle coordinate 3D con la fotogrammetria deriva direttamente dal sistema di visione binoculare dell’uomo basato sulla tecnica di triangolazione per intersezione in avanti. Come diretta riproduzione del sistema umano di percezione della tridimensionalità, la fotogrammetria richiede almeno due fotografie di un oggetto scattate da punti di vista differenti per poterne ricostruire le forme in 3D. Misurate in un opportuno sistema di riferimento piano di coordinate immagine (retiniche nella visione umana) la posizione della proiezione di un punto oggetto su almeno due immagini, la determinazione delle coordinate nello spazio oggetto (reale) è possibile applicando semplici relazioni geometriche. - 12 - Capitolo 1 Modellazione 3D inversa Figura 1.2.2 – La camera oscura (a sinistra e in alto a destra): antenato delle più moderne fotocamera (in basso a destra). La fotogrammetria nasce insieme alla fotografia e si evolve parallelamente con essa; con l’avvento della tecnologia digitale ha conosciuto e sta conoscendo una nuova rinascita dovuta soprattutto all’eliminazione del processo di sviluppo e stampa fotografici e alla potenzialità fornite dagli ultimi strumenti software che rendono obsoleti costosissimi strumenti opto-elettro-meccanici di misura sulle immagini e che consentono di utilizzare camere fotografiche digitali amatoriali, e quindi di basso costo, anche per misurazioni di elevata precisione. A questo si unisce la grande versatilità della tecnica dovuta alla estrema trasportabilità dei sistemi fotografici, sempre più piccoli e leggeri, su piattaforme di diverso tipo: satelliti, aeroplani, aeromodelli UAV, in immersione subacquea oltre ovviamente alla possibilità di essere tenuti in mano durante le campagne di rilievo in fotogrammetria terrestre (Fig. 1.2.4). Una camera fotografica può essere utilizzata per rilievi di oggetti di differenti dimensioni e l’accuratezza delle misure effettuate è soprattutto funzione del rapporto di scala immagine, un rapporto di riduzione derivante dall’obbiettivo montato e dalla distanza della fotocamera dall’oggetto. Il contenuto semantico delle immagini fotografiche è un altro grande vantaggio che questa tecnica possiede rispetto ad altre; una immagine fotografica è un contenitore di innumerevoli informazioni sull’oggetto, registrate al momento dello scatto, che possono - 13 - Capitolo 1 Modellazione 3D inversa essere utilizzate per successive analisi multitemporali sia descrittive (fotointerpretazione) che metriche. La fotogrammetria è largamente usata in tutti i settori della modellazione 3D: dalla modellazione di oggetti regolari a quelli dalle forme più complesse, in settori dove non è richiesta una precisione molto spinta come in progetti di visualizzazione sino al monitoraggio delle deformazioni in ambito aeronautico. Il principale svantaggio di questa tecnica risiede nel fatto che usa un sensore fotosensibile e quindi passivo (fonte di energia elettromagnetica esterna allo strumento), molto influenzato dalle condizioni di illuminazione dell’oggetto. Una diretta evoluzione della fotogrammetria è la videogrammetria che usa delle videocamere in sostituzione delle fotocamera in modo da poter analizzare metricamente fenomeni dinamici grazie a una elevata frequenza di acquisizione (maggiore di 1000 fotogrammi al secondo) (Fig. 1.2.3). Figura 1.2.3 – Esempi di campi applicativi per la videogrammetria: motion analisys (sinistra) e crash test (destra) - 14 - Capitolo 1 Modellazione 3D inversa 600-800 km Satellite Aereo Elicottero, Mongolfiera Aeromodelli, UAV Tenuta in mano, Fotogrammetria terrestre Tenuta in mano, Fotogrammetria subacquea <- 1000 m ROV Figura 1.2.4 – Piattaforme per l’installazione dei sensori fotografici. - 15 - Capitolo 1 Modellazione 3D inversa 1.2.2.2 S.A.R. Il Synthetic Aperture Radar (SAR) è una tecnica radar nella quale un’antenna rotante altamente direzionale (e quindi molto grande) usata nella tecnica radar convenzionale (ad apertura reale) viene sintetizzata da una serie di impulsi trasmessi da un’antenna a bassa direzionalità (e quindi più piccola). Come principio di base i radar effettuano misure monodimensionali: la distanza tra il radar e il target di interesse. Un radar montato su una piattaforma mobile può fornire misure bidimensionali sulla posizione degli oggetti. Misure tridimensionali sono possibili con tecniche di interferometria tra due immagini radar acquisite lungo differenti traiettorie. Il SAR è una tecnica di rilievo attiva e come tale non è influenzata dall’illuminazione dell’oggetto essendo essa stessa fonte dell’energia elettromagnetica rilevata. I sensori radar emettono e rilevano onde elettromagnetiche nella regione delle microonde la cui lunghezza d’onda è capace di penetrare lo strato di copertura nuvolosa e altre particelle atmosferiche fornendo così un vantaggio notevole rispetto alle altre tecniche che usano sensori ottici (a esempio la fotogrammetria). La tecnica SAR si basa su principi fisico-matematici molto complessi che richiedono particolari procedure di elaborazione delegate ad enti e centri di ricerca internazionali specializzati. E’ usata in ambito di modellazione del territorio (landscape modelling) nella generazione dei Digital Terrain Model DTM: un progetto imponente e molto popolare basato sull’utilizzo di questa tecnica è quello denominato Shuttle Radar Topography Mission (SRTM) che in un volo orbitale di undici giorni della navicella spaziale Shuttle ha registrato dati per generare un DTM dell’intero globo [Farr et al., 2006] con una risoluzione di un secondo d’arco e un’accuratezza nella media inferiore ai 5 metri in quota (Fig. 1.2.5). I DTM dell’intero globo sono pubblicati on line e scaricabili liberamente dal sito della NASA (http://www2.jpl.nasa.gov/srtm/). - 16 - Capitolo 1 Modellazione 3D inversa Figura 1.2.5 – Tipiche piattaforme aeree per l’uso della tecnica SAR (sinistra e centro) e un DTM generato mediante interferometria SAR (destra). 1.2.2.3 SONAR Il sonar, acronimo di Sound Navigation and Ranging è una tecnica di rilievo attiva che usa la propagazione del suono (generalmente in acqua) per navigare, comunicare e rilevare la batimetria del fondo marino, di laghi e fiumi. Il sonar è costituito da un emettitore di impulsi sonori e da un trasduttore che li riceve. La distanza tra il sonar e gli oggetti è misurata in funzione del tempo intercorso tra l’emissione dell’impulso sonoro e il suo ritorno al ricevitore, nota la velocità del suono in acqua (funzione di diverse variabili quali temperatura, profondità e salinità medi). Gli ecoscandagli che usano più coppie di emettitori/trasduttori, chiamati multi-beam, consentono di generare modelli 3D molto dettagliati del fondo marino (Fig. 1.2.6) in maniera molto rapida. L’accuratezza di questi sistemi nella determinazione della profondità è in genere nell’ordine dei centimetri. - 17 - Capitolo 1 Modellazione 3D inversa Figura 1.2.6 – Modelli 3D batimetrici generati con tecniche multibeam. 1.2.2.4 LASER SCANNING Il laser scanner è un sensore misuratore attivo di tipo opto-elettro-meccanico che opera generalmente nella banda dell’infrarosso vicino. Esistono due tipologie di laser scanner: distanziometrici e triangolatori. Entrambi illuminano l’oggetto usando un raggio laser opportunamente direzionato da dispositivi meccanici di precisione. Gli scanner distanziometrici determinano le coordinate 3D dell’oggetto mediante coordinate polari (lo strumento misura distanza e angoli), gli scanner triangolatori per intersezione semplice in avanti (lo strumento misura solo angoli, nota la misura della base). I laser a scansione sono strumenti automatici: l’utente deve soltanto impostare la finestra e il passo con cui campionare la superficie dell’oggetto. Gli scanner distanziometrici sono strumenti specificamente progettati per il rilievo di vaste aree di territorio e per l’architettura e si suddividono in laser scanner terrestri (Terrestrial Laser Scanner, TLS) (Fig. 1.2.7, centro) e laser scanner aerei (Airborne Laser Scanner, ALS) (Fig. 1.2.7, sinistra). L’accuratezza delle misure, nel caso dei TLS varia da pochi millimetri per oggetti poco distanti dallo strumento (circa dieci metri) a qualche centimetro per oggetti al limite della gittata (anche più di 1500 metri). Nel caso degli ALS l’accuratezza è soprattutto funzione degli strumenti di posizionamento del vettore aereo e sono in genere dell’ordine dei dieci, venti centimetri in quota, leggermente migliore in planimetria. I laser triangolatori sono usati per oggetti di piccole dimensioni dal momento che per il principio di intersezione in avanti l’accuratezza delle misure degrada con il quadrato della distanza dallo strumento. All’interno della portata gli scanner triangolatori consentono misure molto accurate, anche dell’ordine di poche decine di micron, motivo per il quale - 18 - Capitolo 1 Modellazione 3D inversa sono largamente usati per la modellazione meccanica in ambito industriale. Uno dei principali svantaggi dei laser triangolatori è che sono influenzati dalle condizioni di illuminazione essendo sistemi ibridi in cui il raggio laser è captato da un sensore fotosensibile CCD/CMOS: superfici metalliche lucide, luce ambientale troppo forte sono parametri da considerare attentamente in fase di rilievo. I structured light projectors (Fig. 1.2.7, destra), sono dei sistemi di rilievo attivi simili ai laser scanner triangolatori dai quali ereditano vantaggi e svantaggi. All’emettitore laser si sostituisce un proiettore mentre il raggio laser (punto o linea) viene sostituito da bande luminose codificate; la configurazione proiettore-fotocamera rende questi strumenti molto più simili a un sistema fotogrammetrico stereoscopico. Laser scanner e structured light projectors sono gli strumenti più usati in ambito di modellazione 3D. La grande velocità di acquisizione (anche 500k punti al secondo per i TLS, 200k punti al secondo per gli ALS) e la semplicità d’uso li ha resi molto popolari negli ultimi anni. Il vantaggio principale è che questi strumenti forniscono direttamente le coordinate 3D della superficie scansionata, il principale svantaggio è che i costi sono ancora di gran lunga superiori ad altre tecniche in grado di fornire gli stessi risultati come ad esempio la fotogrammetria. La grande rapidità di acquisizione comporta una mole notevole di dati, con tempi di elaborazioni e costi per ulteriori strumenti hardware e software che non sono trascurabili. Inoltre questi strumenti, nella loro configurazione base, non forniscono informazioni semantiche sull’oggetto, ma solo la sua geometria, richiedendo così l’integrazione con un sistema di acquisizione fotogrammetrico (molti modelli iniziano a integrare una fotocamera calibrata nello strumento). Figura 1.2.7 – Sistemi a scansione. Laser scanner aereo (sinistra), laser scanner terrestre distanziometrico (centro), scanner triangolatore a luce strutturata. - 19 - Capitolo 1 Modellazione 3D inversa La classificazione dei metodi di rilievo con o senza contatto, riportata nei sottoparagrafi precedenti, assieme agli strumenti utilizzati nell’ambito di questi metodi, non deve essere ritenuta rigida, a compartimenti stagni; molti strumenti con il passare degli anni si evolvono divenendo dei “sistemi” ibridi anche mantenendo lo stesso nome. Strumenti come i CMM, che effettuano misure tipicamente per contatto possono oggi integrare una sonda con laser scanner triangolatore in sostituzione della sonda con tastatore. Allo stesso modo le total station, strumenti concepiti per misure senza contatto (sono come i TLS distanziometrici ma hanno un cannocchiale per la collimazione dei punti, in genere effettuata manualmente) possono essere usati anche con particolari prismi tastatori (in ambito industriale) divenendo strumenti per misure con contatto. Molte tecniche di rilievo sopra elencate presentano peculiarità tali da risultare idonee solo per specifiche applicazioni di modellazione 3D dove talvolta costituiscono anche l’unica soluzione possibile (per esempio il sonar per la batimetria). Vi sono invece molti ambiti dove tecniche differenti possono condurre a risultati equivalenti ma con costi e tempi molto diversi tra loro. Benché non esista oggi una tecnica eleggibile come l’optimum in termini di rapidità di acquisizione del dato spaziale, tempo di elaborazione, costi, accuratezza, affidabilità vi sono alcune tecniche che si distinguono dalle altre per la loro capacità di riuscire ad adattarsi alla modellazione in campi applicativi anche molto eterogenei. Questa capacità, definibile come flessibilità o versatilità è propria di tecniche come la fotogrammetria, in assoluto la più flessibile e produttiva (alto contenuto di informazioni geometriche e semantiche, economica, informazioni accessibili e rielaborabili in qualsiasi istante) e di alcune tipologie di laser scanner i quali hanno dalla loro parte soprattutto rapidità d’acquisizione e semplicità d’uso (forniscono direttamente le coordinate 3D della zona scansionata). Per tale motivo la ricerca negli ultimi anni si sta concentrando sulle tecniche fotogrammetrica e per scansione con sensori attivi (laser scanner, structured light projectors) suddividendo la modellazione 3D inversa in tecniche: • image based (fotogrammetria); • range based (sensori attivi). Queste tecniche singolarmente possono soddisfare la quasi totalità di richieste di modellazione 3D ma è la loro integrazione che sta dimostrando enormi potenzialità compensando reciprocamente gli svantaggi che ognuna possiede in ambiti specifici. - 20 - Capitolo 1 Modellazione 3D inversa 1.2.3 STRATEGIA DI RILIEVO: LA SCELTA DELLA TECNICA “In ambito scientifico e tecnico-progettuale, per modello si intende genericamente una rappresentazione di un oggetto o di un fenomeno reale, rappresentazione che riproduce caratteristiche o comportamenti ritenuti fondamentali per il tipo di ricerca che si sta svolgendo”. Il problema della modellazione 3D di un oggetto reale, come già accennato nell’introduzione di questo capitolo, è ben definibile se e solo se si stabilisce un livello di astrazione mediante il quale la semplificazione dell’oggetto, con opportune primitive geometriche, può soddisfare gli scopi preposti. Definito il livello di semplificazione nella modellazione 3D, gli oggetti reali possono essere suddivisi in: • oggetti dalle forme definibili matematicamente (per esempio parallelepipedo, cilindro, cono, toro); • oggetti dalle forme non definibili matematicamente. Al primo caso appartengono soprattutto oggetti antropici dalle forme regolari o una loro composizione (meccanica, architettura) mentre al secondo caso appartengono soprattutto oggetti naturali (morfologia del territorio, corpo umano, beni culturali). In genere l’approccio di rilievo usato per la modellazione 3D di oggetti dalle forme matematicamente definibili e note a priori consiste nel determinare le coordinate tridimensionali di un numero di punti sufficiente a definirne la geometria (ad esempio operando con misure manuali come con CMM in modellazione meccanica) mentre nella modellazione di oggetti dalle forme non matematicamente definibili si preferisce campionare in modo regolare la superficie dell’oggetto (ad esempio usando tecniche automatiche per scansione). Nel secondo caso dal rilievo si otterrà un seminato di punti (nuvola di punti, point cloud) più o meno denso in funzione del passo di campionamento scelto. La nuvola di punti così ottenuta costituisce il dato spaziale di riferimento (misurato) utile per successive elaborazioni, mentre ulteriori punti intermedi possono essere stimati con tecniche di approssimazione/interpolazione locale o globale. In molti casi è possibile che nello stesso progetto di modellazione siano presenti entrambe le classi di oggetti, per cui in fase di pianificazione del rilievo bisognerebbe considerare la possibilità di usare un approccio integrato tra tecniche manuali e automatiche per velocizzare il rilievo e l’elaborazione. E’ il caso, ad esempio, della modellazione di siti archeologici o di interesse nel settore dei beni culturali per la creazione di musei virtuali o come database 3D di supporto alla pianificazione di interventi di conservazione e restauro [Guidi et al., 2008, El-Hakim et al., 2007, Gruen et - 21 - Capitolo 1 Modellazione 3D inversa al., 2004] dove si utilizzano sia tecniche automatiche per scansione nella modellazione di fregi, statue, volte che tecniche di restituzione fotogrammetrica manuale nella modellazione di strutture murarie regolari. E’ bene sottolineare, qualora sia possibile conseguire risultati equivalenti in un progetto di modellazione 3D inversa utilizzando più tecniche, che la scelta di una tecnica di rilievo rispetto ad un’altra non è sempre vincolante. Per fare un esempio, un edificio approssimabile a un prisma retto a base quadrangolare si riesce a modellare molto più rapidamente e facilmente con tecniche di fotogrammetria terrestre (pochi minuti per eseguire gli scatti fotografici e fornire il modello finale) che laser scanning terrestre ma ciò non significa che non sia possibile comunque soddisfare le richieste utilizzando quest’ultima tecnica. Si sottolinea che la generazione del dato spaziale passa attraverso le fasi di rilievo ed elaborazione, e molto spesso un maggior tempo d’acquisizione con una specifica tecnica viene compensato da un minor tempo di elaborazione e viceversa. L’importanza della ricerca nel settore delle tecniche image-based e range-based sta proprio nel fornire delle soluzioni ai problemi citati al fine di potenziare le possibilità offerte da queste tecnologie. E’ noto per esempio che i sensori attivi per scansione consentono di misurare molto più rapidamente e agevolmente dense nuvole di punti rispetto a tecniche passive come la fotogrammetria. Negli ultimi anni però sono stati sviluppati diversi software commerciali (anche di basso costo) e di ricerca che consentono di generare in maniera altrettanto densa e accurata nuvole di punti mediante algoritmi di image matching [Remondino e Menna, 2008]. La scelta della tecnica è quindi funzione di tante variabili che devono essere ben definite in fase di pianificazione del progetto di modellazione. Uno schema generale su come operare nella modellazione 3D è mostrato nella figura 1.2.8. - 22 - Capitolo 1 Modellazione 3D inversa Oggetto reale Informazioni a priori, vincoli Requisiti del modello 3D Astrazione/ Semplificazione SI Geometria definibile? NO Rilievo per campionamento (point cloud) Rilievo per punti salienti (interest point) Elaborazione Dati spaziali Figura 1.2.8– Diagramma di flusso nella scelta della tecnica di rilievo. 1.2.5 STRUTTURAZIONE DEL DATO SPAZIALE La modellazione tridimensionale inversa può essere considerata come la naturale evoluzione del rilievo e della rappresentazione bidimensionale da cui ha ereditato alcuni concetti e problematiche come quello sulla semplificazione descritto nel paragrafo 1.2.4. Nell’era della rappresentazione su supporto cartaceo esistevano dei limiti circa la quantità di informazioni che potevano essere disegnate sul foglio, funzione sia dell’acuità visiva dell’occhio umano (distinguere distintamente e agevolmente due entità geometriche elementari vicine tra loro) sia percettiva (un numero eccessivo di informazioni codificate rende poco leggibile il disegno). Inoltre l’uso per scopi tecnici di una rappresentazione su carta tuttora richiede che questa sia facilmente leggibile nelle più comuni situazioni di illuminazione e quindi con linee ben contrastate e di un certo spessore. Lo spessore delle linee e la limitata acuità visiva comportano inevitabilmente degli errori nelle operazioni di misura su carta (con un semplice righello per esempio). Questo errore viene definito in - 23 - Capitolo 1 Modellazione 3D inversa cartografia errore di graficismo, ed è stabilito empiricamente essere pari a 0.2 ÷ 0.3 millimetri. Su una carta in scala 1:1000 non si potranno distinguere oggetti che nella realtà distano meno di 20 ÷ 30 centimetri e quindi, in funzione di tale tolleranza vengono scelte tecnica di rilievo e di elaborazione del dato spaziale. Per una data scala di rappresentazione viene quindi definito implicitamente un livello di astrazione, semplificazione e accuratezza che deve essere considerato sin dalla fase di rilievo. Con l’introduzione dei computer, e quindi del CAD nel mondo della rappresentazione, i concetti di scala ed errore di graficismo sarebbero teoricamente obsoleti dal momento che non esiste un disegno reale ma soltanto relazioni topologiche tra coordinate cartesiane (in un file di cartografia numerica ci sono istruzioni di disegno del tipo “unisci il punto A di coordinate (XA,YA,ZA) con il punto B di coordinate (XB,YB,ZB) con una linea”). Nella realtà questi concetti sono ancora molto radicati e quindi tuttora di uso comune. Mentre le rappresentazioni vettoriali bidimensionali (CAD) hanno ereditato un notevole bagaglio di definizioni e procedure dal disegno su carta, il mondo dei modelli 3D è quasi privo di una “guida” e non esistono delle regole di rappresentazione, né dei veri e propri standard. In alcuni casi, a esempio in architettura, sarebbe possibile estendere il concetto di scala di rappresentazione ed errore di graficismo dal 2D al 3D intendendo in questo modo che il modello tridimensionale, visto secondo piante e prospetti, debba possedere lo stesso contenuto qualitativo e quantitativo di informazioni delle rappresentazioni bidimensionali cartacee. Il problema comunque rimane ancora abbastanza aperto; nel settore cartografico, il livello di dettaglio e l’accuratezza dei modelli digitali del terreno sono funzione della scala di rappresentazione, in modellazione meccanica questi dipendono, in funzione dei singoli casi, direttamente dalle tolleranze richieste nell’accoppiamento delle parti meccaniche mentre nel settore dei beni culturali (carta di Londra 2008) sono ancora in fase di discussione. L’uso di una scala di rappresentazione definisce quindi un livello di approssimazione che semplifica gli oggetti reali nella quantità tale da soddisfare comunque i requisiti richiesti. La scelta di un metodo, e conseguentemente di una o più tecniche di rilievo, porta alla produzione del dato spaziale comunemente nella forma di una serie di coordinate tridimensionali di punti. Sia che si tratti di punti salienti (punti d’interesse, interest point) rilevati sull’oggetto, sia che si tratti di una nuvola di punti, la generazione del modello tridimensionale deve passare attraverso una fase di definizione delle relazioni topologiche, di strutturazione della geometria dell’oggetto. - 24 - Capitolo 1 Modellazione 3D inversa Nel caso di rilievo di “punti salienti”, a seconda delle applicazioni, è l’esperienza dell’operatore già all’atto della misurazione (a esempio per collimazione su stereorestitutore fotogrammetrico oppure con strumenti topografici) che consente di definire le relazioni tra punti (per esempio un edificio semplificato come un solido a sei facce di cui ne ha rilevato gli otto vertici). In questo caso i punti sono in genere uniti a coppie da linee formando un modello tipo wireframe (Fig. 1.2.9) che può essere “vestito” successivamente con delle superfici (in genere porzioni poligonali di piano) a formare un modello tipo shaded. Nel caso di rilievo per nuvola di punti (campionamento) la ricerca delle relazioni topologiche è più complessa e dipende fortemente dal passo di campionamento. In genere la misurazione di nuvole di punti dense avviene con strumentazione automatica tipo laser scanning o particolari algoritmi di ricerca automatica delle corrispondenze sulle immagini in fotogrammetria digitale (image matching, paragrafo 2.5 del capitolo 2); l’automatismo non consente di controllare direttamente le operazioni di misura, di conseguenza una nuvola di punti rilevata con queste tecniche non è pronta per le operazioni di strutturazione geometrica perché al suo interno vi sono errori e punti misurati su corpi che ostruiscono l’oggetto del rilievo (alberi, strutture di sostegno, ecc.). La nuvola di punti deve quindi essere “ripulita” da punti non d’interesse e corretta dagli errori di misura attraverso delle operazioni di elaborazione denominate editing e filtraggio. Una volta editata e filtrata la nuvola di punti, il modo più semplice e versatile per strutturare i dati spaziali consiste nell’unire i punti (usando criteri specifici) a due a due con linee in modo da formare dei triangoli (porzioni di piano anche se si potrebbero utilizzare superfici di diverso ordine), operazione denominata triangolazione (Fig. 1.2.10). La superficie reale è quindi in questo modo approssimata da triangoli nel suo modello 3D. Il massimo scostamento tra la superficie reale e i triangoli (errore di approssimazione) deve essere tale da rispettare i requisiti del progetto. Data la grande quantità di dati prodotta dalle tecniche di rilievo automatiche (non è difficile, in grandi progetti, trovarsi a gestire più di un miliardo di punti) la definizione delle relazioni topologiche (linee nel caso di triangolazione) non può avvenire manualmente da cui è evidente la necessità di sfruttare la potenza dell’automazione dei computer mediante software e algoritmi specifici. - 25 - Capitolo 1 Modellazione 3D inversa a) b) c) d) Figura 1.2.9 – Modellazione fotogrammetrica manuale per punti salienti. a) visualizzazione dei punti misurati; b) visualizzazione wireframe delle relazioni topologiche tra i punti; c) visualizzazione shaded delle superfici; d) visualizzazione delle superfici con applicazione delle textures. - 26 - Capitolo 1 Modellazione 3D inversa Figura 1.2.10 – Esempio di triangolazione di punti 3D generati con tecniche di image-matching. In altri casi come per esempio in modellazione meccanica, sia che si tratti di nuvola di punti che “punti salienti”, si definiscono direttamente delle superfici che meglio approssimano i dati rilevati (piani, cilindri, coni e altri solidi parametrici). 1.2.6 MODELLI 3D FOTO-REALISTICI La strutturazione dei dati, descritta nel paragrafo precedente, consente di definire la geometria dell’oggetto ma non fornisce informazioni semantiche e qualitative su di esso. Un alto livello di dettaglio (LoD – Level of Detail) unito a strumenti di visualizzazione avanzati può fornire certamente informazioni anche descrittive sull’oggetto ma è - 27 - Capitolo 1 Modellazione 3D inversa sicuramente l’integrazione di informazioni fotografiche al dato spaziale che assicura il massimo contenuto di informazioni con un minimo dispendio di risorse computazionali [Guidi et al., 2008]. In molti casi infatti, se i requisiti di progetto lo consentono, la sola aggiunta di una texture a un modello 3D con LoD basso (Fig. 1.2.11) può fornire un maggior contenuto di informazioni rispetto ad un modello ad elevato LoD che ne è sprovvisto e che richiederebbe inoltre una maggiore potenza di calcolo nella gestione e nell’analisi. Figura 1.2.11 – Modello digitale 3D del terreno con edifici. In alto visualizzazione della sola geometria del sito, in basso dopo l’operazione di texture mapping. E’ evidente il notevole incremento di informazioni aggiunte con la sovraimposizione dell’immagine fotografica senza la quale i muri di contenimento e la strada sottostante sarebbero appena riconoscibili. - 28 - Capitolo 1 Modellazione 3D inversa La serie di operazioni che consentono di associare informazioni qualitative fotografiche (ma anche provenienti da altre fonti come per esempio sensori termici) al dato spaziale tridimensionale è definito texture mapping (si veda anche il paragrafo 2.6). Il texture mapping trova analogie nella rappresentazione bidimensionale in cartografia e in architettura nelle ortofotocarte e nei fotopiani dove, invece di codificare con opportune campiture aree a contenuto qualitativo specifico (per esempio campo coltivato in cartografia), si delega la lettura delle informazioni d’interesse all’utente mediante fotointerpretazione. 1.2.7 ANALISI SPAZIALE Una delle più grandi potenzialità dei modelli 3D è la possibilità di effettuare analisi spaziali avanzate in maniera agevole: il calcolo del volume, dell’area della superficie, la generazione di sezioni e profili così come l’analisi di deformazioni sono operazioni molto semplici oramai implementate nei più comuni software che utilizzano modelli 3D. Le principali funzioni di analisi spaziale possono essere così suddivise: • misura parametri geometrici elementari: sono funzioni per la misura dell’area della superficie, del volume e delle inclinazioni delle normali del modello 3D o di sue parti. Nel caso del calcolo del volume, si tratta di una funzione molto utile quando a partire dai parametri geometrici fondamentali è possibile determinarne altri derivati come per esempio la massa del modello 3D. Questa funzione è molto usata nel settore delle costruzioni per valutare il volume di terrapieni o nei dissesti idrogeologici quando si vuole conoscere la quantità di materiale franato o ancora quando si vuole monitorare l’attività estrattiva nelle cave a cielo aperto. Analogamente in ambito progettuale nello stesso modo si stima la massa di elementi costruttivi come per esempio sezioni prefabbricate in metallo per la realizzazione di ponti, navi, ecc.. Nell’ambito delle discipline per lo studio e la gestione del territorio a partire dai modelli 3D del terreno è possibile generare delle mappe di pendenza calcolando l’inclinazione della normale alla superficie rispetto alla verticale. Sono utili soprattutto negli studi idrogeologici per individuare zone particolarmente a rischio di frane o valanghe. Integrando la mappa delle pendenze con semplici calcoli astronomici sulla posizione del sole è possibile derivare la mappa di esposizione solare dei terreni, utile nel settore agrario per l’individuazione di zone particolarmente adatte alla coltivazione di - 29 - Capitolo 1 Modellazione 3D inversa determinati prodotti agricoli (nel campo della viticoltura ad esempio, è fondamentale la conoscenza dei valori d’esposizione). • confronto tra modelli 3D: nelle filiere di produzione industriale sono presenti diversi passaggi di controllo della conformità del prodotto rispetto al suo disegno di progetto. Il prodotto realizzato viene in genere scansionato con un elevato LoD e la nuvola di punti così misurata messa a confronto con il modello 3D di progetto ad esempio misurando le distanze euclidee tra i singoli punti e la superficie del modello 3D di progetto. Ulteriori esempi di analisi per il controllo di qualità sono analisi di simmetria di una carena (capitolo 6) e la misura delle deformazioni statiche e dinamiche (videogrammetria); in ambito degli studi di urbanistica è possibile monitorare attraverso un analisi multitemporale i cambiamenti subiti dall’edificato attraverso operazioni di change detection. • analisi di visibilità: tale funzione consiste nel valutare la visibilità di un punto B da un altro punto A. Sono molto usati in ambito urbanistico per verificare la visibilità di un punto panoramico al fine di evitare la costruzione di elementi di disturbo visivo, oppure nelle telecomunicazioni per studiare la copertura di un’antenna (in Italia molte aziende che operano nel settore della telefonia mobile si servono di tali funzioni). Un esempio di studi sull’analisi di visibilità da parte di antenne di ricevitori satellitari GPS in ambito urbano densamente edificato sono presenti in [Lohani e Kumar, 2007]. • sezionamento: la generazione di profili e sezioni è molto usata soprattutto nella costruzione di linee ferroviarie, strade, acquedotti, funivie, ecc.. un modello digitale tridimensionale consente di generare in maniera agevole un numero indefinito di profili altimetrici e quindi la possibilità di individuare quello ottimale. • progettazione e simulazione: i modelli 3D possono essere importati in ambienti software di progettazione, simulazione e analisi per applicazioni specifiche come per esempio quelli di analisi aerodinamica, aeroacustica, termica e idrodinamica (analisi di stabilità di corpi galleggianti come per esempio un modello di carena di un’imbarcazione o simulazione di risposta della nave al moto ondoso ) o nell’ambito dei simulatori di volo, robotica ecc.. - 30 - Capitolo 1 Modellazione 3D inversa 1.3 APPLICAZIONI DELLA MODELLAZIONE 3D INVERSA Il settore della modellazione 3D inversa è sempre in continua espansione ed è difficile fare un elenco completo di tutti i campi in cui questa trova applicazione. Le tecnologie oggi disponibili consentono praticamente la misurazione tridimensionale accurata di qualsiasi oggetto (in particolar modo con la fotogrammetria). Nei prossimi paragrafi vengono mostrate alcune aree in cui la modellazione 3D riscuote un notevole interesse e per ciascuna di esse vengono mostrate alcune tabelle riassuntive degli scopi e delle tecniche usate. 1.3.1 CARTOGRAFIA E STUDIO DEL TERRITORIO PRODOTTI E SCOPI DELLA STRATEGIA DI METODI E TECNICHE DI MODELLAZIONE 3D MODELLAZIONE RILIEVO Point Cloud e Ortofoto di precisione: documentazione e pianificazione urbanistica, controllo abusivismo edilizio, studio di piani di evacuazione ecc. Interest Point per la modellazione degli Fotogrammetria aerea edifici e per linee di rottura con forte salto altimetrico Laser scanning aereo e (breaklines) come fotogrammetria aerea scarpate, strapiombi. Modellazione edificato urbano, city modelling: documentazione e pianificazione urbanistica, piani di evacuazione, carte di rischio idrogeologico (funzione dei danni a persone e cose), analisi di copertura antenne per le telecomunicazioni, analisi di visibilità dei satelliti GPS, realtà virtuale, videogames, ecc. Point Cloud e Interest Point per la Fotogrammetria aerea (+ terrestre) modellazione degli edifici e per linee di Laser scanning aereo rottura con forte salto (+ terrestre) e altimetrico fotogrammetria aerea (+ (breaklines) come terrestre) scarpate, strapiombi. - 31 - Capitolo 1 Modellazione 3D inversa Fotogrammetria aerea Progettazione viabilità e servizi: costruzione strade, ferrovie, elettrodotti, tunnel, catasto strade, ecc. a grande scala Point Cloud e/o Laser scanning da elicottero Interest Point Laser scanning terrestre Topografia, DGPS Landscape Modelling: SAR studio morfologia di vaste aree di territorio per l’analisi di fenomeni macroscopici (per esempio fenomeni meteorologici, Point cloud Fotogrammetria Satellitare idrologici), simulatori di volo, realtà Fotogrammetria aerea virtuale, ecc. a piccola scala Batimetria: Ecoscandaglio, Multibeam isoipse batimetriche (carte nautiche), studio Point cloud correnti e moto ondoso, erosione costiera Laser scanning batimetrico ecc.. (bassi fondali) Fotogrammetria aerea Studi di geotecnica e idrogeologici: analisi di stabilità pendii, erosione costiera, frane, smottamenti, valanghe, piani di evacuazione, carte di rischio idrogeologico a grande scala Point cloud e Interest Point (funzione dei danni a persone e cose) Laser scanning aereo Laser scanning terrestre - 32 - Capitolo 1 Modellazione 3D inversa 1.3.2 ARCHITETTURA E BENI CULTURALI PRODOTTI E SCOPI DELLA STRATEGIA DI METODI E TECNICHE DI MODELLAZIONE 3D MODELLAZIONE RILIEVO Fotogrammetria aerea a Ortofoto di precisione: Point Cloud e grandissima scala (UAV, documentazione siti e scavi archeologici, Interest Point per la mongolfiera) pianificazione interventi di conservazione e modellazione di restauro di edifici storici, ecc. aggetti, opere murarie, ecc. Laser scanning terrestre Fotogrammetria terrestre “Calco digitale”: Fotogrammetria terrestre replica fisica reperti e statue (beni culturali danneggiati o perduti), documentazione ad Point Cloud alto LoD per la pianificazione di interventi Laser scanning di conservazione e restauro, musei virtuali, (o structured light projectors) didattica ecc. GIS archeologico 3D: documentazione multi-scala per lo studio e l’analisi di siti e scavi archeologici (dal modello digitale del terreno georeferenziato passando per le opere murarie sino ai reperti più piccoli), pianificazione conservazione, Fotogrammetria aerea Point Cloud e/o Interest Point in funzione del livello di realtà virtuale, musei virtuali, didattica, cinematografia Laser scanning terrestre dettaglio richiesto Topografia, GPS musei virtuali, didattica Divulgazione: Fotogrammetria terrestre Point Cloud e/o Interest Point in funzione del livello di dettaglio richiesto - 33 - Fotogrammetria aerea Fotogrammetria terrestre Laser scanning terrestre Capitolo 1 Modellazione 3D inversa 1.3.3 INDUSTRIA AUTOMOBILISTICA, AERONAUTICA E NAVALE PRODOTTI E SCOPI DELLA STRATEGIA DI METODI E TECNICHE DI MODELLAZIONE 3D MODELLAZIONE RILIEVO Controllo di qualità e test: Laser scanning terrestre analisi di conformità al modello 3D di progetto, analisi metrologica durante i test (per esempio torsione di un telaio di un’automobile), simulazioni, robot (o structured light projectors) Point Cloud e/o Interest Point Fotogrammetria terrestre navigation, crash test ecc. Videogrammetria Reverse engineering: Fotogrammetria terrestre prototipazione, ricostruzione del disegno di progetto, Point Cloud e/o progettazione di interventi di modifica di Interest Point Laser scanning terrestre (o structured light projectors) opere ingegneristiche esistenti (aggiunta di controcarene auna nave) 1.3.4 MEDICINA PRODOTTI E SCOPI DELLA STRATEGIA DI METODI E TECNICHE DI MODELLAZIONE 3D MODELLAZIONE RILIEVO Laser scanning terrestre Ortopedia: analisi movimenti corporei, studio deformazioni ossa e deformazioni spinali, studio postura (o structured light projectors) Point Cloud o Interest Point Fotogrammetria terrestre Videogrammetria Fotogrammetria terrestre Protesi: misura di superfici di parti corporee per l’accoppiamento e l’adattamento di protesi Point Cloud (facciali, articolazioni, odontoiatria) Laser scanning terrestre (o structured light projectors) - 34 - Capitolo 1 Modellazione 3D inversa 1.3.5 FLUIDODINAMICA PRODOTTI E SCOPI DELLA STRATEGIA DI METODI E TECNICHE DI MODELLAZIONE 3D MODELLAZIONE RILIEVO Point Cloud Videogrammetria Analisi e Simulazioni: Campo di moto fluido, topografia moto ondoso - 35 - Capitolo 2 Modellazione 3D fotogrammetrica: definizioni Modellazione 3D fotogrammetrica 2.1 DEFINIZIONI 36 2.2 ORIENTAMENTO E CALIBRAZIONE DI SINGOLE IMMAGINI 52 2.3 ORIENTAMENTO DI STEREO-COPPIE DI IMMAGINI 57 2.4 ORIENTAMENTO E CALIBRAZIONE MULTI-IMMAGINE 61 2.5 CORRISPONDENZE TRA IMMAGINI 64 2.6 TEXTURE MAPPING 71 2.1 DEFINIZIONI In generale in fotogrammetria si ricercano le relazioni analitiche e geometriche che legano lo spazio oggetto (il mondo reale) e lo spazio immagine (la fotografia) al fine di ottenere informazioni metriche indirette. In tal modo è possibile acquisire non solo informazioni relative ad oggetti altrimenti inaccessibili, ma anche in un tempo decisamente contenuto. La fotogrammetria racchiude metodi di misura e interpretazione sulle immagini allo scopo di rilevare forma e posizione di un oggetto nello spazio da una o più fotografie. La fotogrammetria è una tecnica molto versatile, i metodi fotogrammetrici possono essere teoricamente applicati in ogni situazione in cui l’oggetto può essere registrato fotograficamente ma soprattutto la fotografia costituisce un importante magazzino di informazioni metriche e semantiche a cui è possibile accedere in qualsiasi momento. 2.1.1 FONDAMENTI GEOMETRICI Facendo riferimento a immagini provenienti da camere fotografiche (metriche e non), il modello usato per descrivere la geometria di un fotogramma è quello di una prospettiva centrale. Il precursore di tali dispositivi è la camera oscura (o camera stenopeica) utilizzata dal fisico arabo Alhazen (Ibn Al-Haitham, ca 965-1039 d.C.) nei suoi studi astronomici. Leonardo da Vinci (1452-1519) conosceva probabilmente le sue ricerche e scriveva a proposito della camera oscura in un passo intitolato “Prova di come gli oggetti, posti in una posizione siano tutti ovunque e tutti in ciascuna parte” (Richter e Richter, 1939, n. 70, da M.H.Pirenne, 1991): “Affermo che se la facciata di un edificio, o una piazza aperta o un campo illuminato dal sole, ha di fronte un’abitazione, e se sul lato non esposto al sole pratico un piccolo foro rotondo, tutti gli oggetti illuminati proietteranno la loro immagine attraverso quel foro, e saranno visibili all’interno dell’abitazione, sulla - 36 - Capitolo 2 Modellazione 3D fotogrammetrica: definizioni parete opposta che dovrebbe essere resa bianca; e là in effetti saranno capovolte, e se si fanno più fori simili in diverse posizioni sulla stessa parete per ognuno di questi si otterrà lo stesso risultato. Quindi, le immagini degli oggetti illuminati sono ovunque su questa parete e tutti in ogni minuscola parte di essa…” (da M.H.Pirenne, “Percezione visiva”, 1991). Figura 2.1.1 – Modello della camera oscura. La figura 2.1.1 illustra i parametri fondamentali della prospettiva centrale nel modello della camera oscura (una fotocamera molto semplificata), definiti in fotogrammetria parametri di orientamento interno: posizione del centro della prospettiva O’ rispetto a un sistema di riferimento fissato nella camera (sistema di coordinate immagine), distanza principale c tra il centro O’ e il piano di proiezione. Secondo questo modello geometrico un raggio luminoso (raggio ottico) che parte da un punto oggetto P si propaga in linea retta passando attraverso il centro della prospettiva O formando quindi un immagine P’ sul quadro di proiezione (sul quale è posto un sensore fotosensibile, pellicola o sensore digitale). Punto oggetto P, centro della prospettiva O’ e punto immagine P’ giacciono su una retta denominata retta di collinearità. L’insieme di tutti i possibili raggi ottici (fascio di raggi ottici o anche stelle proiettive) che partono dall’oggetto forma una sua immagine capovolta (immagine negativa) e rimpicciolita sul quadro di proiezione. Il rapporto di riduzione tra oggetto reale e la sua immagine è denominato scala media del fotogramma e risulta così definito: Scala = 1: m dove m = h X = c x′ (2.1) La scala immagine è il parametro che più di ogni altro fornisce una stima approssimativa dell’accuratezza raggiungibile con le misure fotogrammetriche. Differenziando infatti l’equazione della scala immagine (2.1) si ottiene: dX = m ⋅ dx′ - 37 - (2.2) Capitolo 2 Modellazione 3D fotogrammetrica: definizioni L’incertezza lineare dx nello spazio immagine genera un errore dX nello spazio oggetto direttamente proporzionale al denominatore scala m(figura 2.1.2). Figura 2.1.2 – Incertezza nello spazio immagine e nello spazio oggetto. Il valore dx in fotogrammetria digitale viene spesso indicato in numero di pixel. In alcuni casi, in condizioni di luce favorevoli punti pre-segnalizzati da target retroriflettenti possono essere collimati sulle immagini con accuratezze anche di un decimo di pixel (sub-pixel) mentre per i punti naturali l’accuratezza raggiungibile è in genere di un pixel anche se molto variabile in funzione della risoluzione del sensore digitale [Remondino e El-Hakim, 2006]. La fotogrammetria è una tecnica di misura tridimensionale mediante la quale forma e posizione di un oggetto sono determinati ricostruendo le stelle proiettive da almeno due posizioni differenti. Il principio di determinazione delle coordinate 3D è quello della triangolazione (figura 2.1.3), ovvero dell’intersezione in avanti semplice o multipla da due o più posizioni note. La misurazione di coordinate Pi nello spazio oggetto OXYZ si riduce alla misura di punti pi omologhi nello spazio immagine oxyz che può avvenire manualmente o automaticamente grazie alle moderne tecniche di auto-correlazione di immagini digitali (image-matching) (paragrafo 2.5). - 38 - Capitolo 2 Modellazione 3D fotogrammetrica: definizioni Figura 2.1.3– Principio di intersezione in avanti semplice (sinistra) o multipla (destra) in fotogrammetria. L’accuratezza ottenibile con le misure fotogrammetriche non è quindi solo funzione della scala immagine ma anche della configurazione geometrica con cui i raggi ottici si intersecano nello spazio. In generale quindi l’accuratezza sulle coordinate spaziali ottenibile in fotogrammetria multi-immagine può essere descritta dalle seguenti relazioni (Fraser 1996): dX = q ⋅ m ⋅ dx k (2.3) dove q: k: coefficiente dipendente dalla configurazione della rete di immagini, q = 0.4 – 0.8 per reti con immagini convergenti (figura 2.1.4a) q = 1.5 – 3.0 per configurazioni stereo (figura 2.1.4b) numero di immagini scattate da ogni stazione - 39 - Capitolo 2 Modellazione 3D fotogrammetrica: definizioni a b Figura 2.1.4 – Configurazioni geometriche di presa: a) configurazione stereo (assi paralleli); b) configurazione multi-immagini convergenti. 2.1.2 ABERRAZIONI OTTICHE: DISTORSIONI RADIALE E TANGENZIALE Il modello della camera oscura non è utilizzabile nella pratica della fotogrammetria soprattutto perchè richiede tempi di esposizione alla luce tali da richiedere l’uso di un treppiede anche con forte illuminazione diurna oltre a problemi di luce parassita che limita la definizione delle immagini. L’aggiunta di un sistema di lenti (figura 2.1.3), comunemente denominato obbiettivo, risolve tale problema e rende il modello della camera oscura molto più simile alle moderne fotocamere. Il centro della prospettiva O’ diviene qui l’intersezione dell’asse ottico (retta FF’) con il secondo piano principale interno. Mentre la distanza principale c è individuata dalla distanza a’, variabile in funzione della distanza dall’oggetto secondo l’equazione (2.2) per permettere il focheggiamento dell’immagine sul piano focale (per oggetti posti a distanza a infinita a’ è uguale alla focale dell’obbiettivo f ). Il modello ottico d’immagine per sistemi di lenti sottili è quindi illustrato in figura 2.1.3 dove sotto particolari ipotesi [Selvini e Guzzetti, 2000] vale la legge del costruttore di lenti: 1 1 1 + = a′ a f ′ Dove a: coniugata oggetto a’: coniugata immagine ≈ distanza principale c - 40 - (2.2) Capitolo 2 Modellazione 3D fotogrammetrica: definizioni f, f’: lunghezza focale interna ed esterna z, z’: distanza focale oggetto e distanza focale immagine H1, H2: piani principali esterno e interno Figura 2.1.3 – Costruzione geometrica per un sistema di lenti sottili. Le camere fotografiche sono apparecchi il cui funzionamento è quindi molto simile a quello descritto a proposito della camera oscura con l’unica differenza sostanziale che il centro della prospettiva non è costituito dal baricentro del foro, ma da un punto virtuale posizionato all’interno di un gruppo ottico di lenti; il diametro del foro non è qui costante, ma può variare mediante un apparato meccanico, denominato diaframma, permettendo così di controllare la quantità di luce che raggiunge il quadro di proiezione. Il dispositivo fotosensibile (trasduttore), atto alla acquisizione (e registrazione per le camere analogiche) dell’immagine sul quadro di proiezione, può essere costituito dalla più tradizionale pellicola fotografica o dai più moderni sensori digitali. I principi secondo i quali i raggi luminosi vengono rifratti dall’obbiettivo e formano l’immagine, sono quelli dell’ottica geometrica (Gaussiana) che prevedono però ipotesi fortemente limitative che si discostano molto dalla realtà [Selvini e Guzzetti, 2000]. I raggi luminosi infatti, sono considerati in tale modello monocromatici, provenienti da una sorgente puntiforme e poco inclinati rispetto all’asse ottico dell’obiettivo. Da queste considerazioni si può ben capire come tale modello sia puramente teorico non verificandosi praticamente mai le condizioni descritte. Sono molto comuni infatti obiettivi con angoli di campo superiori ai 120° sia in fotografia che in fotogrammetria, e nelle applicazioni comuni quasi mai si è interessati a oggetti che individuano sorgenti luminose puntiformi (a parte in astronomia e astrofotografia). - 41 - Capitolo 2 Modellazione 3D fotogrammetrica: definizioni Le leggi di Snellius permettono di individuare la posizione di un punto sull’immagine nota la posizione nello spazio oggetto; per le motivazioni sopra descritte, e a causa di difetti costruttivi degli obiettivi, l’immagine formata presenta forma e posizione differenti da quelle teoriche. Tali imperfezioni nella formazione dell’immagine vengono denominate “aberrazioni”, esse possono essere di tipo geometrico e di tipo cromatico. Mentre in fotografia generalmente si è interessati soprattutto alla correzione del secondo tipo (piccole variazioni di forma sono inavvertibili all’occhio umano), in fotogrammetria si guarda soprattutto alle aberrazioni geometriche. La correzione di tali distorsioni (tabella 2.2.A da Ray S., 1972) può avvenire a priori, attraverso un’attenta progettazione di schemi ottici dedicati e alla selezione di cristalli particolari, o a posteriori attraverso una correzione geometrica dell’immagine. Tabella 2.2.A – Principali aberrazioni delle lenti. Matematicamente, il centro della prospettiva O’ è definito come il punto attraverso il quale passano tutti i raggi ottici. Per un sistema di lenti è necessario però definire due centri della prospettiva: uno interno e uno esterno rispettivamente intersezioni dell’asse ottico con la pupilla d’entrata EP e la pupilla d’uscita EP’ (Fig. 2.1.4). Nel caso ideale l’angolo di incidenza τ è uguale a quello d’uscita τ’ e la distanza principale c è pari alla coniugata immagine a’ Poiché in generale la pupilla d’entrata e quella d’uscita non coincidono con i piani principali gli angoli τ, τ’ rispettivamente di entrata e uscita dei raggi ottici sono diversi tra loro (Fig. 2.1.3). Questo effetto, radialmente simmetrico - 42 - Capitolo 2 Modellazione 3D fotogrammetrica: definizioni rispetto al punto H’ denominato PPA (Punto principale di Autocollimazione) è definito dalla seguente relazione: ∆r ′ = r ′ − c ⋅ tan τ (2.3) Da cui si evince che la distorsione radiale ∆r’ (in inglese radial distortion) è funzione non solo della distanza del punto immagine P’ da H’ (PPA) ma anche della distanza principale c. Figura 2.1.4 – Distanza principale c e distorsione radiale ∆r’. In generale tutti gli obbiettivi fotografici distorcono anche se l’uso di particolari lenti e schemi ottici (simmetrici) può ridurre notevolmente il valore della distorsione radiale (anche inferiore a 4 micron). Gli obbiettivi che distorcono di meno sono quelli denominati normali con un angolo di campo di circa 55-60°, simile a quello dell’occhio umano. Obbiettivi con angoli di campo maggiori o inferiori a quello degli obbiettivi normali sono denominati rispettivamente obbiettivi grandangolari e teleobbiettivi (in gergo anche denominati più semplicemente tele). Le immagini registrate con questi obbiettivi (Fig. 2.1.5) sono caratterizzate da distorsioni tipicamente negative (denominate anche a barilotto) per gli obbiettivi grandangolari e positive per i teleobbiettivi (distorsioni a cuscino). - 43 - Capitolo 2 Modellazione 3D fotogrammetrica: definizioni Figura 2.1.5 – Deformazioni che subisce un reticolo a maglia quadrata nel caso di distorsioni radiali simmetriche ∆r’ positive (teleobbiettivi) e negative (obbiettivi grandangolari). Esistono ulteriori aberrazioni geometriche dovute invece al disallineamento costruttivo delle lenti che provocano una distorsione asimmetrica dell’immagine. Questo tipo di aberrazioni sono note come distorsioni tangenziali (in inglese decentering distortion) e sono in genere, per un buon obbiettivo, di un ordine di grandezza più piccole delle distorsioni radiali. 2.1.3 ORIENTAMENTO INTERNO Una fotocamera può essere modellata come un sistema spaziale che consta di un area piana di immagine (pellicola fotografica o sensore digitale) e di un obbiettivo con il suo centro prospettico O’. I parametri di orientamento interno di una fotocamera consentono di ricostruire il fascio di raggi proiettivi a partire da un sistema di riferimento piano M’x’y’ di coordinate immagine dove M’ è denominato centro fiduciale o FC, in genere il centro dell’immagine per fotocamere standard. E’ possibile quindi a partire da tale sistema, noti i parametri di orientamento interno, definire una terna cartesiana O’x’y’z’ di coordinate fotocamera fondamentale per la determinazione delle relazioni analitiche che intercorrono tra spazio oggetto e spazio immagine. Questa terna è incentrata in O’, piano x’y’ parallelo a quello immagine e asse z’, coincidente con l’asse ottico, ortogonale ad esso e rivolto verso l’immagine negativa (Fig. 2.1.6). L’intersezione dell’asse ottico (z’) con il piano immagine è un punto H’ (H’ ≈ M’) denominato punto principale di autocollimazione (o anche PPA). In totale i parametri di orientamento interno sono quindi tre: - 44 - Capitolo 2 • Modellazione 3D fotogrammetrica: definizioni punto principale H’ (o PPA): nadir del centro della prospettiva di coordinate x0, y0 nel sistema M’x’y’ • distanza principale c Figura 2.1.6 – Sistemi di riferimento di coordinate immagine (sinistra) e di coordinate fotocamera (destra). Per le fotocamere analogiche metriche il sistema di riferimento immagine è individuato dalle marche fiduciali (contrassegni visibili sull’immagine sovrimposti nell’istante di scatto), attraverso le quali passano gli assi x’ e y’. Nelle immagini digitali, matrici di pixel, le coordinate immagine vengono misurate in un sistema di tipo matriciale e sono indicate in genere con le lettere u,v (oppure i,j) dove u indica il numero di colonna e v quello di riga. E’ possibile quindi che, in molti software di fotogrammetria digitale, il sistema di riferimento abbia l’origine posto in alto a sinistra dell’immagine, asse delle ascisse concorde all’asse x’ e asse delle ordinate discorde a y’ con le ordinate crescenti verso il basso. Le coordinate di H’ sono quindi, in questi casi riferite, a tale sistema. Per uniformità e standardizzazione delle relazioni analitiche si preferisce in genere riportare tutte le misurazioni al sistema M’x’y’ (Fig. 2.1.7). I parametri di orientamento interno non consentono da soli di modellare il sistema fotocamera dal momento che la presenza dell’obbiettivo introduce degli errori sistematici rilevanti dovuti alle distorsioni radiali e tangenziali, introdotte nel paragrafo precedente. Nelle fotocamere metriche gli obbiettivi sono progettati con particolari lenti e schemi ottici in modo da limitare al minimo le distorsioni. Per tale motivo per alcune applicazioni gli errori commessi trascurando le distorsioni possono essere irrilevanti (secondo la (2.2) per dx’ = ∆r’MAX = 5 micron, m = 10000 allora - 45 - dX ≈ 5 Capitolo 2 Modellazione 3D fotogrammetrica: definizioni centimetri). Nelle fotocamere amatoriali invece, progettate per la fotografia artistica e ricreativa, le distorsioni possono raggiungere valori tali da non poter essere trascurati. Figura 2.1.7 – Sistemi di riferimento di coordinate immagine per fotocamere metriche (in alto) e per fotocamere digitali (in basso). Una fotocamera amatoriale, di basso costo, può produrre distorsioni anche maggiori di 200 micron (secondo la (2.2) per dx’ = ∆r’MAX = 200 micron, m = 10000 allora dX ≈ 2 metri)! Se si considera che gli errori sistematici dovuti alle distorsioni radiale e tangenziale sono solo alcune delle fonti di errore nella misura fotogrammetrica, e che questi si combinano e aumentano secondo la legge - 46 - Capitolo 2 Modellazione 3D fotogrammetrica: definizioni di propagazione degli errori diviene difficile trovare applicazioni d’interesse metrologico senza la conoscenza di una relazione analitica che modelli le distorsioni (soprattutto se si usano fotocamere amatoriali). Se questi parametri sono noti è possibile definire un vettore x’ di posizione nel sistema di riferimento fotocamera O’x’y’z’: x′ x′P − x0′ − ∆x′ x′ = y ′ = yP′ − y0′ − ∆y′ z ′ −c (2.4) Dove xP′ , y′P coordinate immagine misurate di P′ x0′ , y0′ coordinate immagine del punto principale H′ ∆x′, ∆y ′ parametri di correzione per le distorsioni I termini ∆x′, ∆y ′ contengono i parametri di distorsione radiale e tangenziale: ′ + ∆xtan ′ ∆x′ = ∆xradial ′ + ∆ytan ′ ∆y ′ = ∆yradial La distorsione radiale ∆r ′ è in genere modellata con due differenti serie polinomiali che danno luogo rispettivamente a due curve di distorsione radiale denominate rispettivamente sbilanciata e bilanciata. Per camere non metriche la formula più comune per ∆r ′ è quella sbilanciata: ∆r ′ = k1 ⋅ r ′3 + k2 ⋅ r ′5 + k3 ⋅ r ′7 (2.5) Per camere metriche è invece quella bilanciata: ∆r ′ = A0 ⋅ r ′ + A1 ⋅ r ′3 + A2 ⋅ r ′5 + A3 ⋅ r ′7 - 47 - (2.6) Capitolo 2 Modellazione 3D fotogrammetrica: definizioni Dove r′ = ( x′P − x0′ ) + ( y′P − y0′ ) 2 2 raggio immagine, distanza dal punto principale H’ La distorsione radiale ∆r ′ va scomposta secondo i due assi x’ e y’: ∆r ′ r′ ∆r ′ = y′ ⋅ r′ ′ ∆xradial = x′ ⋅ ′ ∆yradial (2.7) Le distorsioni tangenziali sono invece modellate con i seguenti polinomi (Brown, 1971): ′ = P1 ⋅ (r ′2 + 2 x′2 ) + 2 P2 ⋅ x′y′ ∆xtan ∆y′tan = P2 ⋅ (r ′2 + 2 y′2 ) + 2 P1 ⋅ x′y′ (2.8) I parametri di orientamento interno e quelli di distorsione radiale sono determinati mediante la procedura della calibrazione della fotocamera (paragrafi 2.2 e 2.4). - 48 - Capitolo 2 Modellazione 3D fotogrammetrica: definizioni 2.1.4 ORIENTAMENTO ESTERNO L’orientamento esterno consiste di sei parametri, tre traslazioni e tre rotazioni, che rappresentano i gradi di libertà del sistema di coordinate fotocamera O’x’y’z’ e descrivono quindi la sua posizione spaziale e l’orientamento rispetto al sistema di coordinate oggetto globale OXYZ. Questi parametri rappresentati in (Fig. 2.1.8) sono rispettivamente: X O' XO' = YO ' ZO ' posizione del centro di presa O’ in OXYZ Le tre rotazioni sono invece indicate generalmente con le lettere ω , ϕ , κ che rappresentano gli angoli che gli assi del sistema di coordinate immagine formano con il sistema di coordinate oggetto. Nel caso standard la trasformazione avviene tramite tre successive rotazioni orarie attorno agli assi del sistema fotocamera: ω è l’angolo di cui l’asse x′ deve ruotare per portare l’asse y′ nel piano OXY, ϕ è l’angolo di cui l’asse y′ deve ruotare per portare l’asse x′ nel piano OXY e κ è l’angolo di cui l’asse z′ deve ruotare per portare l’asse x′ nel piano OXZ. La matrice risultante è il prodotto delle tre singole matrici di rotazione moltiplicate in ordine inverso: R = Rκ Rϕ Rω 0 0 1 Rω = 0 cos ω − sin ω 0 sin ω cos ω cos ϕ 0 sin ϕ Rϕ = 0 1 0 − sin ϕ 0 cos ϕ cos κ Rκ = sin κ 0 − sin κ cos κ 0 0 0 1 E quindi: cos ϕ cos κ R = cos ω sin κ + sin ω sin ϕ cos κ sin ω sin κ − cos ω sin ϕ cos κ − cos ϕ sin κ cos ω cos k − sin ω sin ϕ sin κ sin ω cos κ + cos ω sin ϕ sin κ - 49 - − sin ω cos ϕ (2.9) cos ω cos ϕ sin ϕ Capitolo 2 Modellazione 3D fotogrammetrica: definizioni Figura 2.1.8 – Parametri di orientamento esterno tra sistemi di riferimento oggetto e immagine. 2.1.5 EQUAZIONI DI COLLINEARITÀ La figura 2.1.8 mostra la geometria della proiezione di un punto P su un fotogramma di cui le coordinate spaziali possono essere derivate come componenti di un vettore X somma seconda le seguenti relazioni: X = XO′ + X* (2.10) In cui il vettore X* esprime la condizione secondo la quale centro della prospettiva O′, punto immagine P′ e punto oggetto P sono allineati e giacciono su un'unica retta denominata retta di collinearità. Le equazioni dei punti appartenenti ad una retta di collinearità, noti i parametri di orientamento esterno e interno, sono espressi dalla seguente relazione: X = XO′ + λ∙R∙x′ X X O' r11 Y = Y + λ r O' 21 Z ZO ' r31 - 50 - r12 r22 r32 r13 x′ r23 y ′ r33 z ′ (2.11) Capitolo 2 Modellazione 3D fotogrammetrica: definizioni Dove λ è un valore incognito che varia per ogni punto oggetto. Se è disponibile soltanto una immagine è allora possibile definire solo la direzione O′P ma non la posizione spaziale del punto P. Noti i parametri di orientamento interno (interior orientation IO) ed esterno (exterior orientation EO) le (2.11) costituiscono tre equazioni in quattro incognite. Le coordinate 3D del punto P possono essere determinate soltanto se tale direzione interseca un altro elemento geometricamente noto come per esempio un’altra retta di collinearità (sistema iperdeterminato di sei equazioni in cinque incognite) o un modello di superficie nello spazio (nota la coordinata Z di P le incognite divengono X,Y,λ). Il processo di determinazione delle coordinate 3D dei punti Pi in fotogrammetria è denominato restituzione (plotting in inglese). Invertendo le (2.11) e introducendo le coordinate del PPA e i termini correttivi per le distorsioni radiali e tangenziali secondo le (2.4) si ottiene: x′ − x′0 − ∆x′= 1 −1 R ( X − XO' ) λ x′P − x0′ − ∆x′ r11 y ′ − y ′ − ∆y ′ = 1 r 0 P λ 12 r13 −c r21 r22 r23 r31 X − X O ' r32 Y − YO ' r33 Z − ZO ' (2.12) Portando al secondo membro delle (2.12) i termini correttivi delle distorsioni radiali e le coordinate del PPA, dividendo prima e seconda equazione per la terza si ottiene: xP′ = x0′ − c ⋅ r11 ( X − X O ' ) + r21 (Y − YO ' ) + r23 (Z − ZO ' ) + ∆x′ r13 ( X − X O ' ) + r23 (Y − YO ' ) + r33 (Z − Z O ' ) r ( X − X O ' ) + r22 (Y − YO ' ) + r32 (Z − Z O ' ) y ′P = y0′ − c ⋅ 12 + ∆y ′ r13 ( X − X O ' ) + r23 (Y − YO ' ) + r33 ( Z − Z O ' ) (2.13) Che costituiscono le equazioni di collinearità, al centro della maggior parte dei processi fotogrammetrici. - 51 - Capitolo 2 Orientamento e calibrazione di singole immagini 2.2 ORIENTAMENTO E CALIBRAZIONE DI SINGOLE IMMAGINI L’orientamento di una singola immagine in fotogrammetria indica l’insieme di processi mediante i quali si determinano i parametri di orientamento esterno (EO). Poiché la misura diretta tramite distanze e angoli dei parametri di EO non è materialmente fattibile, la procedura di orientamento avviene in maniera indiretta mediante metodi analitici che richiedono la conoscenza di un minimo numero di punti Pi di cui sono note le coordinate 3D. Le comuni procedure di calcolo possono essere suddivise in due gruppi: 1. Calcolo dei parametri di orientamento esterno basato sulle equazioni di collinearità mediante intersezione spaziale inversa (space resection): fornisce una soluzione non lineare con un minimo di tre punti di cui sono note le coordinate 3D. Richiede parametri approssimati per le incognite. 2. Calcolo dei parametri di orientamento esterno basato su relazioni di proiettività mediante la trasformazione lineare diretta (DLT, Direct Linear Transformation): fornisce una soluzione lineare con un minimo di sei punti di cui sono note le coordinate 3D. Ha il vantaggio di non richiedere approssimazioni iniziali per le incognite. 2.2.1 SPACE RESECTION La procedura di intersezione spaziale inversa richiede un numero n (con n ≥ 3) di punti di riferimento (control point, o punti fotografici d’appoggio PFA) non allineati e noti nelle tre coordinate spaziali oltre a un’approssimazione iniziale delle incognite. Le equazioni di collinearità (2.13) devono essere linearizzate in un intorno dei valori approssimati delle incognite. Ogni punto misurato nel sistema di coordinate fotocamera [x′i y′i –c], e noto nelle coordinate spaziali [Xi Yi Zi] fornisce due equazioni di osservazione. Se il numero di punti di riferimento è maggiore di tre il sistema di equazioni è iperdeterminato e va risolto con metodo ai minimi quadrati lineari (least square method, LSM) dove le osservazioni sono le coordinate immagine di tali punti e le incognite i sei parametri di orientamento esterno. E’ inoltre possibile considerare i parametri di orientamento interno e quelli addizionali come ulteriori incognite nell’applicazione del metodo analitico della space resection, tipicamente da un minimo di tre parametri quali x0, y0, c a un massimo di cinque parametri se si aggiungono anche le distorsioni radiali x0, y0, c, k1, k2, richiedendo quindi in totale un numero di control point - 52 - Capitolo 2 Orientamento e calibrazione di singole immagini rispettivamente di 5 e 6 che devono essere però distribuiti nello spazio allontanandosi dalla configurazione piana altrimenti il sistema di equazioni diviene singolare. Il modello funzionale delle equazioni di collinearità per la space resection è il seguente: x′Pi + ν xi′ = F ( X O ' , YO ' , ZO ' , ω , ϕ , κ , x0′ , c, ∆x′, X i , Yi , Zi ) y ′Pi + ν yi′ = F ( X O ' , YO ' , ZO ' , ω , ϕ , κ , y0′ , c, ∆y ′, X i , Yi , Zi ) (2.14) Il metodo prevede le seguenti osservazioni: − Control point: punti oggetto Pi noti nelle tre coordinate Xi, Yi, Zi e visibili sull’immagine in x′Pi , y ′Pi Dove le seguenti incognite sono determinate iterativamente come funzioni delle osservazioni: • parametri di orientamento esterno della singola X O ' , YO ' , Z O ' , ω , ϕ , κ camera (orientamento interno noto): • parametri di orientamento esterno e interno della X O ' , YO ' , ZO ' , ω , ϕ , κ , x0′ , c, ∆x′ singola camera (orientamento interno non noto): I valori approssimati delle incognite nelle equazioni (2.14) possono essere stimati oppure ricavati con metodi lineari della geometria proiettiva descritti nel successivo paragrafo. Per i parametri di orientamento interno generalmente è sufficiente conoscere almeno la focale e le dimensioni fisiche del sensore per le immagini digitali, x0′ , y0′ , ∆x′ possono essere posti nulli inizialmente. 2.2.2 TRASFORMAZIONE LINEARE DIRETTA (DLT) La DLT [Abdel-Aziz e Karara, 1971; Marzan e Karara, 1975; Young-Hoo Kwon, 1998] fornisce una soluzione lineare diretta per i parametri di orientamento esterno senza richiedere valori approssimati delle incognite e la definizione di un sistema di coordinate fotocamera. Fornisce i parametri di orientamento esterno e interno della fotocamera e nelle versioni modificate anche i parametri di distorsione radiale e tangenziale. Può essere - 53 - Capitolo 2 Orientamento e calibrazione di singole immagini per tale motivo molto utile per l’orientamento di immagini di cui non è noto l’orientamento interno come è per esempio il caso di foto storiche o cartoline. La DLT può essere fatta derivare dalle equazioni di collinearità (2.13) nella loro forma classica attraverso semplici passaggi. Utilizzando immagini digitali o scansioni di immagini analogiche, è necessario introdurre dei fattori di scala che considerino c differente nelle direzioni in x′ e in y′ così da rispettare il rapporto tra le dimensioni dei pixels [Young-Hoo Kwon, 1998]: xP′ − x0′ → λx ( x′P − x0′ ) y ′P − y0′ → λ y ( y P′ − y0′ ) xP′ − x0′ = − c r11 ( X − X O ' ) + r21 (Y − YO ' ) + r31 ( Z − ZO ' ) λx r13 ( X − X O ' ) + r23 (Y − YO ' ) + r33 ( Z − ZO ' ) c r12 ( X − X O ' ) + r22 (Y − YO ' ) + r32 ( Z − ZO ' ) y ′P − y0′ = − λ y r13 ( X − X O ' ) + r23 (Y − YO ' ) + r33 (Z − Z O ' ) (2.15) da cui attraverso alcuni passaggi si giunge a: xP′ = L1 X + L2Y + L3 Z + L4 L9 X + L10Y + L11Z + 1 L X + L6Y + L7 Z + L8 y ′P = 5 L9 X + L10Y + L11 Z + 1 dove: x0′ r31 − cx r11 D x′ r − c r L2 = 0 32 x 12 D x′ r − c r L3 = 0 33 x 31 D (c r − x r ) X + (cx r21 − x0′ r23 )YO ' + (cx r31 − x0′ r33 ) Z O ' L4 = x 11 0 13 O ' D y′ r − c r L5 = 0 13 y 12 D ′ y r −c r L6 = 0 23 y 22 D L1 = - 54 - (2.16) Capitolo 2 Orientamento e calibrazione di singole immagini L7 = L8 = y0′ r33 − c y r32 D (c y r12 − y0′ r13 ) X O ' + (c y r22 − y0′ r23 )YO ' + (c y r32 − y0′ r33 )Z O ' D r L9 = 13 D r L10 = 23 D r L11 = 33 D D = −( X O ' r13 + YO ' r23 + Z O ' r33 ) cx = c λx cy = c λy che rappresentano gli undici parametri della DLT 3-D standard. Volendo considerare anche la distorsione dell’obbiettivo le (2.16) diventano: xP′ − ∆x′ = L1 X + L2Y + L3 Z + L4 L9 X + L10Y + L11 Z + 1 L X + L6Y + L7 Z + L8 y ′P − ∆y′ = 5 L9 X + L10Y + L11 Z + 1 (2.17) dove ∆x′, ∆y ′ sono le componenti delle distorsioni lungo gli assi del sistema di coordinate immagine; questi possono essere espressi come somma delle distorsioni radiali e tangenziali: ( ( ) ) 2 ∆x′ = ( x′P − x0′ ) L12r ′2 + L13r ′4 + L14r ′6 + L15 r ′2 + 2 ( x′P + x0′ ) + L16 ( x′P − x0′ )( y′P − y0′ ) (2.18) 2 4 6 2 2 ′ − y0′ ) L12r ′ + L13r ′ + L14r ′ + L15 ( x′P − x0′ ) ( y ′P − y0′ ) + L16 r ′ + 2( y P ′ − y0′ ) ∆y′ = ( y P - 55 - Capitolo 2 Orientamento e calibrazione di singole immagini I termini L12 , L13 , L14 nelle (2.18) rappresentano i coefficienti k1 , k2 , k3 della distorsione radiale espressi nella (2.5) nel paragrafo relativo alle distorsioni delle lenti; i parametri L15 , L16 rappresentano i coefficienti P1, P2 della distorsione tangenziale. Il calcolo dell’orientamento esterno e interno della camera con DLT standard, avviene riordinando le (2.17): 1 1 xP′ = ( L1 X + L2Y + L3 Z + L4 − L9 xP′ X − L10 xP′ Y − L11 xP′ Z ) + ∆x′ D D 1 1 y P′ = ( L5 X + L6Y + L7 Z + L8 − L9 y′P X − L10 yP′ Y − L11 y P′ Z ) + ∆y ′ D D (2.18) D = L9 X + L10Y + L11Z + 1 Dove Le (2.17), con l’aggiunta delle distorsioni radiali e tangenziali divengono: 1 xP′ 1 X = D y P′ D 0 ( xP′ − x0′ ) r ′ 2 D Y 0 Z 0 1 0 ( xP′ − x0′ ) r ′ 4 0 Z 0 − xP′ X 1 − yP′ X 0 X 0 Y D ( xP′ − x0′ ) r ′ 6 − x′PY − yP′ Y − x′P Z − y′P Z D r ′ + 2 ( xP′ − x0′ ) D 2 2 ( y P′ − y0′ ) r ′2 D ( y P′ − y0′ ) r ′4 D ( y P′ − y0′ ) r ′6 D ( xP′ − x0′ )( yP′ − y0′ ) D L1 ( xP′ − x0′ )( yP′ − y0′ ) D L2 M 2 r ′2 + 2 ( y′P − y0′ ) D L 15 L16 ( (2.19) ) Le equazioni (2.19) riscritte per un numero sufficiente di punti doppi secondo il bilancio n equazioni ≥ n incognite permettono di determinare i coefficienti Li . Poiché il termine D è funzione dei parametri ricercati bisogna eseguire più iterazioni partendo da valori approssimati o ponendo inizialmente D=1. La DLT richiede un minimo numero di punti di riferimento pari a sei per quella standard e otto per quella estesa. La configurazione geometrica dei punti noti deve discostarsi da quella del piano altrimenti il sistema diviene singolare. L’estrazione dei parametri di orientamento interno ed esterno dai termini Li per la DLT a 11 parametri può essere effettuata secondo il seguente algoritmo (Luhmann et al, 2006): - 56 - Capitolo 2 Orientamento e calibrazione multi-immagine U= x0′ = U 2 ( L1 L9 + L2 L10 + L3 L11 ) y0′ = U 2 ( L5 L9 + L6 L10 + L7 L11 ) −1 2 2 L29 + L10 + L11 : coordinate del PPA ( ) : U 2 ( L25 + L26 + L27 ) − y0′2 cx = U 2 L12 + L22 + L32 − x0′2 cy = distanza principale (diverse scale in x′ e in y′) Elementi della matrice di rotazione R: r11 = r21 = r31 = U ( x0′ L9 − L1 ) cx U ( x0′ L10 − L2 ) cx U ( x0′ L11 − L3 ) cx r12 = r22 = r32 = U ( y0′ L9 − L5 ) cy r13 = UL9 U ( y0′ L10 − L6 ) cy U ( y0′ L11 − L7 ) r23 = UL10 r33 = UL11 cy Coordinate del centro della prospettiva O′: X O' L1 Y = − L O' 5 Z O ' L9 2.3 L2 L6 L10 L3 L7 L11 −1 L4 L 8 1 ORIENTAMENTO DI STEREO−COPPIE DI IMMAGINI Una coppia di immagini sulle quali è visibile parzialmente o interamente l’oggetto da misurare si definisce stereo-coppia. La geometria di presa più comune per questo tipo di immagini è quella ad assi paralleli che simula la visione stereoscopica naturale dell’uomo. Immagini scattate con questa geometria (o che si discosti poco da essa) - 57 - Capitolo 2 Orientamento e calibrazione multi-immagine possono essere facilmente osservate con dispositivi atti alla foto-interpretazione e alla misura in stereoscopia quali lo stereoscopio e i fotorestitutori (digitali e analitici). Stereocoppie formate da immagini molto convergenti non possono essere osservate in stereoscopia. Una stereo-coppia, di cui si conoscono gli orientamenti esterni delle due immagini rispetto a un sistema di riferimento globale (per esempio cartografico) o relativo a una delle due camere, costituisce la configurazione minima per la misura di punti oggetto in 3D. La zona dello spazio oggetto ricoperta da una o più stereo-coppie di immagini orientate si definisce modello fotogrammetrico. L’orientamento analitico di una stereocoppia può avvenire in due modi diversi: 1. Singole immagini: le immagini sono orientate singolarmente con uno dei due metodi illustrati nel paragrafo (2.2). Sono quindi necessari alcuni punti (non necessariamente in comune) di cui siano note le coordinate 3D. 2. Congiunto: le immagini sono orientate mediante relazioni analitiche che le legano tra loro. Il metodo più usato, soprattutto in passato, è quello denominato orientamento relativo che non richiede punti di coordinate note ma almeno la conoscenza di una distanza tra due punti oggetto visibili sul modello fotogrammetrico per poterlo dimensionare. Il secondo metodo denominato bundle adjustment consente l’orientamento simultaneo di n immagini che si basa sulla risoluzione di un unico sistema di equazioni equazioni di collinearità e vincoli aggiuntivi (minimi vincoli, ipervincolato, rete libera). Il bundle adjustment è un metodo molto flessibile, utilizzato oggi nella maggior parte dei software di fotogrammetria digitale. 2.3.1 GEOMETRIA EPIPOLARE In una stereo-coppia il piano che passa per i due centri della prospettiva e un punto oggetto Pi è denominato piano epipolare. Tale piano interseca le due immagini secondo due rette k′, k″ denominate rette epipolari. Se la stereo-coppia è convergente allora le rette epipolari sono convergenti (Fig. 2.3.9); se invece la stereo-coppia è ad assi paralleli le rette epipolari sono tutte parallele tra loro nella direzione della base b di presa (Fig. 2.3.10). Osservando le figure 2.3.9 e 2.3.10, in una stereo-coppia orientata ogni punto oggetto Pi si proietta sulle due immagini della coppia rispettivamente in Pi′, Pi′′ e i raggi ottici r′,r′′ passanti per questi giacciano sul piano epipolare di Pi. Un’altra proprietà - 58 - Capitolo 2 Orientamento e calibrazione multi-immagine importante della geometria epipolare riguarda le rette epipolari: collimato per esempio un punto P′i sull’immagine di sinistra, il punto omologo P″i deve giacere sulla retta epipolare k″. Figura 2.3.9 – Geometria epipolare per una stereo-coppia ad assi convergenti. Figura 2.3.10 – Geometria epipolare per una stereo-coppia ad assi paralleli. Questa proprietà della geometria epipolare è di notevole ausilio nella fase di ricerca dei punti omologhi nella fase di restituzione e image-matching (si veda paragrafo 2.5). - 59 - Capitolo 2 Orientamento e calibrazione multi-immagine 2.3.2 ORIENTAMENTO RELATIVO Nel paragrafo 2.1.4 è stato definito l’orientamento esterno come l’insieme dei sei parametri che stabiliscono i gradi di libertà del sistema fotocamera rispetto a un sistema di riferimento globale. L’orientamento relativo di una stereo-coppia è una procedura che consente di ricavare gli orientamenti esterni delle due immagini rispetto a un sistema di riferimento relativo a una di esse oppure comune a entrambe. Poiché la fotogrammetria è una tecnica che consente di effettuare misure 3D mediante il principio dell’intersezione in avanti, il modello fotogrammetrico definito in una stereo coppia, possiede una scala che dipende direttamente e linearmente dalla base di presa b. Se quindi alla base di presa viene associato il valore reale, ovvero la distanza tra i due centri di presa negli istanti di scatto, il modello fotogrammetrico ha scala 1:1 (per esempio è il caso dell’orientamento di una stereo-coppia con il metodo della space resection dove la base è nota perché sono note le coordinate dei due centri di presa). I gradi di libertà di una stereo-coppia nello spazio sono in totale 12 rispetto al sistema di riferimento globale (6 per ogni camera). Se il sistema di riferimento globale viene sostituito da uno relativo a una delle due camere allora i gradi di libertà divengono in totale 6. Se poi si trascura inizialmente il parametro di scala del modello i gradi di libertà divengono 5. L’orientamento relativo consiste quindi nell’individuare 5 parametri, rotazioni e/o traslazioni, che consentano di fissare i gradi di libertà delle due immagini di una stereocoppia, fissato un sistema di riferimento arbitrario. Gli orientamenti relativi sono di due tipi: 1. asimmetrico 2. simmetrico Nel primo caso il sistema di riferimento relativo è definito con l’origine nel centro di presa della prima camera e ha assi paralleli a quelli del sistema fotocamera. L’orientamento relativo consiste nel trovare due traslazioni (alla componente bx viene attribuito un valore arbitrario, in genere quello unitario) e tre rotazioni della seconda camera rispetto alla prima (Fig. 2.3.11a). Nel secondo caso il sistema è invece fissato con l’origine in una delle due immagini (generalmente quella di sinistra), ha asse x passante per il centro della prospettiva della seconda camera e asse y ortogonale all’asse ottico della prima fotocamera in modo che risulti per questa fissata una rotazione (ω1 = 0). L’orientamento relativo consiste nel trovare due rotazioni per la prima fotocamera e tre per la seconda dato b = 1 (Fig. 2.3.11b). - 60 - Capitolo 2 Orientamento e calibrazione multi-immagine Figura 2.3.11 – Sistemi di riferimento di coordinate immagine (sinistra) e di coordinate fotocamera (destra). La soluzione analitica dell’orientamento relativo si basa sulla geometria epipolare descritta nel paragrafo precedente. Quando una stereo-coppia è orientata i raggi ottici ri′, ri″ giacciono nel piano definito dal triangolo O′ Pi O″ altrimenti questi formano un tetraedro con la base b il cui volume è definito dal seguente prodotto misto: V= ( b × r′ ) ⋅ r′′ (2.20) La ricerca dei cinque parametri di orientamento relativo avviene mettendo a sistema cinque equazioni (2.20) ponendo la condizione V=0. Nella pratica questo si riduce a riconoscere cinque punti omologhi sulle due immagini (senza che sia necessario conoscerne le coordinate oggetto) e misurarne le coordinate immagine. L’equazione (2.20) deve essere linearizzata nell’intorno dei valori approssimati delle incognite. 2.4 ORIENTAMENTO E CALIBRAZIONE MULTI-IMMAGINE: BUNDLE ADJUSTMENT L’orientamento simultaneo di più immagini in fotogrammetria prende il nome di bundle adjustment (triangolazione aerea a stelle proiettive), un metodo analitico che si basa sulle equazioni di collinearità. Questo metodo consente di determinare contemporaneamente gli orientamenti esterni di tutte le immagini del modello fotogrammetrico attraverso un sistema sovradeterminato di equazioni di collinearità linearizzate nell’intorno di valori approssimati delle incognite e quindi risolto con il metodo di compensazione ai minimi quadrati lineari (Least Square Method, LSM). Il metodo consente di includere tra le incognite i parametri di orientamento interno insieme alle distorsioni. In tal caso - 61 - Capitolo 2 Orientamento e calibrazione multi-immagine orientamento interno e distorsioni assumono il nome di parametri addizionali (Additional Parameters, APs) mentre il metodo del bundle adjustment prende il nome di self calibration (autocalibrazione). In questo metodo le osservazioni da utilizzare nella compensazione sono costituite principalmente dalle coordinate dei punti omologhi sulle immagini a cui sono associati fasci di raggi (stelle proiettive) per ciascuna immagine. In aggiunta un minimo di almeno tre control point visibili sul modello fotogrammetrico sono necessari per eliminare il difetto di rango del sistema di equazioni. Il metodo consiste nel traslare e ruotare i fasci di raggi ottici, partendo dalle posizioni approssimate, in modo che tra di loro i raggi omologhi si intersechino al meglio e passino il più possibile per i control point (PFA). Il metodo prevede quindi le seguenti osservazioni: − Control point: Punti oggetto Pi noti nelle tre coordinate Xi, Yi, Zi e visibili su j immagini in x′P , y ′P , con j ≥ 1 ij ij (se j=1 il punto non appartiene al modello fotogrammetrico) − Tie point: Punti oggetto Pi di coordinate non note, visibili su j immagini in x′Pij , y ′Pij , con j ≥ 2 Considerando nuovamente il modello funzionale (2.14), nel caso di bundle adjustment generalizzato questo diviene: xP′ij +ν xi′ = F ( X O'j , YO ' j , Z O ' j , ω j , ϕ j , κ j , x0′ k , ck , ∆xk′ , X i , Yi , Z i ) y ′Pij + ν yi′ = F ( X O ' j , YO ' j , Z O ' j , ω j , ϕ j , κ j , y0′ k , ck , ∆yk′ , X i , Yi , Z i ) (2.21) Dove: i: indice del punto Pi j: indice dell’immagine k: indice della camera Nelle (2.21) k indica la possibilità di usare diverse camera oppure la stessa con un differente sistema di lenti o ancora stessa camera e obbiettivo ma con impostazioni di messa a fuoco o focale differenti (obbiettivi zoom). - 62 - Capitolo 2 Orientamento e calibrazione multi-immagine Nel metodo del bundle adjustment le seguenti incognite sono determinate iterativamente come funzioni delle osservazioni: • parametri di orientamento esterno delle immagini e coordinate oggetto dei Tie Point X O'j , YO ' j , Z O ' j , ω j , ϕ j , κ j , X i , Yi , Z i (orientamento interno noto con k =1, approccio denominato block invariant) • parametri di orientamento esterno e interno delle X O'j , YO ' j , Z O ' j , ω j , ϕ j , κ j , immagini, coordinate oggetto dei Tie Point x0′ , c, ∆x′, (orientamento interno non noto con k =1, X i , Yi , Z i approccio denominato block invariant): • parametri di orientamento esterno e interno delle X O'j , YO ' j , Z O ' j , ω j , ϕ j , κ j , immagini, coordinate oggetto dei Tie Point x0′ k , ck , ∆xk′ , (orientamenti interni non noti con k = n, X i , Yi , Z i approccio denominato frame invariant): Per quanto concerne la conoscenza di valori approssimati delle incognite nelle equazioni (2.21) vale quanto detto nel paragrafo 2.2.1 per la space resection. La stima delle coordinate oggetto dei tie point può avvenire, in questo caso, orientando relativamente alcune coppie di immagini e applicando le equazioni di collinearità (2.11) per intersezione in avanti nei modelli fotogrammetrici relativi. Successivamente le coordinate devono essere roto-traslate con un trasformazione conforme spaziale (similarity transformation, Helmert a sette parametri) per riferirle al sistema di riferimento globale oggetto. Per i parametri di orientamento interno generalmente è sufficiente conoscere almeno la focale e le dimensioni fisiche del sensore per le immagini digitali mentre x0′ , y0′ , ∆x′ possono essere posti nulli inizialmente. Un’importante caratteristica che accomuna il metodo del bundle adjustment e di tutti quelli che usano una compensazione ai minimi quadrati (space resection, DLT, orientamento relativo) è dato dalla possibilità di analizzare statisticamente i risultati del calcolo quali per esempio una stima della precisione teorica, individuazione e eliminazione di possibili errori grossolani nelle osservazioni ecc.. La configurazione geometrica dell’insieme di immagini e di punti prende il nome di configurazione della rete (network configuration). Da diversi studi effettuati circa la - 63 - Capitolo 2 Orientamento e calibrazione multi-immagine configurazione della rete risulta che [Remondino e El-Hakim, 2006, Fraser, 2001; Gruen e Beyer, 2001]: • l’accuratezza di una rete aumenta con l’aumentare del rapporto tra la base di presa b delle stereo-coppie e la distanza di queste dall’oggetto (intersezione tra i raggi prossima a 90°) e con l’uso di stereo-coppie convergenti piuttosto che ad assi paralleli; • l’accuratezza di una rete aumenta significativamente con il numero di immagini in cui un punto appare; • l’accuratezza aumenta con il numero di punti misurati per immagine. Comunque l’aumento non è significante se la configurazione geometrica è forte e i punti sono ben definiti (per esempio da target artificiali) e ben distribuiti sulle immagini; • La risoluzione dell’immagine (numero di pixel e potere risolvente degli obbiettivi) influenza l’accuratezza nel calcolo delle coordinate oggetto soprattutto se i punti misurati sulle immagini sono naturali mentre è meno significante per punti ben definiti da target. Inoltre da studi effettuati sulla calibrazione con metodo del bundle adjustment (self calibration) risulta che: • la calibrazione di fotocamere è affidabile solo quando la configurazione geometrica è favorevole, con immagini convergenti che riprendono un numero notevole di punti spazialmente distribuiti (testfield 3D) e ben definiti da target; • l’utilizzo di punti oggetto solo planimetrici (testfield 2D) per la calibrazione è consentito solo se le immagini sono acquisite a differenti distanze per consentire una stima più affidabile nel calcolo della distanza principale della camera; • almeno due o tre immagini dovrebbero essere acquisite ruotate di 90 gradi per consentire una stima più affidabile nel calcolo delle coordinate immagine del PPA. - 64 - Capitolo 2 2.5 Texture mapping CORRISPONDENZE TRA IMMAGINI Da quanto visto nei paragrafi precedenti la misurazione di oggetti reali con tecniche fotogrammetriche è riconducibile a un problema di individuazione di corrispondenze (punti e primitive omologhi) tra immagini che attraversa le fasi di calibrazione, orientamento e restituzione di punti. L’orientamento e la calibrazione di immagini con il metodo del bundle adjustment o l’orientamento relativo richiedono un minimo numero di punti omologhi collimati sulle immagini così come disponendo di una stereo-coppia orientata è possibile determinare le coordinate 3D di qualsivoglia punto del modello fotogrammetrico ben riconoscibile sulle due immagini. L’individuazione delle entità omologhe (generalmente punti) tra due o più immagini può avvenire con le seguenti modalità: • manuale: i punti omologhi sono riconosciuti e collimati sulle immagini sotto la completa supervisione di un operatore. Se le stereo-coppie sono ad assi paralleli è possibile effettuare le misure direttamente in stereoscopia (Fig. 2.5.12). Il metodo è molto dispendioso in termini di tempo ma è molto affidabile. L’accuratezza nella collimazione di punti con questo metodo su immagini digitali può raggiungere 1/4–1/6 pixel su target artificiali e 1–1/3 pixel per target naturali. Figura 2.5.12 – Sistemi di misura stereoscopica di immagini analitici (a sinistra) e digitali (a destra). • Manuale assistita e semiautomatica: metodi manuali assistito e semiautomatico sono quelli che usano la geometria epipolare (paragrafo 2.3.1) per la collimazione di punti che giacciono su entità lineari dell’oggetto, intersecate perpendicolarmente dalle linee epipolari (Fig. 2.5.13) (accuratezza molto influenzata dalla definizione del target naturale) oppure quelli che fanno uso di - 65 - Capitolo 2 Texture mapping target artificiali codificati riconosciuti e/o collimati semiautomaticamente. L’operatore può fornire soltanto un’approssimazione della posizione e dimensione del target e il software provvede alla collimazione automatica e all’associazione del codice se il target è codificato. La corrispondenza con le altre immagini in cui lo stesso target è presente è stabilita quindi dal codice, altrimenti è l’operatore a riconoscere i target omologhi. Figura 2.5.13 – Metodi di misura manuale assistita (Photomodeler 5.2.3) con linea epipolare in rosso sovrimposta all’immagine di destra dopo aver collimato il punto su quella di sinistra. • Un altro metodo semiautomatico fa uso di tecniche di correlazione lineare tra le immagini come la Cross Correlation e il Least Square Matching [Gruen, 1985]. L’operatore collima un punto sulla prima immagine e il software provvede a individuare l’omologo sulla seconda utilizzando le caratteristiche radiometriche dell’intorno del punto collimato sulla prima immagine. Il metodo è in assoluto il più affidabile e meno dispendioso in termini di tempo rispetto a quello completamente manuale. L’accuratezza nella collimazione dei punti può raggiungere anche 1/50 pixel. • Automatica: è generalmente usata sia per l’individuazione di punti d’interesse (target codificati e non, punti naturali) e per la ricostruzione densa della superficie degli oggetti. Viene effettuata con tecniche di image matching come - 66 - Capitolo 2 Texture mapping la cross-correlation (auto-correlazione lineare), il Least Square Matching, interest operator e edge detector. L’accuratezza nella collimazione dei punti può raggiungere anche 1/50 pixel. Per oggetti reali particolarmente complessi come nel caso di modellazione 3D in architettura, in cantieristica navale [Menna e Troisi, 2007, Fiani et al., 2008], i metodi automatici non sono ancora del tutto affidabili a causa della presenza di ostruzioni che impediscono la visibilità dei punti oggetto nelle immagini. Target naturali o artificiali potrebbero risultare così parzialmente ostruiti da altri oggetti con conseguenti errori nella collimazione automatica, difficili da individuare in grandi progetti di modellazione 3D fotogrammetrica. In questi casi è da preferire un approccio semiautomatico supervisionato da un operatore. 2.5.1 COLLIMAZIONE SEMIAUTOMATICA DI TARGET CIRCOLARI I target circolari (FIg. 2.5.11) ben si prestano al riconoscimento automatico e alla collimazione automatica fotogrammetrica tramite algoritmi di image processing (mentre non lo sono per la collimazione manuale). L’algoritmo più comune è il centroide locale che calcola la media pesata dei valori di grigio delle coordinate dei pixel (il baricentro geometrico del target). Le coordinate del centro M di un target circolare possono essere individuate con le seguenti relazioni: n xM = ∑ ( x ⋅T ⋅ g ) i i =1 n ∑ (T ⋅ g ) i =1 0 T = 1 0 T = 1 i i n yM = ∑ ( y ⋅T ⋅ g ) i i =1 i n ∑ (T ⋅ g ) i =1 i se g < t se g ≥ t target circolari retroriflettenti se g > t se g ≤ t target circolari neri su sfondo chiaro (2.22) Dove T è una funzione utilizzata per decidere se un pixel di luminosità g deve o meno essere utilizzato nel calcolo e dipende quindi da un valore soglia t. Per un target circolare nero dovranno entrare a far parte del calcolo tutti quelli che avranno una bassa luminosità dei pixel mentre dovranno essere scartati tutti quelli con un valore di luminosità g>t; per - 67 - Capitolo 2 Texture mapping target circolari retro-riflettenti viceversa. Un operatore in genere seleziona manualmente un’area che include il target circolare e applicando le (2.22) l’algoritmo determina le coordinate del centro del target circolare. Figura 2.5.11 – Alcuni target circolari codificati. In generale target circolari ben dimensionati (diametro maggiore di 5 pixel) sono facilmente riconoscibili e collimabili automaticamente. Per applicazioni in cui è richiesta un’elevata accuratezza nelle misure è necessario inoltre considerare il fattore di eccentricità. Una circonferenza infatti si proietta su un immagine come una ellisse il cui centro non corrisponde al centro del target circolare. Il metodo del centroide consente di determinare il centro dell’ellisse che non corrisponde quindi a quello del target circolare. L’entità dell’eccentricità dipende tra gli altri fattori dalla dimensione del target, dall’angolo tra l’asse ottico e il piano del target (è nulla a 90°, max a 60°) dalla scala immagine, ecc. L’effetto dell’eccentricità è estremamente complesso da analizzare e si assume che venga compensato dai parametri di orientamento interno ed esterno della camera durante il calcolo del bundle adjustment. 2.5.2 METODI DI IMAGE MATCHING I metodi di image matching sono utilizzati per individuare le corrispondenze tra punti omologhi su due o più immagini utilizzando funzioni di similarità. L’intorno del punto di riferimento è costituito generalmente da una finestra f rettangolare di pixel di cui il punto di riferimento ne è il centro. Il punto sulla prima immagine può essere scelto manualmente da un operatore oppure automaticamente (per esempio campionando l’immagine con passo regolare, oppure con interest operator). - 68 - Capitolo 2 Texture mapping Un metodo molto comune è quello che usa il coefficiente di cross-correlation. La procedura calcola una misura di similarità tra una finestra sull’immagine di riferimento f ( x, y ) (reference window) e altre finestre gi ( x, y ) (search window) sulle restanti immagini attraverso il calcolo del coefficiente di cross-correlation normalizzato basato sulle deviazioni standard e la covarianza: σ fg ρ fg = σ f ⋅σ g : coefficiente di cross-correlation (2.23) Dove σ fg = ∑ ( f σf = σg = i −f )( g − g ) i n ∑( f i −f ) 2 n ∑(g i −g ) covarianza dei livelli di grigio delle due finestre f, g deviazioni standard delle due finestre f, g 2 n e f ,g : n: media aritmetica dei livelli di grigio nelle due finestre f, g numero di pixel nelle due finestre f, g Nel metodo di cross-correlation la finestra di riferimento f viene fatta scorrere sull’immagine in cui si vuole trovare il punto omologo memorizzando man mano i coefficienti di correlazione. Un alto coefficiente di correlazione indica un’elevata similarità. Il punto con coefficiente di correlazione massimo è considerato il punto omologo. Per ridurre il tempo di calcolo e evitare inoltre errori grossolani e falsi punti omologhi è possibile vincolare la ricerca alle linee epipolari come mostrato nel paragrafo 2.3.1. La figura 2.5.12 mostra un esempio di oggetto misurato con tecniche di image matching basato sulla cross-correlation. Sull’immagine di destra i punti sono colorati in funzione del massimo coefficiente di cross-correlation (2.23) calcolato tra più stereo-coppie. La colorazione in scala di grigi indica in bianco punti con alto valore del coefficiente di cross-correlation, in nero punti con basso valore del coefficiente di correlazione. Dal confronto tra l’immagine reale della pala e quella sintetica dei coefficienti di correlazione - 69 - Capitolo 2 Texture mapping è possibile comprendere che, se la finestra f di riferimento include un’area con pixel dai valori di grigio simili tra loro il coefficiente di cross-correlation risulta molto basso rendendo di conseguenza difficile la corretta individuazione delle corrispondenze immagine. Figura 2.5.12 – Immagine di un elica modellata con tecniche fotogrammetriche (a sinistra) insieme ai punti derivanti dal processo di image matching basato sulla cross-correlation. La colorazione in scala di grigio dei punti è proporzionale al valore del coefficiente di cross correlation (bianco = 1). Metodi di image matching basati sulla cross-correlation consentono di ottenere un’accuratezza di 1/10 pixel nella misura di punti omologhi. Un altro metodo di image matching è quello denominato Least Square Matching [Gruen, 1985] che impiega una trasformazione geometrica e radiometrica iterativa tra la reference window f e la search window g al fine di minimizzare la somma dei quadrati delle differenze tra i pixel delle due immagini. L’assunzione che viene fatta è che entrambe le finestre f,g siano sufficientemente piccole da corrispondere ad aree piane dell’oggetto. Sotto queste ipotesi la trasformazione geometrica iterativa tra le due finestre può essere considerata con buona approssimazione quella affine (trasformazione piana a sei parametri che comprende due rotazioni, due traslazioni, un parametro di scala e un parametro che considera la non ortogonalità degli assi). Ai sei parametri geometrici sono aggiunti uno o due ulteriori parametri radiometrica che vengono stimati con compensazione ai minimi quadrati lineari utilizzando i valori di luminosità dei pixel delle due finestre come osservazioni. Il modello matematico non è lineare e deve essere quindi linearizzato in un intorno dei valori approssimati delle incognite ma ha una grande ridondanza visto che tutti i pixel nelle finestre di ricerca sono usati come osservazioni per stimare sei parametri (una finestra di ricerca di 21x21 pixel genera 441 osservazioni per 8 - 70 - Capitolo 2 Texture mapping incognite). Come tutti i metodi ai minimi quadrati consente una stima dell’accuratezza nella misura delle corrispondenze dall’analisi della matrice di varianza-covarianza e la possibilità di individuare e rimuovere possibili errori grossolani. L’accuratezza ottenibile con il metodo Least Square Matching può raggiungere anche 1/100 di pixel. Per minimizzare il tempo computazionale e ridurre la possibilità di errori grossolani è possibile vincolare il centro della finestra di ricerca g alle linee epipolari [Gruen, 1985; Baltsavias, 1991]. 2.6 TEXTURE MAPPING Come già ampiamente descritto nel capitolo uno, una volta effettuate le misure 3D, indipendentemente dalla tecnica utilizzata (fotogrammetria, laser scanning, radar, sonar, ecc.) il dato spaziale deve essere strutturato. Generalmente da una nuvola di punti (point cloud) si passa a entità geometrica più o meno complesse come le superfici poligonali o quelle NURBS. Il modello digitale tridimensionale descrive in questo modo soltanto le proprietà geometriche dell’oggetto e non quelle qualitative. Il texture mapping consente di associare informazioni qualitative, generalmente fotografiche al modello tridimensionale tramite il modello matematico delle equazioni di collinearità. Se il modello tridimensionale è generato con tecniche di fotogrammetria digitale (per esempio image matching), allora le immagini sono già orientate e le posizioni x′P, y′P immagine dei punti X, Y, Z del modello 3D sono immediate utilizzando le equazioni di collinearità (2.13). Se il modello è generato con altre tecniche ma si dispone di una o più immagini è possibile calcolare l’orientamento interno e quello esterno delle immagini rispetto al sistema di riferimento del modello 3D se sono riconoscibili sul modello e sulle immagini un numero sufficiente di punti per utilizzare i metodi descritti nei paragrafi 2.2.1 e 2.2.2. Se il modello 3D è costituito solo da punti è possibile associare ad ognuno di questi un colore R,G,B; se il modello è strutturato secondo una superficie poligonale è possibile eseguire una trasformazione prospettica tra piani immagine e piano dei poligoni (triangoli, quadrilateri, ecc.). Il software di visualizzazione del modello con texture deve però conoscere le coordinate dei punti oggetto e le rispettive coordinate immagine. Nelle figura 2.5.13 è mostrato un esempio di texture mapping di punti e di superfici poligonali generato con il software LAIM sviluppato dal sottoscritto in ambiente MATLAB. - 71 - Capitolo 2 Texture mapping Figura 2.5.13 – Texture mapping di punti ( in alto, porzione non editata) e di superfici poligonali (in basso, modello editato) di una barca a vela modellata con tecniche di image matching. Qualora l’oggetto sia strutturalmente complesso con superfici caratterizzate da numerose discontinuità, è possibile che alcune sue parti non siano visibili su un'unica immagine. Se sono disponibili più immagini dello stesso oggetto è possibile voler scegliere quella in cui l’oggetto sia meglio visibile o non presenti ostruzioni. In tali casi è necessario effettuare un’analisi di visibilità dell’oggetto sulle n immagini disponibili. L’uso di numerose immagini comporta in genere problemi radiometrici dovuti alle differenti condizioni di illuminazione e inclinazione delle superfici rispetto alla camera. Maggiori dettagli sulle problematiche inerenti il texture mapping sono descritte in [Niem - 72 - Capitolo 2 Texture mapping and Broszio, 1995; Debevec et al., 1996; Pulli et al., 1998; Rocchini et al., 2002; Beauchesne and Roy, 2003; Kim and Pollefeys, 2004; Remondino and Niederoest, 2004]. - 73 - Capitolo 3 Sistemi ottici attivi a scansione Modellazione 3D con sensori ottici attivi 3.1 INTRODUZIONE 74 3.2 SISTEMI OTTICI ATTIVI A SCANSIONE 74 3.3 TECNICHE DI ALLINEAMENTO E REGISTRAZIONE DI NUVOLE DI PUNTI 85 3.4 IL SISTEMA AIRBORNE LASER SCANNING 89 3.1 INTRODUZIONE La misura di superfici e la modellazione 3D di oggetti di diverse dimensioni sono oggi generalmente ottenute con tecniche a scansione tridimensionale mediante sistemi laser scanning o a proiezione di luce strutturata, comunemente denominati sensori attivi per distinguerli dai metodi fotogrammetrici che usano sensori passivi. Negli ultimi venti anni c’è stato un enorme progresso nello sviluppo di digitalizzatori attivi (scanner) per la misura senza contatto della superficie di oggetti ricevendo una grande attenzione, anche dai non esperti del settore di rilievo e rappresentazione, nella documentazione e modellazione tridimensionale. Potenti algoritmi e software per il processamento di dati spaziali hanno dimostrato che lo studio e l’analisi metrica di oggetti reali è molto più affidabile utilizzando modelli tridimensionali piuttosto che bidimensionali [Blais, 2004]. Nella loro configurazione standard per il rilievo di oggetti in applicazioni terrestri, tali sistemi sono molto facili da usare fornendo velocemente e direttamente le coordinate 3D di una o più nuvole dense di punti che rappresentano l’oggetto d’interesse da uno o più punti di vista. I sensori attivi sono ciononostante ancora molto costosi e spesso non consentono di registrare informazioni qualitative perché non dispongono di un sistema di acquisizione immagine. In tali casi è necessario integrare con un sistema fotografico da calibrare e orientare per via fotogrammetrica con le procedure descritte nel capitolo 2. 3.2 SISTEMI OTTICI ATTIVI A SCANSIONE Negli ultimi anni sono stati sviluppati numerosi sistemi ottici attivi a scansione basati su onde elettromagnetiche. Una descrizione dettagliata e approfondita esula dallo scopo di questo lavoro, maggiori dettagli sono presenti in [Blais, 2004]. In generale i sistemi attivi sono suddivisibili in due classi: - 74 - Capitolo 3 Sistemi ottici attivi a scansione 1. distanziometrici: effettuano misure 3D attraverso l’analisi di un impulso laser che campiona con passo regolare la superficie dell’oggetto. Le coordinate polari dei punti della superficie dell’oggetto sono rilevate in funzione della distanza e di angoli misurati rispetto al sistema strumentale (Fig. 3.2.1). La distanza può essere misurata in funzione del tempo di volo (TOF, time of flight ) impiegato da un impulso laser, emesso dallo strumento, per compiere il tragitto emettitore strumentale-oggetto-trasduttore strumentale (TOF, Time of Flight) oppure in funzione della differenza di fase. Sono strumenti generalmente utilizzati per la misura di oggetti di grandi dimensioni in un range di distanze comprese tra un metro e qualche chilometro con accuratezza, funzione della distanza, compresa tra qualche millimetro e alcuni centimetri. 2. triangolatori: effettuano misure 3D secondo il principio dell’intersezione in avanti semplice o multipla attraverso l’analisi un un singolo punto di luce (1D), una linea o una banda luminosa (2D) o un’area (2.5D). I sistemi attivi a triangolazione sono generalmente costituiti da un sensore passivo (fotocamera digitale) e un emettitore attivo (laser o proiettore di luce strutturata) posti a una distanza nota tra loro (base). Operano generalmente in un range di distanze dall’oggetto compreso tra 10mm-5m. Basandosi infatti sul principio dell’intersezione in avanti l’accuratezza delle misure degrada in funzione del quadrato della distanza dall’oggetto per cui questi strumenti non consentono in genere di rilevare oggetti a una distanza maggiore 10 m (con una base di 1 m). L’accuratezza nella misura dei punti è generalmente compresa in un range 10-100 micron. 3.2.1 LASER SCANNER DISTANZIOMETRICI I laser scanner distanziometrici sono sensori misuratori attivi di tipo opto-elettromeccanico che operano con banda di funzionamento tipicamente nell’infrarosso vicino. Generalmente le lunghezze limite dell’intervallo della banda vanno dai 1064 nm ai 1540 nm ma non mancano nelle applicazioni di rilevamento batimetrico sensori operanti con lunghezze d’onda caratteristiche di 530 nm (corrispondenti al Blu-Verde dello spettro del visibile), data la loro capacità di penetrazione dell’acqua. Insieme alle coordinate 3D dei punti alcuni strumenti registrano per ogni punto l’intensità con cui il raggio laser ritorna al trasduttore, funzione delle proprietà fisiche e geometriche dell’oggetto (rugosità della superficie, materiale di cui è costituito, ecc.) e dell’angolo con cui il raggio colpisce la - 75 - Capitolo 3 Sistemi ottici attivi a scansione superficie. Inizialmente questi strumenti (TOF) furono sviluppati per la generazione di modelli digitali tridimensionali del terreno nell’ambito di applicazioni cartografiche da piattaforme aeree (Airborne Laser Scanning) ma il loro utilizzo si sta diffondendo sempre di più nel settore del rilievo terrestre, dove vengono denominati laser scanner terrestri (TLS, Terrestrial Laser Scanner), grazie soprattutto alla loro versatilità. I modelli che misurano la distanza in funzione della differenza di fase sono più accurati e molto più rapidi (fino a 500KHz) rispetto ai modelli TOF ma risentono molto dell’assorbimento dell’energia diffusa dalla superficie dell’oggetto e hanno una gittata inferiore. Altri modelli ancora usano la modulazione di frequenza e l’interferometria nella misura della distanza tra lo strumento e l’oggetto, sono i più accurati ma in assoluto anche i più costosi. I laser distanziometrici sono strumenti monoscopici, ovvero che consentono di effettuare misure 3D da un solo punto di stazione strumentale e per tale motivo subiscono in minore entità le problematiche dovute alle ostruzioni presenti con oggetti dalle superfici strutturalmente complesse. Altre tecniche che si basano sulla triangolazione (fotogrammetria, sistemi a scansione per triangolazione) richiedono infatti che l’oggetto sia visibile da almeno due punti di vista differenti con problemi di ostruzioni ben maggiori ( si pensi al caso di rilievo fotogrammetrico aereo di centri storici per i quali le strade, molto strette sono spesso visibili su una sola immagine a causa dall’effetto prospettico degli edifici). Figura 3.2.1 – Sequenza di immagini raffiguranti un impulso laser nel percorso scanner-oggetto-scanner in un laser scanner distanziometrico. - 76 - Capitolo 3 Sistemi ottici attivi a scansione I laser scanner distanziometrici rilevano le coordinate tridimensionali cartesiane x*, y*, z * rispetto al sistema strumentale O*x*y*z* a partire da misure angolari e di distanza. Osservando la figura 3.2.2 si ha: x* = ri spe ⋅ sin(ζ ) ⋅ cos(a ) y * = ri spe ⋅ sin(ζ ) ⋅ sin(a) z = ri * spe (3.1) ⋅ cos(ζ ) Che in forma matriciale diviene: las ri * = Rspe ⋅ ri spe i (3.2) Dove: ri spe : è la distanza tra il centro strumentale (lo specchio rotante) e il punto; a: angolo orizzontale strumentale; ζ : angolo verticale strumentale Figura 3.2.2 – Sistema di riferimento strumentale e grandezze misurate ( ri spe , a, ζ ) La misura della distanza negli strumenti che utilizzano il principio del tempo di volo (TOF) avviene in funzione del tempo ∆t impiegato dall’impulso laser per percorrere alla velocità della luce il percorso emettitore-oggetto-trasduttore, pari quindi a due volte la distanza tra l’oggetto e lo strumento. La misura della distanza avviene quindi in funzione della misura del tempo secondo la seguente relazione: O* P* = ri spe = c ⋅ ∆t 2 (3.3) - 77 - Capitolo 3 Sistemi ottici attivi a scansione Oppure, per gli scanner che utilizzano il principio della differenza di fase ∆ϕ , la seguente relazione: O* P* = ri spe = n ⋅ λ ∆ϕ λ + ⋅ 2 2π 2 (3.4) Dove n: ambiguità di fase; λ: lunghezza d’onda; ∆ϕ : differenza di fase; Sono stati effettuati negli ultimi anni diversi test di laser scanner distanziometrici terrestri [Johansson, 2002, Lichti et. al., 2000, 2002, Balzani et. al., 2001] al fine di studiarne le caratteristiche di accuratezza e affidabilità. Uno dei test più completi è quello eseguito all’ Institute for Spatial Information and Surveying Technology di Mainz (Germania) [Boehler et. al., 2003]. Dai test si evince che le specifiche di accuratezza dichiarate dalle case produttrici dei laser scanner non sono veritiere o comunque non sono esaustive. Molti di questi strumenti sono costruiti o assemblati in piccole serie (dato il loro costo) e ne consegue che ognuno differisce dagli altri. Ogni nuvola di punti misurata da un laser scanner contiene un numero considerevole di errori grossolani che non consente di fornire un prodotto finale dall’affidabilità garantita. Nei test sono stati messi a confronto diversi laser scanner di cui sono state analizzate alcune caratteristiche strumentali e problematiche fondamentali: 1. accuratezza angolare : l’impulso laser è deviato da un piccolo dispositivo rotante (specchio o prisma) che lo direziona (in genere l’angolo ζ in figura 3.2.1) verso l’oggetto. Il secondo angolo (in genere a in figura 3.2.1), perpendicolare al primo, può essere fatto variare utilizzando un asse meccanico rotante (per esempio testa rotante negli scanner panoramici) o un altro dispositivo ottico rotante. Le letture di questi angoli sono usate per calcolare le coordinate 3D dei punti secondo la (3.1). Ogni errore causato da tali dispositivi angolari si ripercuote come errore perpendicolare alla direzione di propagazione dell’impulso laser. L’errore può essere individuato confrontando le distanze ricavate dalla nuvola di punti dello scanner con distanze note tra oggetti (per esempio sfere) posti a uguali distanze dallo scanner e misurate con tecniche di rilievo più accurate. - 78 - Capitolo 3 Sistemi ottici attivi a scansione 2. Accuratezza nella misura della distanza: gli errori nella misura della distanza sono la somma di un errore di scala (funzione della distanza) e di un valore costante denominato errore zero. Gli errori nella misura di distanze non possono essere individuati con misura diretta se il centro strumentale dello scanner non è in qualche modo rilevabile (come accade molti scanner). In tali casi nel test l’accuratezza nella misura della distanza è stata analizzata come differenza di distanze tra target planimetrici e volumetrici (cilindri e sfere) misurati con tecniche di rilievo più accurate. L’errore zero influenza la misura delle distanze tra due punti che sono collocati alla stessa distanza dallo scanner. La distanza tra questi due punti, misurata indirettamente con lo scanner, subisce l’influenza dell’errore zero che diviene nullo quando i due punti sono nella stessa direzione dallo scanner, massimo (il doppio) quando sono a 180° rispetto allo scanner, uguale all’errore zero quando questi sono a 60° rispetto allo scanner. Ciò vuol dire che la misura dell’errore zero può essere ottenuta come differenza tra la distanza misurata, mediante la nuvola di punti, tra due target posti a 60° tra loro, e la distanza nota da altre tecniche più accurate. Poiché gli errori sistematici variano in funzione della riflettività del materiale, non è possibile determinare un fattore di correzione universale per l’errore zero. Motivo principale per cui non è possibile ottenere una calibrazione generale per i laser scanner. Un altro parametro importante nella misura della distanza è la rumorosità (errori grossolani e precisione) di cui si può avere una stima effettuando la scansione di un oggetto piano e calcolando il piano approssimante ai minimi quadrati lineari la nuvola di punti. La deviazione standard ottenuta dalle statistiche del procedimento ai minimi quadrati fornisce una stima della rumorosità nella misura della distanza. 3. Risoluzione: il termine risoluzione assume talvolta un significato ambiguo. Dal punto di vista dell’utente la risoluzione descrive “l’abilità” di individuare piccoli caratteristiche e dettagli dell’oggetto. Da un punto di vista tecnico due specifiche tecniche dei laser scanner determinano questa “abilità”, il più piccolo incremento angolare tra due successivi punti e la dimensione dell’impronta dell’impulso laser sull’oggetto, funzione della divergenza del raggio laser (a sua volta funzione della messa a fuoco) delle lenti espressa in mrad. . Nel test la risoluzione è stata studiata costruendo un particolare target mostrato in figura - 79 - Capitolo 3 Sistemi ottici attivi a scansione 3.2.3 insieme ad alcune sezioni delle nuvole di punti misurate con gli scanner testati. Target di dimensioni (300x300x50) mm Pannello anteriore con fessure che si restringono verso il centro. Larghezza max fessure: 30 mm Figura 3.2.3 – Test di risoluzione degli scanner 4. Effetto sui bordi: anche quando il raggio laser è messo a fuoco sull’oggetto (alcuni laser scanner dispongono di un sistema ottico con messa a fuoco automatica), l’impronta laser (spot) ha una certa dimensione. Quando l’impronta colpisce il bordo di un oggetto, una sua parte sarà riflessa dalla superficie delimitata dal bordo e la restante parte sarà riflessa da superfici adiacenti a distanza differente o non riflessa affatto. L’effetto risultante è un errore sia sulla distanza misurata dallo scanner (da pochi millimetri ad alcune decimetri) sia sul poszionamento del punto. Gli oggetti appaiono rappresentati nel sistema strumentale più larghi di quello che sono nella realtà perché il punto è registrato nella posizione angolare del centro del raggio anche se l’oggetto è colpito soltanto dalla parte periferica dell’impronta. Minore è la dimensione - 80 - Capitolo 3 Sistemi ottici attivi a scansione dell’impronta laser (sistemi con messa a fuoco automatica), minore è l’effetto di bordo. 5. Influenza della riflettività della superficie: i laser scanner sono legati al segnale che torna indietro al trasduttore dalla superficie dell’oggetto. La potenza del segnale è influenzato tra gli altri fattori dalla distanza, condizioni atmosferiche, angolo di incidenza e dal potere riflettente della superficie (albedo). Superfici di colore bianco sono altamente riflettenti, superfici nere assorbono notevolmente l’energia. L’effetto delle superfici di diverso colore è funzione delle caratteristiche spettrali del raggio laser (lunghezza d’onda del verde, rosso, infrarosso). E’ stato osservato durante i test che superfici di diverso colore comportano errori sistematici nella misura della distanza in alcuni casi anche diverse volte la deviazione standard dichiarata dai costruttori, alcuni di questi in zone di passaggio tra superfici di colore differente. 6. Condizioni ambientali: temperatura, condizioni atmosferiche (pressione, umidità) e radiazione luminosa (luce del sole, lampade) in generale influiscono sulla misura della distanza degradandone l’accuratezza. 3.2.2 SISTEMI OTTICI 3D A TRIANGOLAZIONE I sistemi ottici attivi a triangolazione funzionano secondo il principio dell’intersezione in avanti semplice o multipla e sono costituiti, nelle configurazioni più comuni, da un emettitore attivo di onde luminose, tipicamente a impulsi laser o a proiezione di luce strutturata e da uno o più sensori passivi (CCD o CMOS) posti ad una distanza nota (base). Questi sistemi hanno un funzionamento molto simile a quello fotogrammetrico con la differenza che una fotocamera è sostituita da un emettitore di luce(Fig. 3.2.4). Figura 3.2.4 –Scansione di oggetti con luce strutturata (sinistra) e linea laser (destra). - 81 - Capitolo 3 Sistemi ottici attivi a scansione Osservando la figura 3.2.5, nel caso semplificato di un oggetto nel piano Oxz strumentale e impulso luminoso puntiforme, le coordinate 3D di un punto P sono date dalle seguenti relazioni: z= D ⋅ s′′ p + s′′ ⋅ tan α x = z ⋅ tan α y=0 (3.5) Dove D: distanza tra emettitore e base; α: angolo orizzontale di direzione del raggio luminoso; s″: distanza principale dell’obbiettivo; p: posizione della proiezione del punto sul sensore digitale. Figura 3.2.5 – Schema di rilevamento per gli scanner triangolatori. Gli scanner triangolatori che usano un emettitore laser sono generalmente di tre tipi a seconda che il raggio laser illumini l’oggetto per punti, profili o aree (Fig. 3.2.6). Una classificazione dettagliata di sistemi a scansione per triangolazione è descritta in [Blais, 2004]. L’errore σ z nella misura della profondità z è ottenuta differenziando la (3.5) in funzione dell’errore nell’individuazione della posizione del centroide dello spot laser σ p secondo la seguente relazione: z2 σz = σp s ′′ ⋅ D - 82 - (3.6) Capitolo 3 Sistemi ottici attivi a scansione Da cui si evince che l’errore nella misura della profondità aumenta con il quadrato della distanza e diminuisce aumentando la distanza principale dell’obbiettivo e la base di presa D. La risoluzione dei laser scanner (abilità nel distinguere caratteristiche degli oggetti molto prossime tra loro) così come l’accuratezza nella misura della profondità z sono molto variabili in funzione delle caratteristiche strumentali. Il range operativo di distanze per questi strumenti è tipicamente compreso tra qualche millimetro e alcuni metri a causa dei limiti imposti dalla (3.6) sulla distanza e considerato anche che la base di presa D è fissa per costruzione. La risoluzione in xy dei sistemi ottici laser basati sulla triangolazione è limitata dalla diffrazione della luce laser. Anche nelle migliori condizioni di emissione (punto singolo) minore è il diametro dello spot, maggiore è l’effetto di divergenza prodotto dalla diffrazione. La diffrazione impone inoltre dei limiti anche nella direzione z: aumentando la potenza del laser aumentano gli effetti di interferenza, noti come effetto speckle, che limitano il potere risolvente del sensore (Fig. 3.2.7). L’effetto speckle, a causa del quale non è quindi possibile diminuire oltre una certa soglia la dimensione dell’impronta laser sull’oggetto, genera una distribuzione disomogenea dell’intensità luminosa nell’impronta laser che introduce degli errori nella determinazione del centroide sul sensore digitale (si veda a proposito il paragrafo 2.5.1 del capitolo 2). La risoluzione nel piano Oxy è in genere limitata dall’effetto ottico di interferenza denominato effetto speckle a causa del quale non è possibile diminuire oltre una certa soglia la dimensione dell’impronta laser sull’oggetto.. Figura 3.2.6 – Tipologie di laser scanner triangolatori. Figura 3.2.7 – Effetto speckle di uno spot laser verde Questo tipo di sistemi fornisce risoluzione laterale in xy tipicamente di 50 micron e un’accuratezza nella direzione della profondità a partire da 10 micron. - 83 - Capitolo 3 Sistemi ottici attivi a scansione Tra le diverse fonti di errore che influenzano le misure di un sistema laser a triangolazione le più importanti sono [Blais et al., 2005]: § capacità di penetrazione nella superficie del raggio laser: raramente studiato questo effetto causa la diffusione di parte del segnale a diversa profondità a causa delle caratteristiche del materiale (Fig. 3.2.8, sinistra). Uno studio di tale effetto su superfici di marmo è presentato in [Godin et al., 2001]. § Range artifacts: sono errori nella misura delle coordinate z e vengono generati quando lo spot laser illumina un bordo tra due superfici(Fig.3.2.8, centro) a diversa profondità (per esempio uno scalino) o zone con colorazione differente (per esempio dal bianco al nero) (Fig.3.2.8, destra). In tali casi l’impronta del laser subisce delle deformazioni che causano errori nella determinazione del centroide. Figura 3.2.8 – Errori che influenzano le misure di un sistema laser a triangolazione. Ulteriori errori che influenzano i sistemi a scansione per triangolazione sono quelli introdotti dagli errori di tipo meccanico (per esempio la rotazione degli specchi) e quelli causati dalle condizioni ambientali (temperatura, umidità), entrambi elencati nel paragrafo precedente. I sistemi ottici a scansione per triangolazione sono in genere utilizzati per oggetti di piccole dimensioni, nel settore dei beni culturali, in modellazione meccanica, per la prototipazione, ecc.. I sistemi a triangolazione rispetto a quelli distanziometrici risentono molto dell’effetto dovuto a ostruzioni e ombre subite dal raggio emesso o da quello diffuso dalla superficie dell’oggetto (Figura 3.2.9). - 84 - Capitolo 3 Tecniche di allineamento e registrazione di nuvole di punti Figura 3.2.9 – Zone in ombra nei sistemi a triangolazione. 3.3 TECNICHE DI ALLINEAMENTO E REGISTRAZIONE DI NUVOLE DI PUNTI I laser scanner terrestri (distanziometrici e triangolatori) forniscono come risultato della sessione di scansione una nuvola di punti noti nelle tre coordinate spaziali. Alcuni scanner possono fornire insieme al dato spaziale anche informazioni radiometriche sull’oggetto come l’intensità di risposta del raggio laser e/o il colore (per i sistemi che integrano una fotocamera). I sistemi a scansione sono in genere molto semplici da utilizzare, bisogna impostare alcuni parametri strumentali e posizionare lo strumento in modo che “guardi” l’oggetto (entro le distanze consentite dalle caratteristiche strumentali). In generale, anche per oggetti semplici, una sola scansione difficilmente fornisce sufficienti informazioni metriche per una corretta e completa modellazione per cui sono necessarie più sessioni di scansione con lo strumento che “guarda” l’oggetto del rilievo da più punti di stazione. In presenza di oggetti molto complessi (statue, interni di edifici) o molto estesi (per esempio vasti siti archeologici) il numero di scansioni (di conseguenza quello dei punti rilevati), può divenire davvero molto cospicuo. Ogni sessione di scansione genera una nuvola di punti riferita al sistema di riferimento (reference system, RS) strumentale nel punto di stazione con orientamento in genere non noto se non con approssimazione e ha quindi sei gradi di libertà nello spazio. L’unione delle scansioni in un unico RS richiede una rototraslazione a sei parametri per ogni nuvola di punti. Includendo anche il parametro di scala la trasformazione è la (2.11) del capitolo precedente, nota come trasformazione di Helmert (similarity transformation): - 85 - Capitolo 3 Tecniche di allineamento e registrazione di nuvole di punti X X O* r11 Y = Y + λ r O* 21 Z ZO* r31 r12 r22 r32 r13 x* r23 y * r33 z * (3.7) Dove [X Y x* y* X O* Z] T z * YO* T : coordinate della nuvola di punti nel RS globale; : coordinate della nuvola di punti nel RS strumentale; T Z O* : coordinate del centro strumentale nel RS globale; λ : fattore di scala; rij : elementi della matrice di rotazione (si veda il paragrafo 2.1.4) . L’operazione è molto simile a quella fotogrammetrica di orientamento relativo o assoluto esterno delle fotocamere. In generale due procedure sono utilizzate per l’unione delle nuvole di punti: 1. registrazione con reference point: necessita di almeno tre punti di riferimento di cui siano note le coordinate nel RS globale e che siano ben riconoscibili sulla nuvola di punti. Le coordinate di questi punti “doppi” (noti in entrambi i RS, strumentale e globale) sono inserite come osservazioni nelle (3.7) opportunamente linearizzate in un intorno dei valori approssimati delle incognite oppure utilizzando altri modelli matematici come i quaternioni [Luhmann, 2006] o metodi procutiani [Crosilla 1999, 2000, 2001]. La determinazione delle coordinate dei punti di riferimento può avvenire con metodi topografici o fotogrammetrici [Guidi et al., 2005; Fiani et al., 2008]. La misurazione delle coordinate dei punti di riferimento sulla nuvola di punti viene in genere effettuata con metodi di best fit nel caso di target volumetrici (coni, piramidi, sfere) o con tecniche derivate dall’image processing come il centroide nel caso di target fotogrammetrici piani ma necessita di informazioni aggiuntive radiometriche per il riconoscimento dei target piani [Guidi et al., 2005; Fiani et al., 2008]. Le nuvole di punti, con il metodo della registrazione con reference point, sono orientate singolarmente rispetto al RS globale per cui non è richiesta alcuna sovrapposizione tra le scansioni adiacenti. 2. allineamento relativo tra nuvole di punti: le nuvole di punti sono orientate a coppie o globalmente. Il RS di una nuvola viene considerato fisso (quindi - 86 - Capitolo 3 Tecniche di allineamento e registrazione di nuvole di punti globale) e tutte le altre (mobili) vengono orientate rispetto ad esso. E’ necessario che vi sia una certa percentuale di sovrapposizione tra le nuvole di punti ovvero che parti dell’oggetto siano scansionate almeno due volte consentendo di determinare dei criteri geometrici di similarità tra le nuvole di punti. Un metodo è quello che fa uso, come nella registrazione, di almeno tre punti “doppi” (o punti omologhi), noti nel RS della nuvola di punti fissa e in quella mobile misurati mediante tecniche di best fit di target volumetrici oppure con il centroide. Altri metodi automatici mirano invece all’individuazione dei rispettivi punti omologhi nella zona di sovrapposizione tra le nuvole di punti o ancora muovono iterativamente la nuvola di punti mobile, a partire da un approssimazione iniziale dei sei parametri di rototraslazione, allo scopo di minimizzare una funzione obiettivo. Il procedimento in questi casi diviene molto più simile a quello di image matching accennato nel capitolo 2 e prende il nome di surface-matching. Il metodo della registrazione con reference point è consigliabile qualora le superfici degli oggetti rilevati siano “lisce” (carene di navi, scocche di automobili, fusoliere di aeroplani) poiché in questi casi gli algoritmi di surface-matching non garantiscono l’affidabilità dei risultati [Guidi et al., 2005; Fiani et al., 2008]. La registrazione mediante target diviene anche necessaria quando l’oggetto, per le sue caratteristiche geometriche, non consente di essere rilevato con sovrapposizione sufficiente tra le scansioni (per esempio parti simmetriche di una carena). In tutti gli altri casi altri casi i metodi automatici o di allineamento relativo tra coppie divengono più convenienti (è richiesto solo il rilievo laser) e sono oggi in pratica quelli più utilizzati. 3.3.1 METODI DI ALLINEAMENTO SURFACE-MATCHING Lo studio di metodi che consentissero di registrare automaticamente una superficie (o una curva) nota in un RS, su superfici omologhe in un altro RS è un problema ben noto alla Computer Vision già nei primi anni ’80 del XX secolo. Le richieste giungevano sopratutto dall’industria automobilistica e aeronautica per il controllo di qualità e in ambito di progettazione per consentire il confronto tra superfici NURBS e nuvole di punti (misurate ad esempio con CMM) e fu così che le prime dimostrazioni di surfacematching furono fatte proprio in ambito automobilistico. - 87 - Capitolo 3 Tecniche di allineamento e registrazione di nuvole di punti Il metodo oggi più diffuso per l’allineamento di superfici è quello che utilizza l’algoritmo denominato Iterative Closest Point (ICP) [Besl & McKay, 1992] oggi implementato nella quasi totalità di software commerciali. L’algoritmo originario funziona su coppie di nuvole di punti, nuvola di punti (mobile) e superficie matematica, superfici parametriche o polilinea o ancora qualsiasi altra forma che consenta di determinare per ogni punto della nuvola “mobile” il punto più vicino (closest point). L’algoritmo parte da un set approssimato di rotazioni e traslazioni che l’utente deve fornire (in genere collimando un numero minimo di punti omologhi) e applica in modo iterativo una roto-traslazione rigida nello spazio alla nuvola di punti mobile, affinché si sovrapponga nel miglior modo possibile all’altra nuvola, considerata fissa. Il metodo è un cosiddetto punto-punto, che si contrappone al metodo punto-piano sviluppato da Chen e Medioni [Chen & Medioni, 1992]. In entrambi i metodi adottati, la registrazione avviene tramite la ricerca del minimo di una funzione obiettivo. Nel primo metodo (metodo punto-punto) questa funzione è data dalla somma dei quadrati delle distanze dei punti corrispondenti delle nuvole. I punti corrispondenti si definiscono come la coppia formata da un punto di una nuvola e quello più vicino appartenente alla nuvola opposta. Nel secondo metodo (punto-piano), pur rimanendo la stessa struttura della funzione obiettivo, sono da minimizzare però le distanze tra i punti di una nuvola ed i piani di best-fit passanti per i punti dell’altra. Un’alternativa a questo metodo è rappresentato dal 3D Least Square Matching, che rappresenta un’evoluzione nella tridimensionalità del metodo del Least Square Image Matching [Grün, 1985]; per dettagli vedere in riferimento bibliografico [Akca & Grün, 2004]. In generale questo metodo stima i parametri della trasformazione spaziale fra due o più patches tridimensionali minimizzando la distanza euclidea fra le superfici con metodo ai minimi quadrati lineari. Questa formulazione dà l’opportunità di cercare la corrispondenza fra superfici orientate in modo arbitrario. Un’equazione alle osservazioni viene scritta per ogni elemento, per esempio per ogni punto del patch 3D selezionato e di cui si vuol trovare il corrispondente. La relazione geometrica tra i patches coniugati è definita da una trasformazione 3D spaziale a 7 parametri; i parametri incogniti di questa trasformazione sono trattati come quantità stocastiche, utilizzando pesi appositi. - 88 - Capitolo 3 Il sistema Airborne Laser Scanning 3.4 IL SISTEMA AIRBORNE LASER SCANNING La tecnica del laser scanning nel settore del telerilevamento del territorio è molto recente, ma le sue prime applicazioni vanno fatte risalire agli anni ’70 con il sistema APR (Airborne Profile Recorder). L’apparato opto-elettronico [De Joinville et al., 2003] era costituito da un laser ad impulsi ( o un distanziometro radar) con il quale si effettuavano registrazioni di quote secondo sezioni del terreno. Il sistema laser ad impulsi inviava segnali in direzione nadirale con cui strumentale; otteneva la distanza degli oggetti dal centro la georeferenziazione plano-altimetrica delle quote avveniva tramite l’utilizzo integrato dei sistemi di navigazione dell’aereo (“navigazione a vista” e altimetro barometrico) le cui attendibilità sul posizionamento erano di scarsa qualità. La precisione offerta dalle misure risultava quindi scadente e le applicazioni assai limitate, dato che, per ottenere un modello del terreno sufficientemente denso di quote, occorrevano diverse strisciate di volo. Negli ultimi anni, la tecnica del laser scanning, detta anche LIDAR (Light Detection And Ranging) ha conosciuto importanti sviluppavi nel settore del telerilevamento del territorio; ciò è dovuto principalmente ad importanti conoscenze maturate nell’ambito di due fondamentali tecnologie: i sistemi elettro-meccanici, che hanno migliorato la precisione nella determinazione della posizione dei punti (rispetto allo strumento) e i sistemi di posizionamento globali (GPS, GLONASS) insieme con i sistemi inerziali INS (INertial System), che hanno migliorato la loro georeferenziazione. Negli scanner aerotrasportati infatti, detti anche ALS (Airborne Laser Scanning), la posizione e l’assetto del centro strumentale, ovvero l’origine del sistema (Oxyz )* , è continuamente variabile nel tempo, e la sua conoscenza è indispensabile per l’utilizzo dei dati spaziali rilevati, altrimenti inservibili. Il sistema, trasportato su aereo o elicottero (e schematizzato in figura 3.4.10), è costituito dalle seguenti parti: • Telemetro laser o LRF (Laser Range Finder): l’apparato emette impulsi ad altissima frequenza (fino a 83 kHz) e della durata di pochi nanosecondi; questi, riflessi dal terreno, ritornano allo strumento che valuta così le distanze, in funzione del tempo di volo; - 89 - Capitolo 3 Il sistema Airborne Laser Scanning • Ricevitore GPS (o GLONASS) differenziale in modalità cinematica, a bordo del velivolo, associato alla stazione di riferimento a terra; permette la determinazione delle coordinate del centro strumentale; • Sistema di navigazione inerziale INS (Inertial Navigation System oggi anche IMU: Inertial Measurement Unit) è costituito da tre accelerometri e tre giroscopi che valutano i parametri (ϕ , ω , κ ) dell’assetto del velivolo; • Camera fotografica digitale con asse ottico nadirale e con campo di vista più ampio rispetto a quello dello scanner; talvolta è presente una seconda camera (o telecamera) con asse ottico rivolto a 45° in avanti. É d’ausilio nella fase di post processamento per la classificazione semiautomatica dei punti (evitando la fase di ricognizione a terra) o utilizzata per la generazione di ortofoto digitali, immagini solide ecc.. Figura 3.4.10 – Il sistema airborne laser scanning - 90 - Capitolo 3 Il sistema Airborne Laser Scanning A differenza dei laser scanner terrestri in cui lo strumento, fisso nella posizione O* , rileva i tre parametri ri spe , ζ , a, i laser scanner aerotrasportati (con specchio rotante attorno ad un asse) valutano soltanto la distanza ri spe e l’angolo di rotazione dello specchio. Il pattern di distribuzione dei punti a terra è una combinazione dei moti dello specchio e dell’aeromobile; se non fosse nota per ogni istante di ritorno degli impulsi, la posizione e l’assetto dello strumento i punti rilevati sarebbero posizionati sempre nel piano (Oyz )* ; si veda la figura 3.4.11. Figura 3.4.11 – In assenza di trasporto delle coordinate strumentali, i punti rilevati si dispongono tutti nel piano (Oyz )* Al fine di ottimizzare la densità e l’omogeneità dei punti 3-D al suolo sono state messe a punto dalle varie case costruttrici tecnologie differenti che permettono diverse tipologie di scansione del terreno. Le principali sono le seguenti [De Joinville et al., 2003]: I. Specchio oscillante: l’emettitore invia gli impulsi su uno specchio che oscilla (ruota) intorno ad un asse concorde con quello di volo. La sequenza di punti rilevati avviene secondo linee a “zig-zag“ (linee parallele) intersecanti l’asse della strisciata di volo. È il sistema più utilizzato dalle case costruttrici (Optech e LHS), si veda la figura 3.4.12 ; - 91 - Capitolo 3 II. Il sistema Airborne Laser Scanning Fasci di fibre: è il sistema adottato dalla casa tedesca TopoSys; si presenta sotto la forma di un pennello di fibre ottiche (centoventotto, attualmente) nelle quali gli impulsi laser sono distribuiti ad elevatissima frequenza (83 kHz) da un motore rotativo. Questo sistema performante, presenta malgrado tutto, l’inconveniente d’avere una ripartizione dei punti più densi nel senso della traiettoria di volo che in quella perpendicolare (circa 20 cm a 1000 m per 1.2 m perpendicolarmente alla traccia); si veda la figura 3.4.12; Figura 3.4.12 – Principio dello specchio oscillante (sinistra) e del fascio di fibre destra (©TopoSys). Due tecniche sono attualmente in fase di sperimentazione dall’università di Stuttgart, esse mirano ad ottenere una ripartizione più omogenea al suolo: III. Specchio rotante ad asse inclinato: lo specchio ruota attorno ad un asse leggermente inclinato, generando una deviazione del fascio e delle tracce al suolo ellittiche. Questo principio, chiamato ScaLARS, sembra migliorare notevolmente l’omogeneità della ripartizione di punti al suolo. IV. Poligoni in rotazione: questo sistema, combinando diversi specchi in rotazione attorno ad un asse, produce linee parallele. Usa lo stesso principio dello specchio oscillante ma senza ritorno. La ripartizione dei punti a terra consegue direttamente dalla combinazione di quattro fattori: frequenza degli impulsi, velocità della piattaforma, velocità angolare dello - 92 - Capitolo 3 Il sistema Airborne Laser Scanning specchio (per i modelli che ne sono dotati, che sono i più diffusi) e sua escursione angolare massima. I quattro parametri sono correlati tra loro, ed è molto difficile stimare i loro valori osservando un campione di dati, poiché una distribuzione tipica di punti potrebbe scaturire da diverse configurazioni dei parametri. Per fare un esempio, consideriamo la distribuzione di punti in figure 3.4.12: lo stesso campione si sarebbe potuto ottenere con le seguenti configurazioni: 1. Frequenza elevata, velocità dell’aeromobile elevata (ad una quota di volo bassa), velocità angolare dello specchio elevata e sua escursione angolare massima grande (elevato angolo di campo). 2. Frequenza bassa, velocità dell’aeromobile bassa (ad una quota di volo elevata), velocità angolare dello specchio bassa e sua escursione angolare massima di piccola entità (angolo totale di campo, piccolo); La situazione è del tutto analoga a quella che si ha in fotogrammetria con la scala del fotogramma (si veda a tal proposito il capitolo dedicato alla fotogrammetria) : unendo una bassa quota di volo ed una focale di tipo grandangolare si ottiene la stessa scala fotogramma ottenibile con una quota relativa di volo più elevata e una focale di tipo normale. Quello che varia tra le due configurazioni è la geometria di presa: nel primo caso “assomiglia” di più a una proiezione ortografica, nel secondo la proiezione prospettica prevale; di conseguenza nel primo caso il numero di occlusioni dovute alla geometria di presa è inferiore rispetto al secondo, e sarebbe preferibile nelle zone fittamente edificate o nelle aree boschive, ma subisce le problematiche dovute alla più elevata quota di volo ( rifrazione, spesa elevata di carburante) con una conseguente minore risoluzione e attendibilità sulle misure. Le analogie con la fotogrammetria sono ancora tantissime ma esulano dagli scopi di questo lavoro, per cui si rimanda ai testi specifici in bibliografia. Ritornando ai parametri suddetti, l’ esempio posto è del tutto teorico, dal momento che molti di essi non sono modificabili ma imposti dal costruttore e variabili da modello a modello; ciò che generalmente è possibile modificare (oltre alla evidente velocità dell’aeromobile) è l’angolo totale di campo, seppure ad intervalli specifici (si veda la tabella 3.4.A) . - 93 - Capitolo 3 Il sistema Airborne Laser Scanning Parametri Tecnici Frequenza degli impulsi Tipicamente da 50 a 100 kHz, fino a 200 kHz Angolo di scansione Tipicamente da 10° a 45°, 75° al massimo Frequenza di scansione Qualche centinaio di linee per secondo Numero di eco registrate per impulso emesso Fino a 5, in ambiente boschivo Frequenza di acquisizione delle misure GPS/INS GPS: da 1 a 50 Hz, INS: 50- 200 Hz Divergenza laser Dell’ ordine dei 0.5 mrad corrispondenti a circa 50 cm al suolo per una quota relativa di 1000m del fascio Parametri di volo Altezza di volo Da 100 fino a 3000 m, al massimo 6000m Vettore Elicottero o aereo Densità punti Larghezza banda dei di 2 Da 0.1 a 25 punti per m . Circa 580 m per un angolo di scansione di ± 20° e un’ altezza di volo di 800 m 2400 m per un angolo di scansione di 45° e un’ altezza di volo di 3000 m Tabella 3.4.A - Parametri tecnici e di volo dei sistemi ALS Una peculiarità tipica dei laser scanner aerotrasportati, è la possibilità di acquisire informazioni aggiuntive quali: • Eco multiple: relativamente ad uno stesso impulso inviato, le onde elettromagnetiche possono essere parzialmente riflesse (è il caso di corpi come le foglie o gli spigoli degli edifici); una parte di esse ritorna al trasduttore e una parte continua il tragitto iniziale (Fig. 3.4.13). Si ottengono così delle risposte multiple (generalmente due) che forniscono importanti informazioni ausiliarie di notevole aiuto per la classificazione geometrica dei punti nella fase di post-processing; - 94 - Capitolo 3 Il sistema Airborne Laser Scanning Figura 3.4.13 – Principio delle eco multiple (sinistra) ed esempio di prime eco sulle foglie degli alberi in una zona rurale rilevata con ALS (destra, software LAIM). • Radiometria: gli scanner più recenti permettono di registrare l’intensità di risposta con cui il segnale giunge allo strumento (Fig. 3.4.14). È strettamente legata al tipo di materiale, alla sua distanza e all’angolo con cui il raggio laser incide sulla superficie. È anch’esso di notevole importanza per la fase di post processamento fornendo ulteriori indizi circa i corpi rilevati. Figura 3.4.14 – Esempio di dati ALS con colorazione dei punti in funzione dell’intensità radiometrica della risposta laser (destra). A sinistra gli stessi punti colorati in funzione della quota. - 95 - Capitolo 3 Il sistema Airborne Laser Scanning 3.4.1 I SISTEMI GPS-INS Nei laser scanner aerotrasportati, la posizione del centro di presa strumentale O* e i versori degli assi della terna (Oxyz )* sono funzioni del tempo (le direzioni da essi individuati mutano continuamente), a causa del moto della piattaforma. In assenza di informazioni relative alla posizione e all’assetto del centro strumentale l’intero set di dati rilevati si disporrebbe, come già accennato in precedenza, su una retta. La georeferenziazione dei dati avviene così attraverso l’utilizzo integrato dei sistemi di posizionamento (GPS in modalità differenziale cinematico) e inerziale (INS o anche IMU). A differenza del rilevamento fotogrammetrico, costituito dalle fasi di “orientamento delle immagini” e di “restituzione dei punti”, il rilevamento laser fa riferimento ad un’unica fase di “georeferenziazione dei dati”. In figura 3.4.14 è illustrato lo schema geometrico del rilievo di un generico punto oggetto i incognito (in rosso), distinguendo le grandezze misurate con gli strumenti di navigazione (in blu), con il sensore laser (in Magenta) e mediante procedure di calibrazione (in verde). Figura 3.4.14 - La georeferenziazione diretta dei punti rilevati nei sistemi ALS. map La posizione incognita ri si può considerare come il vettore risultante delle tre trasformazioni sotto-indicate [Crosilla et al., 2005]: - 96 - Capitolo 3 Il sistema Airborne Laser Scanning map map , rgps 1. Roto-traslazione Rins / ins dal map-frame all’INS-frame (detto anche map body frame): il vettore di traslazione istantanea rgps / ins è calcolato mediante l’integrazione delle misure GPS cinematiche con le misure accelerometriche inerziali (INS) tipicamente ottenute mediante sofisticati algoritmi tipo filtro di Kalman. Gli angoli d’assetto sono invece misurati mediante giroscopi vert inerziali e sono introdotti nella matrice di rotazione istantanea Rins ; questa map local premoltiplicata per le matrici Rlocal e Rvert , note ad ogni istante, fornisce la matrice map map local vert Rins = Rlocal ⋅ Rvert ⋅ Rins . Si effettua così la cosiddetta ”georeferenziazione diretta” di un sensore, fissato rigidamente al vettore, sulla base delle sole misure di navigazione. Il sistema inerziale permette di determinare la posizione e l’assetto dell’aeromobile con una frequenza generalmente di 100 Hz (fino a 500 Hz). Il GPS acquisisce con una frequenza tipica di 1 Hz (fino a 50 Hz) consentendo di annullare la deriva nel posizionamento mediante gli accelerometri, crescente nel tempo. ins 2. Roto-traslazione Rlas , rlasins dall’ INS-frame al Laser-frame: il vettore di ins fra il centro del sistema inerziale e traslazione (eccentricità) costante alas quello laser va accuratamente misurato in modo diretto (se ciò è possibile) oppure determinato in fase di calibrazione del sistema, così come gli angoli di rotazione fra i due sistemi introdotti nella matrice. L’influenza di questi parametri diventa non trascurabile nei rilievi ad alta densità e può dar luogo ad errori di tipo sistematico lungo la traiettoria descritta dall’aeromobile. 3. Traslazione ri* dal LASER-frame al punto oggetto i: questo valore istantaneo è ottenuto dalla proiezione del vettore misurato del laser ri spe per la matrice las Rspe della rotazione dello specchio. La georeferenziazione dei dati laser può essere come una combinazione delle tre trasformazioni 3D map-frame INSframe Laser-frame punto oggetto, riassunte da: map map ins las spe ins ri map = rgps + alas ] / ins + Rins ⋅ [ Rlas ⋅ Rspei ⋅ ri - 97 - (3.8) Capitolo 3 Il sistema Airborne Laser Scanning da cui si evince che il posizionamento dipenda dalla combinazione di sei grandezze vettoriali, quattro delle quali variabili istantaneamente. Quest’ultime sono misurate con frequenze assai diverse: dell’ordine di alcuni Hz per il GPS, dei 500 Hz per l’INS e delle centinaia di kHz per il laser. Si dovrà allora procedere per interpolazione temporale dei dati GPS e INS con l’introduzione di ulteriori e inevitabili errori (dovuti per esempio all’asincronia degli orologi). La precisione offerta dalle misure, combinazione degli errori suddetti e di ulteriori a carattere geometrico, permette comunque di soddisfare esigenze cartografiche anche a grande scala, rimanendo sempre al di sotto dell’ errore di graficismo. - 98 - Capitolo 4 Sperimentazione Modellazione del territorio: il software LAIM 4.1 INTRODUZIONE 99 4.2 UN TIPICO FLUSSO DI ELABORAZIONE PER LA GENERAZIONE DI MODELLI TRIDIMENSIONALI DEL TERRENO CON IL SOFTWARE LAIM 101 4.3 PROBLEMATICHE INERENTI LA SELEZIONE DEI PUNTI SEME: CONFRONTO LAIM – TERRASCAN 4.4 IL TEST ISPRS DELL’ALGORITMO PBTIN 115 116 4.5 UN ESEMPIO DI UTILIZZO DEL SOFTWARE LAIM PER LA MODELLAZIONE DI UNA FRANA DA DATI LASER SCANNING TERRESTRE 129 4.1 INTRODUZIONE La modellazione 3D del territorio mira alla generazione di modelli digitali di superficie, del terreno o degli edifici per scopi cartografici o come strumento di supporto e analisi in altre discipline (geotecnica, ingegneria delle telecomunicazioni, protezione civile, documentazione, ecc). L’analisi spaziale (paragrafo 1.2.7 capitolo 1) con cui è possibile ottenere mappe delle pendenze per il rischio idrogeologico o per l’agricoltura, sistemi informativi geografici, controllo di abusivismi edilizi e escavazioni, ecc. è sicuramente uno dei prodotti di maggiore interesse in questo campo. In questo contesto i modelli digitali del terreno DTM (modelli della superficie del terreno nudo, senza manufatti e oggetti antropici) risultano di fondamentale importanza perché costituiscono il dato strutturale di base per quasi tutte le successive elaborazioni (ortofoto, ortofoto di precisione, building modelling, ecc.) [Ackermann et al., 2007]. La modellazione 3D del territorio riguarda in genere ampie zone di territorio (anche più di 10000 km2) con livelli di dettaglio e densità di campionamento spesso considerevoli (anche più di 25 punti per metro quadrato). E’ evidente che il modo più produttivo per generare modelli 3D per lo studio del territorio è quello di rilevarne le forme dall’alto. La fotogrammetria è storicamente la più antica tecnica di telerilevamento (nel 1858 il fotografo francese F.Tournachon, soprannominato Nadar, effettuò le prime riprese aeree della città di Parigi a bordo di una mongolfiera, Fig. 4.1.1) e costituisce ancora oggi la più completa fonte metrica e semantica per la documentazione del territorio. L’avvento dei - 99 - Capitolo 4 Sperimentazione sensori digitali ha sicuramente velocizzato l’intero processo fotogrammetrico, che soffriva di notevoli rallentamenti necessari per lo sviluppo e la stampa delle pellicole fotografiche. E’ bene sottolineare che comunque il costo dei sistemi fotogrammetrici digitali nel caso aereo (e quello dei software ) rimane oggi ancora molto elevato e proibitivo per molte aziende per cui una conversione totale alle nuove tecnologie richiede comunque ancora molto tempo. Figura 4.1.1 – Il telerilevamento del territorio. Dagli albori della fotogrammetria aerea (sinistra) nel XIX sec., alle camere analogiche del XX sec., sino ai moderni sistemi ALS. Alla fotogrammetria si è affiancata da poco più di dieci anni la tecnica del laser scanning aerotrasportato (ALS) che ha il grande vantaggio di fornire in tempi molto più rapidi, nuvole di punti del terreno come diretto risultato del rilievo in contrapposizione alla fotogrammetria che richiede maggiori tempi di elaborazione per orientare e processare le immagini. I moderni sistemi ALS campionano il terreno con frequenze anche di 200kHz (un milione di punti ogni cinque secondi) da cui risulta evidente la necessità di un’attenta fase di post-processing, in assoluto la più lunga e onerosa, (anche il 60-80% dell’intero flusso di lavoro) per l’individuazione degli errori grossolani (outliers) nelle misure, le procedure di allineamento delle strisciate, la definizione delle varie classi dei punti e l’estrazione di forme. L’utilizzo delle immagini, grazie al loro contenuto qualitativo e descrittivo, rimane comunque indispensabile in tale contesto, apportando un contributo fondamentale per la corretta elaborazione dei dati o per una loro verifica. In questo contesto nasce il software LAIM (LAser IMmagini), sviluppato in proprio in ambiente MATLAB (MathWorks, Versione 7.0.0, Release 14 + Image Processing Toolbox), nell’ambito di una ricerca di interesse nazionale1 allo scopo di automatizzare il processo di generazione di modelli tridimensionali da dati laser scanning aereo. Con il passa1 "Elaborazione di dati Laser Scanning per la costruzione di modelli tridimensionali" inquadrata nell'ambito del progetto nazionale COFIN' 04 coordinata dal Prof. C.Monti. - 100 - Capitolo 4 Sperimentazione re del tempo e il progredire della ricerca, nel software sono state inserite nuove funzioni e nuove strategie e metodologie risolutive. Gli algoritmi in esso implementati sono stati ottimizzati e poi testati mediante confronti con software commerciali o effettuando test internazionali standardizzati. LAIM è un software molto versatile che integra funzioni di elaborazione e analisi spaziale e funzioni fotogrammetriche e consente di gestire dati metrici di provenienza anche molto eterogenea (database cartografici DXF, fotogrammetria, SRTM Shuttle Radar Topography Mission, DSM). Sebbene nasca per dati ALS il software è stato utilizzato anche su dati laser scanning terrestri e su modelli digitali di superficie da fotogrammetria aerea con risultati molto interessanti. In questo capitolo viene mostrato il flusso di lavoro per la generazione di modelli digitali del terreno a partire da nuvole di punti generate con tecniche ALS o fotogrammetriche, dall’apertura di file tridimensionali di punti nel caso particolare di dati ALS con impulsi a eco multipla, alla rimozione di errori grossolani, alla classificazione e il riconoscimento di edifici. Man mano le varie fasi del flusso di lavoro vengono illustrate in concomitanza con le metodologie risolutive implementate negli algoritmi di LAIM mostrando anche ulteriori confronti con software commerciali e algoritmi prodotti da altri enti e istituzioni di ricerca. 4.2 UN TIPICO FLUSSO DI ELABORAZIONE PER LA GENERAZIONE DI MODELLI TRIDIMENSIONALI DEL TERRENO CON IL SOFTWARE LAIM LAIM è stato implementato in linguaggio MATLAB 7.0.0 utilizzando alcune funzioni aggiuntive presenti nel modulo “Image Processing Toolbox”; per poterlo eseguire è necessario quindi disporre di questo pacchetto. LAIM è dotato di interfaccia grafica creata tramite il tool GUIDE (acronimo di Graphical User Interface Development Environment, ovvero Ambiente di Sviluppo per l’Interfaccia Grafica per l’Utente) allo scopo di rendere più semplice l’inserimento dei numerosi parametri di input. La necessità di implementare metodologie risolutive con algoritmi talvolta anche molto articolati ci ha indirizzato verso la scelta del linguaggio MATLAB, sicuramente uno dei più potenti e versatili ambienti di calcolo e programmazione, noto in tutto il mondo nell’ambito della ricerca operativa oramai da molti anni.. La tipica sintassi per notazione vettoriale e le numerose funzioni presenti al suo interno, semplificano notevolmente la programmazione, permettendo di concentrarsi soprattutto sull’aspetto teorico-applicativo degli algoritmi. Sono state previste quindi funzioni di sfoltimento e/o selezione di sottoinsiemi dei database di punti, garantendo comunque la validità applicativa degli algoritmi. - 101 - Capitolo 4 Sperimentazione Sono stati progettati e implementati algoritmi per la separazione delle eco (First e Last), per l’individuazione degli errori grossolani (Low-point, Aerial-point), per la classificazione dei punti appartenenti e non al terreno LAIM è un software modulare che consta di circa cento funzioni sviluppate e implementate in proprio. Attualmente la versione più recente di LAIM è la 2.9; le sue funzioni più importanti sono: • separazione automatica delle eco; • individuazione degli errori grossolani (outliers); • classificazione binaria dei punti terreno-oggetti; • filtri di classificazione basati sulla radiometria, quota relativa e assoluta; • tool di visualizzazioni surf, mesh e TIN di superfici con colorazioni delle facce proporzionali all’intensità di risposta o alla quota. • generazione di ortofoto 3D (TIN e Grid) partendo sia da ortofoto 2D che da immagini provenienti da camere metriche o amatoriali. • texture mapping delle mesh tridimensionali (equazioni di collinearità); • scrittura di file WRML; • allineamento e georeferenziazione di strisciate (analisi procustiana, Helmert). • sovrapposizione delle classi di punti sulle immagini • orientamento immagini con DLT. 4.2.1 IMPORTAZIONE DEI DATI E SEPARAZIONE DELLE ECO Nel capitolo tre (paragrafo 3.4) sono state mostrate alcune peculiarità tipiche degli scanner aerei come la possibilità di registrare eco multiple (anche più di cinque eco con opportune impostazioni strumentali e se la potenza del segnale retro-diffuso lo consente). L’importanza di queste informazioni aggiuntive è fondamentale in zone rurali dove consentono di creare una mappatura diretta della vegetazione, ma anche in presenza di elementi antropici, e quindi soprattutto nei centri urbani (Fig. 4.2.4 ), dal momento che il raggio laser subisce parziali diffusioni in presenza di bordi (paragrafo 3.2.1) fornendo informazioni sulle zone perimetrali degli oggetti. In generale i dati laser scanning aereo sono configurati come un database relazionale di punti con un numero minimo di campi pari alle tre coordinate spaziali dei punti P(X, Y, Z) fino a un massimo di otto informazioni (ID_Numerico, X, Y, Z, Intensità,R,G,B, Tempo_Acquisizione). L’informazione aggiuntiva sulla tipologia di eco registrata è generalmente memorizzata nel campo ID_Numerico. - 102 - Capitolo 4 Sperimentazione Un tipico esempio di file ASCII di dati ALS è riportato nella figura 4.2.2 dove viene indicato anche un semplice algoritmo per la separazione automatica delle eco. Figura 4.2.2 – Un tipico esempio di dati laser aereo con formattazione ID_Numerico, X, Y, Z, Intensità (sinistra) e algoritmo di individuazione delle eco (destra). L’interfaccia principale di LAIM 2.9 è visibile in figura 4.2.3. Figura 4.2.3 – Interfaccia principale di LAIM. Dopo aver scelto il tipo di formattazione dei file l’algoritmo mostrato in figura 4.2.2 individua e separa automaticamente le eco multiple e provvede alla separazione dei punti nelle rispettive classi (Figura 4.2.4). - 103 - Capitolo 4 Sperimentazione Figura 4.2.4 – Punti corrispondenti alle prime eco in dati laser di città. Sono ben visibili i contorni degli edifici causati dall’effetto di bordo (paragrafo 3.2.1). 4.2.2 FILTRAGGIO Con il termine filtraggio, nell’ambito dei dati ALS, si intende generalmente l’insieme di operazioni che consente in prima istanza la rimozione degli errori grossolani e successivamente l’individuazione dei punti appartenenti al terreno separandoli da quelli a esso sovrastanti (edifici, vegetazione, automobili, muretti bassi) (Fig.4.2.5). Figura 4.2.5 – Schema esemplificativo della separazione degli oggetti dal terreno nudo Il filtraggio manuale benché in genere non praticabile data l’enorme mole di dati, è comunque possibile per zone poco estese. Il filtraggio manuale impiega il processo cognitivo umano per individuare gli errori grossolani (in genere riconoscibili perché a quota sensibilmente più alta o più bassa) e distinguere i punti rilevati sugli oggetti da quelli appartenenti al terreno nudo. I dati ALS in genere non posseggono informazioni semantiche - 104 - Capitolo 4 Sperimentazione (fatta eccezione per l’intensità radiometrica della risposta) e perciò l’unico mezzo possibile per la classificazione dei punti ground-objects (terreno-oggetti) diviene l’altezza dei punti. Il processo cognitivo umano è in grado di riconoscere i differenti tipi di terreno (montuoso, urbano, pianeggiante, ecc.) soprattutto se insieme ai dati spaziali si integrano delle immagini. Il filtraggio manuale diviene ancora più affidabile se l’osservazione avviene in stereoscopia sovrapponendo i punti alle immagini generalmente provenienti da sensori integrativi del sistema ALS. Nella pratica la mole di dati rende impraticabile la classificazione manuale ed è per questo che negli ultimi anni sono stati proposti vari e validi algoritmi di classificazione dei punti appartenenti al terreno che utilizzano procedure statistico-geometriche partendo da alcune supposizioni sull’andamento del terreno nudo. Alcune di queste prevedono l’utilizzo dei dati originali (irregolarmente spaziati), altri invece necessitano di dati grigliati ottenuti previa interpolazione. Tra gli algoritmi che operano direttamente sulle nuvole di punti originali si ricordano quelli di Sohn, Vosselman and Sithole, Pfeifer & Briese, Axelsson e Roggero che restituiscono i punti classificati come terreno nello stesso formato di input. Un report dettagliato sulle caratteristiche di questi algoritmi è presente in [Sithole et al., 2004]. Alcuni algoritmi sfruttano per il filtraggio informazioni aggiuntive come le risposte multiple e l’intensità dell’eco di risposta [Brovelli, 2002]. Tra le caratteristiche che differenziano i vari algoritmi c’è inoltre da ricordare quella concernente il tipo di processo implementato che influenza la velocità di esecuzione: si distinguono le soluzioni che prevedono un processo iterativo [Sohn et al.,2002, Roggero, 2001, Axelsson, 2001] da quelle che avvengono con un numero limitato di passi [Brovelli et al.,2006, Sithole et al., 2003]. In molti casi i filtri implementati possono operare soltanto dopo aver eliminato gli outlier, ovvero gli errori grossolani dovuti ad un’errata misura della distanza (Fig. 4.2.6) conseguente ad esempio a multiriflessioni o a oggetti interposti (fili elettrici, volatili, ecc). - 105 - Capitolo 4 Sperimentazione Figura 4.2.6 – Esempi di outlier. Aerial-Point (sinistra), Low-point (destra) Il software LAIM implementa diverse funzioni per la rimozione degli outlier basate su criteri statistici (confronto con superfici di riferimento come il piano locale ai minimi quadrati, paraboloide locale, ecc) o geometrici locali (differenze relative con i punti circostanti). Gli outlier non vengono eliminati dal database iniziale ma semplicemente spostati in classi specifiche (Low-point, Aerial-point). 4.2.2.1 PRISMATIC BUFFERED TIN (PBTIN) L’algoritmo PBTIN ideato e implementato in proprio nel software LAIM [Menna, Troisi, 2005, 2007], è un nuovo algoritmo di filtraggio per la generazione di DTM che può essere visto come una variante di quello di Axelsson [Axelsson 1999, 2000, 2001] che qui di seguito si richiama brevemente. Nell’algoritmo di Axelsson viene generato un TIN (Triangular Irregular Network basato sul criterio di Delaunay) a partire da un set di punti (seed-points) di cui si suppone certa l’appartenenza al terreno nudo e progressivamente densificato nelle successive iterazioni man mano che nuovi punti della nuvola laser vengono aggiunti ad esso. I punti seme (seed-points) sono selezionati automaticamente come punti di quota minima all’interno di celle la cui dimensione è scelta in accordo con la massima dimensione delle strutture, in genere edifici (Fig. 4.2.7). Per questo algoritmo e per tutti quelli che utilizzano TIN generati su punti di quota minima locale è necessaria una rimozione preventiva dei low-points almeno per quanto riguarda la fase di selezione dei punti seme iniziali. - 106 - Capitolo 4 Sperimentazione Figura 4.2.7 – Selezione automatica dei punti seme per gli algoritmi iterativi di TIN. A sinistra un esempio di selezione corretta, a destra una selezione errata causata da una sottostima della massima dimensione degli edifici (maglia quadrata sottodimensionata) Nell’algoritmo di Axelsson, in ciascuna iterazione e all’interno di ogni triangolo, viene esaminato un punto per volta; il punto P in esame rappresenta il vertice del tetraedro formato con il triangolo del TIN (triangolo di base) di appartenenza (Fig. 4.2.8); il punto è aggiunto alla classe dei punti del terreno se: 1. gli angoli che gli spigoli del tetraedro formano con il triangolo di base; 2. l’altezza del tetraedro (distanza dalla faccia del triangolo di base); 3. le pendenze delle tre facce oblique; sono al di sotto di predeterminate soglie. Alla fine di ogni iterazione il TIN viene ricostruito utilizzando i nuovi punti aggiunti alla classe terreno e nuove soglie vengono derivate statisticamente: i valori mediani delle distribuzioni di frequenze delle distanze dal triangolo di base e degli angoli relativi alla precedente iterazione determinano le nuove soglie. L’algoritmo, implementato nel software commerciale Terrascan della Terrasolid produce risultati generalmente di ottima qualità; vi sono però dei casi in cui potrebbe avere problemi, come in presenza di aree rurali con terrazzamenti coperti da vegetazione. L’algoritmo verifica le soglie indipendentemente dalla distanza dei punti dai nodi del triangolo con il rischio che i punti appartenenti agli alberi siano classificati come classe terreno. In figura 4.2.9 è rappresentato uno dei triangoli del TIN in una zona a terrazzamenti e due generici punti P, Q la cui proiezione planimetrica ricade al suo interno. Il punto P sarà sicuramente scartato se l’altezza del tetraedro e gli angoli formati dagli spigoli con il triangolo di base sono superiori ai valori soglia; il punto Q invece, rappresentato in rosso sarà probabilmente aggiunto alla classe dei punti del terreno dal momento che i rispettivi angoli e distanza sono molto prossimi a zero (tetraedro schiacciato). Questo accade perché il triangolo di base interseca - 107 - Capitolo 4 Sperimentazione la chioma dell’albero e i punti non sono soggetti a criteri di classificazione che tengano conto della distanza dai nodi. Figura 4.2.8 – Schema geometrico del filtro di Figura 4.2.9 – Possibile errore di classificazione della Axelsson classe objects nel filtro di Axelsson. Nell’algoritmo di Axelsson le soglie relative agli angoli degli spigoli e alla distanza dalla faccia danno luogo ad un tetraedro o tronco di tetraedro limite all’interno del quale tutti i punti sono classificati come terreno (Fig. 4.2.10): l’unione di ogni punto interno con i vertici del triangolo di base genera tetraedri le cui altezze e angoli risultano inferiori alle suddette soglie. I punti nella zona più vicina ai tre nodi sono, a pari densità, in quantità minore rispetto ai punti più prossimi al centro del triangolo di base; inoltre il terzo parametro di pendenza massima fa preferire punti più prossimi alle zone centrali del tetraedro limite dal momento che l’unione di punti vicini ai nodi genera facce con pendenze elevate: ciò si traduce nel fatto che ad ogni iterazione saranno aggiunti molti più punti nelle zone centrali dei triangoli che in quelle vicine ai seed-point. Figura 4.2.10 – Tronco di tetraedro limite dell’algoritmo di Axelsson all’interno del quale i punti sono classificati come terreno - 108 - Capitolo 4 Sperimentazione La opinione dello scrivente è che le zone centrali del triangolo di base, quando queste sono poste oltre una certa distanza dai punti seme, debbano essere escluse dall’analisi dei criteri di classificazione. Nelle vicinanze dei punti seme, le quote dei punti rilevati sono molto prossime tra loro, seguendo il naturale andamento del terreno; nelle zone centrali dei triangoli, oltre una certa distanza, la morfologia risulta ancora non nota: la densificazione dovrebbe quindi avvenire seguendo un principio di “region growing”. Il criterio utilizzato per l’individuazione dei punti appartenenti al terreno parte dal presupposto che nell’intorno dei punti seme, anche in questo caso selezionati con il criterio di quota minima, il terreno subisca variazioni di quota (positive e negative) contenute in un range scelto dall’utente; possibili oggetti come alberi, automobili, muretti, case ecc. interrompono la continuità della superficie ideale del terreno provocando brusche variazioni di quota. L’algoritmo PBTIN opera in maniera analoga a quello di Axelsson basandosi sulla densificazione iterativa di TIN a partire da punti seme scelti con il criterio di quota minima locale (MBW, Maximum Building Width) ma al contrario dell’algoritmo originario analizza soltanto le zone più vicine ai punti seme. La densificazione avviene quindi come una espansione attorno ai punti seme, in modo analogo agli algoritmi di “region growing”. Affinché un punto sia classificato come appartenente al terreno è necessario che siano verificate contemporaneamente tre condizioni nell’ambito del triangolo di appartenenza, relativamente a valori soglia definiti dall’utente (Fig. 4.2.11): 1. la distanza sulla faccia del triangolo di base dal punto seme più vicino; 2. la distanza dalla faccia del triangolo di base; 3. la pendenza del triangolo di base. L’algoritmo, il cui schema geometrico è illustrato nella figura 4.2.11, classifica come terreno tutti i punti racchiusi dai tre prismi rossi. - 109 - Capitolo 4 Sperimentazione Figura 4.2.11 – Schema geometrico dell’algoritmo PBTIN e parametri di filtraggio A ogni iterazione i punti da classificare sono indicizzati in funzione dell’appartenenza al triangolo planimetrico del TIN costruito tra i punti ground classificati nella precedente iterazione; per ogni triangolo vengono individuati i punti al di sotto delle soglie e aggiunti alla classe dei punti ground per la costruzione del nuovo TIN. La densificazione termina quando non si aggiungono più punti o quando tra due iterazioni successive il numero di punti ground classificati è inferiore a una percentuale impostata dall’utente. L’individuazione dei low-points è una fase molto importante negli algoritmi iterativi di TIN e risulta necessaria se si vogliono selezionare i punti seme utilizzando la procedura automatica. La selezione automatica dei punti seme utilizza il criterio del punto di quota minima all’interno di partizioni regolari le cui dimensioni, scelte dall’utente, sono da stabilire in funzione della massima larghezza degli edifici. In presenza di low-points l’algoritmo di selezione automatica sceglie tali punti come punti-seme con conseguenti - 110 - Capitolo 4 Sperimentazione errori di costruzione del TIN iniziale che non rappresenta così una corretta approssimazione del terreno nudo. La procedura, utilizzata anche da altri autori nei loro algoritmi [Axelsson, 2000; Brovelli et al, 2002], prevede la rimozione dei low-points prima del filtraggio. In LAIM il filtraggio di questi outliers avviene su un set di candidati low-points che possono essere individuati a priori attraverso l’analisi dei residui in quota da superfici (piano, paraboloide, ecc.) approssimanti localmente la nuvola dei punti, oppure durante la fase di selezione automatica dei punti seme. In quest’ultimo caso tutti i punti seme sono considerati candidati low-points e vengono successivamente analizzati e classificati con il seguente criterio. I low-points sono individuati attraverso un’analisi delle quote dei punti in un intorno circolare planimetrico del candidato low-point: se esso risulta essere il più basso tra tutti i punti interni, con una differenza che supera un determinato valore, allora può essere considerato un outlier e spostato in un’apposita classe. In presenza di low-point multipli, l’algoritmo descritto fallisce poiché in un intorno circolare del candidato capitano altri punti con quota simile; il problema è risolvibile se si dispone di una stima a priori della numerosità n di low-point presenti nell’intorno circolare (in genere è sufficiente sovrastimare n, tipicamente n=5 è sufficiente). La differenza tra i due metodi di individuazione esposti è che nel primo caso si riesce ad avere una rimozione completa dei low-points e quindi un set di dati esente da outliers, mentre nel secondo caso si ottiene un set di punti di certa appartenenza al terreno. Il secondo metodo risulta più veloce da applicare ma necessita in genere di successive iterazioni per ripristinare i punti seme nelle celle triangolari in cui erano stati individuati come low-points. Una procedura di eliminazione temporanea dei low-point dal set di dati da filtrare fa uso della procedura di selezione automatica dei punti seme supponendo presenze di low-point multipli; con i punti seme si costruisce un primo TIN e si considerano low-point tutti i punti al di sotto di una certa distanza dalle sue facce (Fig. 4.2.11). Una volta rimossi tali punti si reitera la scelta dei punti seme diminuendo la supposta numerosità dei low-point. La scelta dei punti seme iniziali è una fase importante di questo algoritmo: più numerosi sono i punti seme e più accuratamente verrà riprodotto il terreno nudo, particolarmente in presenza di morfologie complesse. La scelta del parametro MBW determina la densità di campionamento dei punti seme sul set di punti da filtrare, per cui risulta evidente che in presenza di zone urbane con - 111 - Capitolo 4 Sperimentazione strutture di dimensioni molto differenti, essa sia vincolata alla larghezza della massima struttura a discapito di una buona approssimazione iniziale del terreno. In figura 4.2.11 viene riportato un esempio di dati laser del test ISPRS 2003 (maggiori dettagli nel paragrafo 4.4) in cui si manifesta la contemporanea presenza di edifici di dimensione ordinaria e di una stazione ferroviaria dall’ingombro planimetrico considerevole che vincola la scelta della MBW a valori elevati affinché nessun punto seme ricada sulla sua copertura [Menna et al., 2006]. In questo sito vi sono edifici il cui cortile interno non viene classificato come ground per il limite apposto alla distanza piana e per la mancanza locale di punti seme. Una procedura di densificazione dei punti seme iniziali, che risolve in genere tale problema (figura 3), può essere riassunta nei seguenti passi: 1. selezione automatica dei punti seme supponendo low-points multipli e MBW adatta all’intera area; 2. costruzione di un TIN con i punti seme trovati; 3. spostamento in una classe temporanea di tutti i punti al di sopra delle facce del TIN oltre una certa distanza verticale (in genere 5 metri in zone pianeggianti); 4. nuova selezione dei punti seme con MBW ridotta. In questo flusso di operazioni la selezione automatica dei punti seme con low-points multipli è un passo comune anche alla procedura di eliminazione dei low-points e serve a garantire un set di punti seme di certa appartenenza al terreno nudo; le due procedure, che fanno uso entrambe del TIN dei punti seme, possono essere quindi applicate in maniera sequenziale e automatizzata. A meno di casi particolari in cui il terreno risulti morfologicamente complesso, tutti gli edifici saranno temporaneamente assenti dalla classe da filtrare. Reintroducendo in quest’ultima i punti della classe temporanea, si potrà iniziare il filtraggio Ground partendo da un set di punti seme più numeroso e meglio distribuito. Applicando tale procedura all’esempio suddetto è stato possibile apporre un numero notevole di punti seme senza il rischio che fossero posizionati sugli edifici. - 112 - Capitolo 4 Sperimentazione Figura 4.2.11 – Confronto tra due classificazioni effettuate con e senza procedura di densificazione dei punti seme iniziali su un edificio con cortile interno. I primi due parametri soglia possono essere intesi in differenti modi che danno luogo a diverse strategie, illustrate in figura 4.2.12, da applicare nelle varie tipologie di terreno e di densità di dati: 1. strategia I, distanza sul piano del triangolo di base dal punto seme più vicino, distanza normale dalla faccia; 2. strategia II, distanza planimetrica dal punto seme più vicino, distanza verticale dalla faccia del triangolo di base; 3. strategia III, distanza planimetrica dal punto seme più vicino, distanza normale adattiva amplificata di un fattore proporzionale alla secante della pendenza del triangolo di base. Le tre strategie si equivalgono in zone pianeggianti, mentre mostrano differenze sempre più marcate man mano che la pendenza del terreno aumenta, com’è possibile vedere in figura 4.2.12, dove sono mostrati, per ogni strategia, i parametri soglia su due possibili inclinazioni del triangolo di base, rappresentato in sezione: nei riquadri a sinistra il trian- 113 - Capitolo 4 Sperimentazione golo di base è caratterizzato da una pendenza non elevata che rende simili le tre strategie, nei riquadri di destra invece è possibile notare come all’aumentare della pendenza il numero dei punti che saranno classificati come terreno è differente per le tre strategie. Figura 4.2.12 – Rappresentazione dei parametri soglia su due differenti inclinazioni di un generico triangolo di base per le tre strategie. - 114 - Capitolo 4 Sperimentazione 4.3 PROBLEMATICHE INERENTI LA SELEZIONE DEI PUNTI SEME: CONFRONTO LAIM – TERRASCAN Negli algoritmi di classificazione dei punti ground-object, che si basano sulla densificazione iterativa di TIN, il risultato finale è molto influenzato dalla selezione dei punti seme iniziali, come già mostrato nel paragrafo precedente. In [Menna e Troisi, 2005, 2006] sono state evidenziate alcune problematiche inerenti la selezione automatica dei punti seme in presenza di falsi low-point. In un confronto effettuato con il sofware commerciale Terrascan della Terrasolid [Menna, Troisi, 2005] è stato mostrato come la selezione automatica dei punti seme non sempre risulti opportuna. In linea di massima l’eliminazione dei low-points tramite filtro dedicato permette di individuare correttamente in automatico i punti seme, ma vi sono alcuni casi in cui questa fallisce, In figura 4.2.13 è rappresentato un modello TIN di una porzione di dati laser di città in una zona in cui è stato aperto un cantiere. E’ visibile lungo il perimetro un fossato profondo all’incirca sei metri. I punti rilevati mostrano una configurazione tipica dei low-point anche se in realtà si tratta di punti fisici realmente esistenti; la loro eliminazione dall’insieme dei punti seme (seed-points) si rende comunque necessaria pena l’inevitabile scelta di alcuni di questi come punti seme in quanto a quota inferiore rispetto ai circostanti. E’ necessario quindi, in alcuni casi, verificare ed eventualmente rimuovere manualmente i punti seme iniziali erroneamente selezionati, operazione non consentita nel software commerciale Terrascan. Figura 4.3.13 – Zona del cantiere con le aree del fossato evidenziate in verde in cui la selezione automatica dei punti seme conduce a risultati errati. In LAIM sono state così implementate diverse funzioni di selezione automatica e manuale dei punti seme iniziali anche avvalendosi di immagini o modelli TIN con texture mapping (ortofoto 3D). Nel caso in esame i punti seme selezionati nel fossato sono stati spostati dalla classe dei punti seme iniziali. - 115 - Capitolo 4 Sperimentazione Il risultato delle classificazioni ground-objects dell’area urbana, in cui è presente il cantiere sopracitato, con i software commerciale Terrascan e sperimentale LAIM sono mostrati numericamente nella tabella 4.3.A e graficamente nella figura 4.3.14 e 4.3.15 (particolare del cantiere). Densità di 0.3 punti/m2 LAIM (strategia 1) TERRASCAN Parametri di filtraggio Max building size 30 Max building size 30 d-piana 15 Iteration angle 85 d-normale 0.25 Iteration distance 0.25 Pendenza max 85 Pendenza max 85 Risultati classificazione Low-points 43 Low-points 31 Ground 34248 Ground 33063 Objects 72872 Objects 74069 Tabella 4.3.A - Confronto LAIM – Terrascan su un set di dati ALS di città. Figura 4.3.14 – Classificazione dei punti Figura 4.3.15 - Classificazione dei punti in in LAIM: in blu i punti ground, in bianco i Terrascan: in blu i punti ground, in bianco i punti objects, in giallo i punti seme. punti objects. 4.4 IL TEST ISPRS DELL’ALGORITMO PBTIN Nel 2003 il Working Group III/3 "3D Reconstruction from Airborne Laser Scanner and InSAR Data" della commissione III ISPRS, ha effettuato uno studio allo scopo di valutare le prestazioni dei vari algoritmi di filtraggio, sviluppati dai vari enti di ricerca internazionali o implementati nei software commerciali, in zone dalle caratteristiche disomogenee ed individuare quindi delle linee guida per le future ricerche. I siti forniti per il test da FOTONOR AS erano in totale otto rilevati con sistema ALS (Airborne Laser Scanning) della Optech e comprendenti la zona urbana del centro di Stoccarda e quella rurale di Vaihingen/Enz. Alla fine dei test in accordo con i risultati dei - 116 - Capitolo 4 Sperimentazione filtraggi conseguiti dai vari partecipanti sono stati estratti quindici campioni di dati laser su particolari zone in cui gli algoritmi hanno commesso errori caratteristici della tipologia degli oggetti e della morfologia rilevati: strutture antropiche come ponti, edifici complessi, rampe, vegetazione, buchi nella copertura, presenza di punti erroneamente determinati. Per ogni campione di riferimento è stata eseguita una classificazione manuale dei punti in Bare Earth – Object (terreno – oggetti) con metodi fotogrammetrici; grazie a questi set di dati è stato possibile effettuare una valutazione qualitativa e quantitativa degli errori commessi dagli algoritmi. La valutazione della bontà dei risultati di una classificazione è avvenuta attraverso il confronto tra i dati di riferimento e quelli dei filtraggi dei partecipanti. Ogni partecipante ha scelto parametri di filtraggio univoci per ogni sito fornendo poi i risultati delle classificazioni a un gruppo di ricerca ISPRS che ha provveduto a calcolare le statistiche sugli errori in base ai dati di riferimento in loro possesso. Le statistiche prevedevano tre tipologie di errori definiti in maniera assoluta e relativa: • errori di tipo I: terreno nudo (Bare Earth-BE) classificato come oggetto; • errori di tipo II: oggetti (Objects-Obj) classificati come terreno nudo; • errore totale: somma degli errori di tipo I e II. I risultati sono stati presentati sottoforma di tabelle delle quali se ne mostra una versione semplificata in tab. 1. FILTERED BE SITE XX Obj Unused: u % BE a b a+b a +b f = % t Obj c d c+d g= REFERENCE h= a+c b+d a+c % t i= Type I b a+b c+d % t Type II c c+d Total b+c t t = a+b+c+d b+d % t Tabella 4.4.B Le quantità presenti in tabella rappresentano: a, numero di punti del terreno classificati correttamente; b, numero di errori di primo tipo; - 117 - Capitolo 4 Sperimentazione c, numero di errori di secondo tipo; d, numero di punti appartenenti ad oggetti classificati correttamente; t = a + b + c + d, numero totale di punti del campione di riferimento classificato manualmente; a+c, numero di punti classificati come terreno dall’algoritmo; b+d, numero di punti classificati come oggetti dall’algoritmo; a+c % t , percentuale di punti classificati come terreno dall’algoritmo rispetto h= al totale; i= b+d % t , percentuale di punti classificati come oggetti dall’algoritmo rispetto al totale; a+b, totale corretto di punti appartenenti al terreno; c+d, totale corretto di punti appartenenti ad oggetti; f = a +b % t , percentuale di punti del terreno rispetto al totale; g= c+d % t , percentuale di punti appartenenti ad oggetti rispetto al totale; u, numero di punti non classificati dall’algoritmo; b a + b , percentuale di errori di primo tipo rispetto al totale corretto di punti del terreno; c c + d , percentuale di errori di secondo tipo rispetto al totale corretto di punti appartenenti ad oggetti; b+c t , percentuale di punti errati (primo e secondo tipo) rispetto al totale dei punti. Il test si proponeva inoltre di determinare la dipendenza degli algoritmi dalla densità del rilievo e perciò, per alcuni siti, è stato valutato il filtraggio anche su dati sfoltiti di un fattore due e quattro. La valutazione della bontà dei filtraggi da parte dei partecipanti è avvenuta soltanto attraverso un’analisi visiva dei risultati dal momento che non era nota la verità a terra sui siti di riferimento e a causa della mancanza di informazioni aggiuntive quali fotogrammi, DTM ecc. delle zone rilevate. Tale analisi era in grado di evidenziare particolarmente gli - 118 - Capitolo 4 Sperimentazione errori di secondo tipo che i partecipanti al test hanno conseguentemente cercato di contenere. Gli errori di secondo tipo, dovuti ad oggetti erroneamente classificati come terreno, si presentano visivamente come una serie di punti ad esso sovrastanti; gli errori di primo tipo, dovuti a parti di terreno riconosciute come oggetti dall’algoritmo, si presentano invece come una mancanza di dati nella generazione del DTM che mostra un effetto smussato (per tale motivo chiamati anche errori di omissione). Da esperienze di classificazione manuale degli errori si è notato che, a parità di entità degli errori (intesi come differenza di quota tra il DTM errato e quello corretto nella posizione planimetrica del punto errato), risulta molto più agevole riconoscere e correggere gli errori di secondo tipo rispetto a quelli di primo, soprattutto se si hanno a disposizione strumenti di grafica 3D avanzati con possibilità di selezione spaziale e snap. Per questo motivo, la scelta dei partecipanti di minimizzare gli errori di secondo tipo, ha generato in alcune zone del test notevoli errori di primo tipo in prossimità dei terrazzamenti con conseguente omissione di tali zone nel DTM corrispondente. Il solo algoritmo che ha mostrato in queste zone un numero minore di errori di primo tipo, pur limitando quelli di secondo tipo, è stato quello di Axelsson per la sua peculiarità di utilizzare i cosiddetti mirror points [Axelsson, 2000] che però possono produrre errori di secondo tipo in presenza di ponti. L’algoritmo PBTIN, utilizzando i dati messi a disposizione dal sito WG3 commission III ISPRS (http://www.commission3.isprs.org/wg3/), è stato testato eseguendo i filtraggi di tutti i siti del test e utilizzando parametri di filtraggio e strategie (strategia uno) univoci all’interno dello stesso sito. Si riportano di seguito i risultati dei filtraggi sottoforma di grafici e tabelle per un’analisi simultanea di tipo qualitativo e quantitativo. I colori utilizzati nelle figure sono attribuiti secondo lo schema riportato in tabella 4.4.C. Terreno nudo (BE) Oggetti (Obj) Errori tipo I Errori tipo II Tabella 4.4.C - Colorazione dei punti utilizzati nelle figure 4.4.16 - 119 - Capitolo 4 Sperimentazione SITE 11 R E F FILTERED BE Obj BE 18152 3634 Obj 1224 15000 19376 18634 50,98 % 49,02 % STRATEGY I Unused: 0 % 57.32 21786 Type I % 42.68 16224 Type II % 38010 Total 16.68 7.54 12.78 Figura 4.4.16a SITE 12 R E F FILTERED BE Obj BE 25918 773 Obj 920 24508 26838 51.49 % 25281 48.51 % STRATEGY I Unused: 0 % 51.21 26691 Type I % 48.79 25428 Type II % 52119 Total 2.90 3.62 3.25 Figura 4.4.16b SITE 21 R E F BE Obj FILTERED BE Obj 10073 12 208 2667 10281 79.33 % 2679 20.67 % STRATEGY I Unused: 0 % 77.82 10085 Type I % 22.18 2874 Type II % 12960 Total 0.12 7.23 1.70 Figura 4.4.16c SITE 22 R E F FILTERED BE Obj BE 21567 937 Obj 688 9514 22255 68.05 % 10451 31.96 % Figura 4.4.16d - 120 - STRATEGY I Unused: 0 % 68.81 22504 Type I % 31.19 10202 Type II % 32706 Total 4.16 6.74 4.97 Capitolo 4 Sperimentazione SITE 23 R E F FILTERED BE Obj BE 12311 912 Obj 640 11232 12951 51.61 % 12144 48,39 % STRATEGY I Unused: 0 % 52.69 13223 Type I % 47.31 11872 Type II % 25095 Total 6.90 5.39 6.18 Figura 4.4.16e SITE 24 R E F FILTERED BE Obj BE 5132 302 Obj 217 1841 5349 71.40 % 2143 28.60 % STRATEGY I Unused: 0 % 72.53 5434 Type I % 27.47 2058 Type II % 7492 Total 5.56 10.54 6.93 Figura 4.4.16f SITE 31 R E F FILTERED BE Obj BE 15439 117 Obj 285 13021 15724 54.48 % 13138 45.52 % STRATEGY I Unused: 0 % 53.90 15556 Type I % 46.10 13306 Type II % 28862 Total 0.75 2.14 1.39 Figura 4.4.16g SITE 41 R E F BE Obj FILTERED BE Obj 5097 505 137 5492 5234 46.60 % 5997 53.40 % Figura 4.4.16h - 121 - STRATEGY I Unused: 0 % 49.88 5602 Type I % 50.12 5629 Type II % 11231 Total 9.01 2.43 5.72 Capitolo 4 Sperimentazione SITE 42 R E F FILTERED BE Obj BE 12341 102 Obj 761 29266 13102 30.85 % 29368 69.15 % STRATEGY I Unused: 0 % 29.30 12443 Type I % 70.70 30027 Type II % 42470 Total 0.82 2.53 2.03 Figura 4.4.16i SITE 51 R E F FILTERED BE Obj BE 13875 75 Obj 397 3498 14272 79.98 % 3573 20.02 % STRATEGY I Unused: 0 % 78.17 13950 Type I % 21.83 3895 Type II % 17845 Total 0.54 10.19 2.64 Figura 4.4.16l SITE 52 R E F FILTERED BE Obj BE 19467 645 Obj 270 2092 19737 87.82 % 2737 12.18 % STRATEGY I Unused: 0 % 89.49 20112 Type I % 10.51 2362 Type II % 22474 Total 3.21 11.43 4.07 Figura 4.4.16m SITE 53 R E F BE Obj FILTERED BE Obj 30275 2714 140 1249 30415 88.47 % 3963 11.53 % Figura 4.4.16n - 122 - STRATEGY I Unused: 0 % 95.96 32989 Type I % 4.04 1389 Type II % 34378 Total 8.23 10.08 8.30 Capitolo 4 Sperimentazione SITE 54 R E F FILTERED BE Obj BE 3937 46 Obj 262 4363 4199 48.78 % 4409 51.22 % STRATEGY I Unused: 0 % 46.27 3983 Type I % 53.73 4625 Type II % 8608 Total 1.15 5.66 3.58 Figura 4.4.16o SITE 61 R E F BE Obj FILTERED BE Obj 33372 482 67 1139 33439 95.38 % 1621 4.62 % STRATEGY I Unused: 0 % 96.56 33854 Type I % 3.44 1206 Type II % 3560 Total 1.42 5.56 1.57 Figura 4.4.16p SITE 71 R E F BE Obj FILTERED BE Obj 13693 182 136 1634 13829 88.39 % 1816 11.61 % STRATEGY I Unused: 0 % 88.69 13875 Type I % 11.31 1770 Type II % 15645 Total 1.31 7.68 2.03 Figura 4.4.16q I risultati evidenziati nelle figure 4.4.16 sono stati ottenuti utilizzando sempre la strategia uno sui dati originali. Viene mostrato di seguito il confronto delle statistiche sugli errori rispettivamente di primo tipo, secondo tipo e totale tra i risultati dei filtraggi del test ISPRS eseguiti con l’algoritmo di Axelsson (risultati ufficiali) e quelli ottenuti con l’algoritmo PBTIN. I tre grafici mostrati nelle figure 4.4.17(a-c) mettono a confronto l’andamento dei due algoritmi sopra citati nelle aree sottocampione dei siti del test. I grafici evidenziano un andamento medio molto simile tra gli algoritmi con differenze più sostenute tra le zone - 123 - Capitolo 4 Sperimentazione urbane (siti 1-4) e quelle rurali (5-7) dove nel primo caso l’algoritmo di Axelsson dimostra vantaggi nella classificazione delle zone prossime ai terrazzamenti. Dai valori medi degli errori dei test si evidenzia comunque un lieve vantaggio dell’algoritmo PBTIN su tutte le tipologie di errori rispetto a quello di Axelsson che molto spesso commette errori di secondo tipo in presenza di ponti. ERRORI TIPO I % 30 25 20 15 10 5 0 11 12 21 22 23 24 31 41 42 Axelsson 51 52 53 54 61 71 SITO PBTIN Figura 4.4.17a ERRORI TIPO II 20 % 15 10 5 0 11 12 21 22 23 24 31 41 Axelsson 42 51 52 53 54 61 PBTIN 71 SITO Figura 4.4.17b ERRORE TOTALE % 15 10 5 0 11 12 21 22 23 24 31 41 Axelsson Figura 4.4.17c - 124 - 42 51 PBTIN 52 53 54 61 71 SITO Capitolo 4 Sperimentazione Nelle figure 4.4.18(a-d) vengono mostrati i risultati dei filtraggi ottenuti sul sito 1 con densità ridotte rispettivamente di un fattore 2 per i dati denominati red1 e di un fattore 4 per i dati denominati red2. SITE 11 red 1 R E F FILTERED BE Obj BE 3846 1861 Obj 145 4060 3991 40.26 % 5921 59.74 % STRATEGY I Unused: 0 % 57.58 5707 Type I % 42.42 4205 Type II % 9912 Total 32.61 3.45 20.24 Figura 4.4.18a SITE 12 red 1 R E F BE Obj FILTERED BE Obj 6417 463 159 6479 6576 48.65 % 6942 51.35 % STRATEGY I Unused: 0 % 50.90 6880 Type I % 49.10 6638 Type II % 13518 Total 6.73 2.40 4.60 Figura 4.4.18ab SITE 11 red 2 R E F FILTERED BE Obj BE 899 511 Obj 87 984 986 39.74 % 1495 Figura 4.4.18c - 125 - 60.26 % STRATEGY I Unused: 0 % 56.84 1410 Type I % 43.17 1071 Type II % 2481 Total 36.25 8.12 24.10 Capitolo 4 Sperimentazione SITE 12 red 2 R E F FILTERED BE Obj BE 1519 163 Obj 48 1654 1567 46.31 % 1817 STRATEGY I Unused: 0 % 49.70 1682 Type I % 50.30 1702 Type II % 3384 Total 9.69 2.82 6.24 53.69 % Figura 4.4.18d Le figure 4.4.19(a-b) mostrano l’andamento degli errori commessi dall’algoritmo PBTIN sui siti 11 e 12 del test in funzione della densità dei punti ridotta dagli organizzatori del test di un fattore rispettivamente di due e quattro rispetto ai dati originali. Il grafico mostra come il numero di errori di primo tipo tende a crescere notevolmente al diminuire della densità dei punti mentre quelli di secondo tipo non ne soffrono particolarmente; di conseguenza l’errore totale aumenta solo per l’effetto dell’aumento degli errori di primo tipo. % 40 35 30 Errori Tipo I 25 20 Errori Tipo II 15 10 5 0 Errore Totale Orig Red 1 Red 2 Sito 11 Figura 4.4.19a 12 % 10 Errori Tipo I 8 Errori Tipo II 6 4 Errore Totale 2 0 Orig Red 1 Sito 12 Figura 4.4.19b - 126 - Red 2 Capitolo 4 Sperimentazione Su alcuni siti è stato eseguito il test anche con le strategie due e tre; si mostrano qui di seguito i risultati più significativi dei filtraggi utilizzando la strategia tre sul sito 5. L’intero sito è caratterizzato da una morfologia molto eterogenea con zone contraddistinte da forti pendenze data la presenza di una cava a ridosso di una collina e da zone edificate su terreno pressoché pianeggiante. L’applicazione della strategia tre sul sito in questione con parametri di filtraggio identici a quelli utilizzati con la strategia uno ha apportato notevoli vantaggi nell’individuazione dei punti del terreno in prossimità dei terrazzamenti della cava del campione 53 (figura 4.4.20a) ma ha, allo stesso tempo, provocato un numero notevole di errori di secondo tipo nella zona edificata del campione 54 (Fig. 4.4.20b). Questo suggerisce la possibilità di ottenere ulteriori miglioramenti nei filtraggi di zone morfologicamente eterogenee se le differenti strategie vengono applicate localmente e in maniera adattiva a seconda delle caratteristiche del terreno. È auspicabile quindi l’individuazione di una procedura di riconoscimento delle caratteristiche morfologiche in maniera automatica o semiautomatica facendo uso ad esempio di criteri di segmentazione. SITE 53 R E F FILTERED BE Obj BE 31969 1021 Obj 246 1143 32215 93.71 % 2164 6.29 % Figura 4.4.20a - 127 - STRATEGY III Unused: 0 % 95.96 32990 Type I % 4.04 1389 Type II % 34379 Total 3.09 17.71 3.69 Capitolo 4 Sperimentazione SITE 54 R E F FILTERED BE Obj BE 3941 42 Obj 574 4051 4515 52.45 % 4093 47.55 % Figura 4.4.20b - 128 - STRATEGY III Unused: 0 % 46.27 3983 Type I % 53.73 4625 Type II % 8608 Total 1.05 12.41 7.16 Capitolo 4 Sperimentazione 4.5 UN ESEMPIO DI UTILIZZO DEL SOFTWARE LAIM PER LA MODELLAZIONE DI UNA FRANA DA DATI LASER SCANNING TERRESTRE Sono state effettuate alcune applicazioni ad un rilievo laser terrestre sulla frana che ai primi di Marzo del 2005, ha colpito il comune di Nocera Inferiore (SA) in seguito ad un lungo periodo di piogge intense (Fig. 4.5.21). L’evento, particolarmente grave, ha provocato tre vittime e la precauzionale evacuazione di alcune case poste nella zona immediatamente a valle della montagna da cui è avvenuto il distacco del materiale piroclastico. Il fenomeno analogo a quello avvenuto sulle montagne di Sarno e Bracigliano non rappresenta un caso isolato ma fa parte di una serie di eventi franosi che continuamente interessano l’intera area della valle del Sarno. Figura 4.5.21 – Foto aerea della frana di Nocera Inferiore nel Marzo 2005. - 129 - Capitolo 4 Sperimentazione Il rilievo si proponeva di studiare le metodologie di progettazione ed analisi delle scansioni con sistemi TLS in zone particolarmente a rischio idrogeologico e sviluppo prevalentemente verticale come pareti rocciose, fronti di cave, frane, ecc. La frana di Nocera Inferiore ben si presta a questo tipo di sperimentazione a causa della forte pendenza che interessa localmente la montagna. Per poter effettuare delle scansioni dell’intero corpo frana, dalla zona a valle fino alla nicchia di distacco, è necessario poter usufruire di una strumentazione TLS a grande portata; in tal modo è possibile sia limitare il numero di stazioni di scansione, sia rilevare le zone più distanti come la nicchia di distacco. Il laser scanner utilizzato per il rilievo è l’Optec ILRIS-3D, mostrato nelle figure 4.5.22. Figura 4.5.22 – Laser scanner terrestre utilizzato per la sperimentazione. Sono state effettuate due campagne di rilievo rispettivamente nei mesi di Marzo (poco dopo l’evento) e Maggio; nell’ultima campagna sono stati effettuati anche i rilievi di appoggio di una coppia di fotogrammi di un volo in scala 1:13000 del 1997 con la quale è stato costruito un DSM per autocorrelazione tramite il software commerciale SOCET SET V5.0. Sono stati processati in questo esempio applicativo, soltanto i dati relativi alla scansione di Maggio. A causa della grande estensione della frana è stato scelto un punto di stazione posto a circa cinquecento metri dalla nicchia di distacco, al fine di limitare il numero di scansioni necessarie all’intera copertura, certi di poter sfruttare la grande portata dello strumento. La presenza di oggetti interposti, e la forte inclinazione dell’asse y del sistema - 130 - Capitolo 4 Sperimentazione di coordinate strumentali rispetto alla direzione orizzontale (al fine di rilevare la parte alta della frana), hanno determinato nel set di dati rilevato, una serie di zone caratterizzate da assenza di punti. È stato applicato con LAIM il filtro Ground selezionando i punti seme in modalità manuale sulla zona di deposito del materiale piroclastico (figura 4.5.23). Il filtraggio è avvenuto su un sottoinsieme sfoltito di circa duecentomila punti (l’originale è costituito da più di cinque milioni) inserendo i parametri visibili nella figura 4.5.24 (le coordinate visibili sono nel sistema strumentale). Figura 4.5.23- Selezione dei punti seme in modalità manuale In figura 4.5.24 è visibile un particolare del modello TIN dei triangoli di base a filtraggio completato mentre una visualizzazione grafica delle classi individuate è presentata nelle figure 4.5.25(a,b,c). - 131 - Capitolo 4 Sperimentazione Figura 4.5.24- Particolare del modello TIN dei triangoli di base a filtraggio Ground completato Figura 4.5.25- Alcune finestre di visualizzazione della classificazione. In bianco objects, in blu ground. - 132 - Capitolo 4 Sperimentazione Figura 4.5.26- Particolare di un albero filtrato e separato correttamente dal filtro Ground di LAIM Il set di punti rilevati è stato successivamente georeferenziato utilizzando le coordinate doppie (nel sistema strumentale e nel sistema WGS-84) dei quattro bersagli ben riconoscibili sul modello digitale (Fig. 4.5.27). Utilizzando poi l’orientamento esterno calcolato con il software SOCET SET, è stato possibile con LAIM sovrapporre i punti rilevati sull’immagine utilizzata per creare il DSM da image-matching. Il risultato è mostrato nelle figura 4.5.28. Infine, è stata creato il texture mapping della zona di Nocera Inferiore, sovrapponendo un’ortofoto ad un DTM ottenuto importando il file disegno della cartografia numerica in scala 1:5000 del comune (Fig.4.5.29). - 133 - Capitolo 4 Sperimentazione Figura 4.5.27- Sistemazione dei bersagli utilizzati per georeferenziare le scansioni laser Figura 4.5.28- Utilizzando il comando Visualizza punti su un’immagine di LAIM, è stato possibile sovrapporre i punti rilevati con laser scanner, su uno dei fotogrammi utilizzati per generare il DSM con il software SOCET SET. - 134 - Capitolo 4 Sperimentazione Figura 4.5.29- Texture mapping della zona di Nocera Inferiore creato con LAIM. - 135 - Capitolo 5 Sperimentazione Modellazione 3D inversa nel settore dei beni culturali 5.1 INTRODUZIONE 136 5.2 MODELLAZIONE MULTI-SCALA DEL FORO DI POMPEI 140 5.3 MISURAZIONE E RICOSTRUZIONE DI SUPERFICI 3D CON TECNICHE FOTOGRAMMETRICHE 148 5.1 INTRODUZIONE Oggigiorno la misurazione di superfici e la modellazione 3D inversa di oggetti sono generalmente ottenute con metodi fotogrammetrici (capitolo 2) o con sistemi ottici attivi (laser scanner o proiettori a luce strutturata, descritti nel capitolo 3) in funzione delle caratteristiche della superficie, accuratezza richiesta, dimensioni dell’oggetto e sua locazione, costi, ecc.. I sensori attivi [Blais, 2004] sono divenuti negli ultimi anni molto popolari, anche tra i non esperti del settore e nonostante i costi d’acquisizione della strumentazione e dei software molto elevati, perché semplici da utilizzare e perché forniscono direttamente e rapidamente i dati 3D richiesti. L’alternativa ai sensori attivi è rappresentata dalla fotogrammetria digitale, che d’altra parte richiede un background matematico per un corretto utilizzo delle relazioni analitiche per la trasformazione di misure piane sulle immagini in coordinate tridimensionali dei punti. Le tecniche imagebased per la modellazione tridimensionale (principalmente fotogrammetriche o di computer vision) [Remondino, El-Hakim, 2006] sono in genere preferite in caso di oggetti perduti, monumenti e architetture con forme geometriche regolari, costi limitati per l’esecuzione dell’intero progetto di modellazione e soprattutto nel caso vi siano restrizioni sul tempo disponibile per il rilievo sul campo (siti archeologici aperti al pubblico). I progressi conseguiti nel campo dell’elettronica hanno notevolmente incrementato le potenzialità offerte dalle moderne fotocamere digitali (oramai sono molto comuni sensori oltre i 10-12 mega pixel) diminuendo contemporaneamente il costo per l’acquisto (una fotocamera reflex digitale e obbiettivo adatti a scopi fotogrammetrici possono costare anche meno di 2000€). Inoltre il grande vantaggio della tecnica fotogrammetrica digitale è che un unico sistema fotografico può essere utilizzato per oggetti di dimensioni differenti e a differenti distanze se opportunamente calibrato, con evidenti vantaggi in termini di costi in confronto ai sistemi ottici a scansione. La modellazione 3D image-based però generalmente necessita di alcune interazioni - 136 - Capitolo 5 Sperimentazione dell’utente durante l’intero flusso di modellazione limitandone, in alcuni casi, l’attuazione ai soli esperti del settore. Sono nate diverse discussioni negli ultimi anni su quale tecnica o quale approccio è migliore e in quale situazione. Infatti la modellazione 3D image-based richiede una certa esperienza nell’acquisizione, elaborazione dei dati e ancora oggi un minimo di interazione manuale mentre i metodi range-based richiedono un budget iniziale sostenuto e tempi per l’elaborazione dei dati molto oneroso, talvolta non consentiti in alcuni progetti di modellazione. Inoltre un deficit reale della maggior parte dei sensori ottici attivi è l’indisponibilità di informazioni qualitative e semantiche che richiede l’acquisizione separata di immagini digitali da orientare poi separatamente (e quindi con integrazione fotogrammetrica). Remondino et al. [2008] hanno mostrato che in molte applicazioni terrestri, le tecniche fotogrammetrica e con sensori attivi consentono di ottenere risultati molto simili sia in termini di accuratezza che descrittivi, ma con costi e tempi nettamente inferiori. Infatti le tecniche di image-matching sono in grado oggi di fornire il dato metrico necessario alla generazione di modelli digitali densi di superficie con elevati livelli di affidabilità e accuratezza. Utilizzando algoritmi avanzati, possono essere ottenute nuvole di punti dense di oggetti complessi o di superfici dalle forme lisce e non definibili matematicamente (free-form surface) in modalità quasi totalmente automatica. E’ quindi possibile affermare che con il giusto algoritmo modellatore non vi sono differenze, nelle più comuni applicazioni terrestri, tra tecniche image-based e rangebased sia in termini di accuratezza che di livello di dettaglio. Ciononostante il modo ottimale in termini di costi, accuratezza, affidabilità e tempi di acquisizione ed elaborazione, per ottenere un modello 3D di strutture architettoniche o siti archeologici complessi, che rispettino il livello di dettaglio richiesto, consiste nell’integrare e combinare tecniche image-based e range-based. In questo capitolo sono mostrati alcuni esempi applicativi di modellazione 3D inversa nel settore dei beni culturali utilizzando approcci multi-scala e multi-tecnica con i quali è possibile documentare oggetti di diverse dimensioni, da vasti siti archeologici come quello del foro di Pompei, sino a reperti di piccolissime dimensioni come quelle di una moneta, su oggetti dalle forme semplici come i basamenti di statue e alcune opere murarie o su oggetti dalla forma complessa o ricca di particolari e dettagli come fregi, statue e bassorilievi. Sono inoltre riportati alcuni importanti confronti comparativi tra software commerciali e di ricerca per l’image-matching in ambito dei beni culturali - 137 - Capitolo 5 Sperimentazione attraverso lo studio e l’analisi di casi reali. Vengono inoltre analizzate le accuratezze raggiungibili con tecniche low-cost quali la fotogrammetria digitale con fotocamere amatoriali nella misura di modelli digitali densi di superficie DDSM, attraverso il confronto dimensionale con modelli digitali ottenuti con strumentazione e tecniche più accurate (nei casi specifici). 5.1.1 GLI STANDARD NELLA DOCUMENTAZIONE DIGITALE E NELLA MODELLAZIONE 3D INVERSA DEI BENI CULTURALI Negli ultimi anni le discipline del rilievo, rappresentazione e visualizzazione stanno conoscendo un periodo di innovazione e ottimizzazione tecnologica notevoli che ne hanno ulteriormente esteso il campo di utilizzo. Le attuali tecniche e metodologie di rilievo impiegate nel campo dei beni culturali sono senz’altro in grado di soddisfare i principi di standardizzazione e oggettività nella documentazione. L’avvento di queste nuove tecnologie, sempre in rapida e continua evoluzione, sta apportando indubbi vantaggi soprattutto in termini di rapidità e costi ma solleva interrogativi circa la standardizzazione dei prodotti e la loro utilizzazione da parte degli utenti finali. L’utilizzo di strumenti di rilievo automatici, se da una parte facilita la fase di acquisizione del dato durante la campagna di rilievi, dall’altra può condurre a una difficile gestione dello stesso soprattutto se eseguito da operatori non esperti, data l’enorme mole di informazioni acquisite. “It is essential that the principles guiding the preservation and restoration of ancient buildings should be agreed and be laid down on an international basis, with each country being responsible for applying the plan within the framework of its own culture and traditions” [The Venice Charter, 1964]. Questa frase, che risale a più di quaranta anni fa, riassume il principio al quale le istituzioni che sovrintendono alla conservazione e al restauro dei beni culturali dovrebbero ispirarsi. La necessità di terminologie e metodologie chiare, razionali e standardizzate è tuttora ancora evidente. L’assenza di direttive e procedure comuni a livello internazionale ha condotto in molti casi a documentazioni frammentate e spesso disomogenee perché all’interpretazione soggettiva e all’esperienza degli operatori addetti ai lavori. - 138 - affidate Capitolo 5 Sperimentazione Inoltre “… preservation of the digital heritage requires sustained efforts on the part of governments, creators, publishers, relevant industries and heritage institutions. In the face of the current digital divide, it is necessary to reinforce international cooperation and solidarity to enable all countries to ensure creation, dissemination, preservation and continued accessibility of their digital heritage” [UNESCO Charter on the Preservation of the Digital Heritage, 2003]. La conservazione e la divulgazione dei beni culturali richiede quindi grandi sforzi da parte delle istituzioni di governo competenti, e non solo, al fine di cooperare a livello internazionale per rendere possibile l’accesso delle nuove forme di documentazione digitale a tutti i potenziali utilizzatori. Da un punto di vista più tecnico, negli ultimi dieci anni sono stati introdotti sul mercato molti pacchetti software di modellazione image-based e range-based molto pubblicizzati per la modellazione 3D inversa nel settore dei beni culturali. La necessità di creare degli standard per la documentazione 3D sta divenendo sempre più impellente, standard che in altri settori del rilievo 3D sono già presenti come per esempio la topografia o la metrologia industriale con CMM. Naturalmente oltre agli standard sono certamente indispensabili ulteriori confronti comparativi su casi reali allo scopo di mostrare non solo i vantaggi molto pubblicizzati dalle aziende sviluppatrici di software, ma anche i limiti. In questo contesto lo standard German VDI/VDE 2634 contiene test e procedure di controllo per definire le accuratezze ottenibili con sistemi ottici di misura close-range sia attivi che passivi. La commissione per gli standard E57 della Società Americana per il Testing e i Materiali (ASTM) sta cercando di definire degli standard per i sistemi di misura 3D per le applicazioni di rilievo geodetico e topografico, conservazione dei beni culturali, cantieristica, ecc.. L’Associazione Internazionale per il Pattern Recognition (IAPR) ha creato la Commissione Tecnica 19– Computer Vision for Cultural Heritage Applications – con lo scopo di promuovere metodologie innovative nella documentazione dei beni culturali. Il Centro di Ricerca Nazionale Canadese (NRC) [Beraldin et al., 2007] e il NIST [Cheok et al., 2006] stanno valutando le performance dei sistemi di misura 3D (soprattutto scanner) allo scopo di sviluppare dei protocolli per il testing degli strumenti definendo delle procedure standardizzate. Per quanto concerne degli standard in termini di visualizzazione e presentazione dei modelli 3D, London Charter [2008; http://www.londoncharter.org/] sta cercando di definire gli obbiettivi e i principi base nella conservazione e accessibilità dei beni culturali. - 139 - Capitolo 5 Sperimentazione 5.2 MODELLAZIONE MULTI-SCALA DEL FORO DI POMPEI Recentemente lo scrivente ha avuto modo di partecipare a un progetto di modellazione 3D inversa di vasti e complessi siti archeologici al fine di studiare le problematiche, le potenzialità e i limiti imposti dalle moderne tecnologie di rilievo e modellazione 3D in ambito dei beni culturali [Guidi et al., 2008]. La modellazione 3D dell’area archeologica del Foro di Pompei fa parte di un progetto che mira alla generazione di un database 3D come strumento di supporto agli archeologi della Sovrintendenza per i Beni Archeologici di Pompei nello studio, nell’analisi e nella pianificazione di interventi di conservazione e restauro. Inoltre il modello 3D finale sarà utilizzato anche a scopi divulgativi per fornire al pubblico un mezzo per la comprensione della complessa struttura stratificata del Foro di Pompei. L’area archeologica è approssimativamente 150 x 80 m, contiene grandi strutture murarie di antichi edifici e templi e più di 350 reperti sparsi in tutto il sito (Fig. 5.2.1). Figura 5.2.1 – (A) Il Foro di Pompei, approssimativamente lungo 150 metri e largo 80 metri, visto in un’immagine aerea obliqua con l’area del progetto di modellazione sovrapposta con colore rosso. (B) Alcuni reperti archeologici sparsi in tutta l’area e un bassorilievo particolareggiato (in basso a destra). In questo tipo di progetti è richiesta un’attenta fase di pianificazione al fine di valutare le tecnologie più adatte al rilievo, stimare il tempo necessario all’acquisizione del dato - 140 - Capitolo 5 Sperimentazione metrico, definire dei parametri di qualità, evitare i turisti ecc.. Nel progetto, il tempo disponibile per eseguire i rilievi sul campo è stato limitato da una serie di fattori che comprendevano tra gli altri la disponibilità di attrezzature e personale di supporto, accessi ai siti riservati e costi del progetto. 5.2.1 METODOLOGIE DI MODELLAZIONE 3D MULTI-RISOLUZIONE I dati multi-risoluzione sono oggi alla base di numerosi database e sistemi digitali di visualizzazione. Probabilmente gli esempi più noti sono oggi forniti dai software Google Earth o Microsoft Virtual Earth in cui la risoluzione spazia da alcune centinaia di metri (sia geometrica che d’immagine) sino ad alcune decine di centimetri (solo risoluzione d’immagine). L’utente può esplorare i modelli digitale del terreno a bassa risoluzione quando l’area visualizzata è molto ampia e ottenere, quando necessario, dati ad alta risoluzione spaziale spesso con collegamenti ad altre informazioni 2D/3D (testo, immagini, modelli 3D di edifici, ecc.). Per il rilievo 3D dell’area archeologica del Foro di Pompei è stato utilizzato un approccio simile, utilizzando immagini aeree per l’esplorazione generale del sito e immagini terrestri e dati spaziali a risoluzione maggiore per i reperti e per un’esplorazione più nel dettaglio. L’approccio multi-risoluzione e l’integrazione di diverse tecniche e metodologie di modellazione (fotogrammetria, sensori attivi, rilievo topografico, ecc.) forniscono oggi i migliori risultati in termini di ottimizzazione del prodotto finale. Infatti ciascun livello di dettaglio (LOD) mostra soltanto l’informazione necessaria ottenuta con la tecnica di modellazione più opportuna. Nel progetto di modellazione del Foro di Pompei la motivazione che ha spinto ad adottare una metodologia integrata è stata duplice: a) adattare il livello di informazione associato a ciascun artefatto contenuto nell’area allo strumento proposto (per esempio modellazione fotogrammetrica manuale per grandi mura pressoché piane, laser scanning per strutture murarie irregolari o parzialmente rotte, image-matching fotogrammetrico per decorazioni piccole e dettagliate); b) introdurre un livello di ridondanza utile a ottimizzare l’accuratezza dei modelli e/o identificare possibili errori nella misurazione degli stessi. Per la documentazione 3D dell’area archeologica sono stati utilizzati i seguenti dati (riassunti anche in tabella 5.2.A): - 141 - Capitolo 5 Sperimentazione 1. fotografie aeree con scala fotogramma 1:3500 acquisite da un precedente lavoro cartografico; 2. immagini aeree oblique per scopi di texture mapping; 3. dati laser scanning terrestre acquisiti con due scanner Leica; 4. immagini fotografiche terrestri allo scopo di (i) riempire buchi nella copertura delle scansioni, (ii) documentare con elevata risoluzione, per mezzo di imagematching, piccoli reperti, (iii) ricostruire semplici strutture murarie. La risoluzione spaziale spazia da 25cm a pochi millimetri in geometria e da 15 cm a pochi millimetri per la risoluzione delle immagini. L’utilizzo di immagini oblique (ottenute con tecnologia Pictometry) è stato dettato dal fatto che le immagini aeree erano datate 1987 e riprendevano quindi una situazione del Foro differente da quella odierna. Tabella 5.2.A – Tabella riassuntiva dei dati multi-risoluzione e delle differenti tecniche utilizzate. 5.2.2 ELABORAZIONE DEI DATI Le tre immagini aeree con scala fotogramma 1:3500 sono state orientate con tecnica bundle-adjustment utilizzando alcuni control point disponibili dalla rete cartografica locale. Per la generazione del DSM dell’area degli scavi da immagini aeree è stato utilizzato il software sperimentale dell’ETH SAT-PP che impiega l’algoritmo di imagematching basato sul principio del LSM, descritto nel paragrafo (2.5.2) [Zhang, 2005; Remondino et al., 2008]. L’algoritmo ha derivato una nuvola densa di circa 18 milioni di punti per un’area di 1 x 0,8 km2. - 142 - Capitolo 5 Sperimentazione Figura 5.2.2 – Il DSM di circa 18 milioni di punti dell’area archeologica d’interesse generato da tre foto aeree mostrato con colorazione dei punti in funzione della quota (in alto sinistra) e in visualizzazione shaded (in alto a destra). In basso a sinistra e a destra due vedute del texture mapping del Foro di Pompei (25 cm di risoluzione geometrica). I dati acquisiti con i laser scanner (circa 1.2 miliardi di punti) sono stati elaborati con il software Cyclone (Leica Geoystem AG, Switzerland) e Polyworks (Innovmetric, Canada). L’allineamento delle scansioni (con metodi surface-matching) e l’editing dei dati (rimozione punti di non interesse, generazione di layer, campionamento e suddivisione semantica delle diverse strutture) ha richiesto circa 6 mesi di lavoro. Dopo questa fase di semplificazione e riduzione dei punti nelle zone di sovrapposizione delle scansioni, 36 milioni di punti sono stati utilizzati per la modellazione delle opere murarie (14 edifici più un muro di cinta esterno) e per il modello digitale del terreno; 64 milioni di punti sono stati utilizzati per descrivere sommariamente la geometria dei 377 reperti archeologici di tutto il foro. In totale quindi circa 100 milioni di punti (Fig.5.2.3) sono stati perciò utilizzati per descrivere tutte le geometrie del Foro rispetto a circa 1,2 miliardi di punti iniziali con una riduzione quindi di circa 1:10. Per ridurre il numero di poligoni nella mesh finale è stato utilizzato il software IMCompress, parte del software Polyworks - 143 - Capitolo 5 Sperimentazione che, basandosi su un processo sequenziale di ottimizzazione, rimuove iterativamente i vertici della triangolazione, minimizzando la distanza 3D tra il modello con poligoni ridotti di numero e quello originale. Il processo si ferma quando la massima distanza tra il nuovo modello poligonale e quello originale eccede una tolleranza imposta dall’utente. In questo modo il software ha rimosso i vertici ridondanti nelle zone di sovrapposizione delle scansioni mantenendo però il modello finale quanto più fedele a quello originale. Figura 5.2.3 – Nuvola di punti finale delle opere murarie del Foro. Le immagini terrestri, circa 3200, sono state utilizzate per (i) modellare tutte le opere murarie dell’area del Foro, (ii) ricostruire i 377 reperti e (iii) generare modelli 3D dettagliati di alcuni ornamenti (fregi, bassorilievi, ecc.). La maggior parte del processo, applicato a opere murarie ben conservate (sostanzialmente piane) e ai reperti sparsi nel Foro come colonne, trabeazioni, basamenti, architravi, ecc. è stato ottenuto con il software di fotogrammetria close-range Photomodeler mentre per la generazione dei modelli digitali degli ornamenti è stato utilizzato il software SAT-PP dell’ETH di Zurigo che si basa sul LSM. - 144 - Capitolo 5 Sperimentazione A) C) B) Figura 5.2.4 – Modelli di reperti e opere murarie dalle forme regolari modellati con tecniche di fotogrammetria digitale (A). Modelli particolareggiati di statue, bassorilievi e fregi, modellati con tecniche di image-matching (B-C). 5.2.3 INTEGRAZIONE DEI DATI MULTI-TECNICA Il diagramma di flusso dell’integrazione dei dati a diversa risoluzione e provenienti da diverse tecniche è mostrato in figura 5.2.5. Per poter integrare e portare i dati spaziali in un unico sistema di riferimento di coordinate geografico è stato utilizzato un set di punti di riferimento topografici forniti dalla Sovrintendenza degli Scavi Archeologici di Pompei integrato da un’ulteriore campagna di rilievi. - 145 - Capitolo 5 Sperimentazione Figura 5.2.5 – Diagramma di flusso di integrazione dei dati multi-risoluzione, rilevati con diverse tecniche. La campagna di acquisizione con tecnica laser scanning è stata dapprima utilizzata per creare una struttura geometrica di riferimento nel quale orientare ciascun modello fotogrammetrico e per tale motivo le prime due scansioni sono state acquisite da due punti topografici di coordinate note e tutte le altre scansioni allineate su queste. Il modello finale è stato così rototraslato (paragrafo 3.3) utilizzando la trasformazione di Helmert (con fattore di scala fissato all’unità) su punti di riferimento documentati. La nuvola di punti è stata quindi utilizzata per rototraslare i modelli fotogrammetrici a più basso LoD e, grazie alla ridondanza dei dati, è servita inoltre per controllare possibili errori di modellazione. Tutti i modelli sono stati così allineati in un unico sistema di riferimento, compresi quelli ad elevata risoluzione, provenienti da tecniche fotogrammetriche di imagematching. Una particolare attenzione è stata prestata per l’ottimizzazione del modello finale ai fini della visualizzazione. I singoli modelli sono stati selettivamente semplificati lasciando pochi poligoni in aree pressoché piane e un’elevata risoluzione geometrica solo nelle aree indicate dal team archeologico del progetto. Il livello di risoluzione immagine del texture mapping è stato considerato indipendente da quello geometrico in modo da massimizzare il livello di informazione associato a uno specifico artefatto. In questo modo una risoluzione geometrica bassa con un elevata risoluzione immagine del texturemapping sono state utilizzate per le mura piatte caratterizzate dallo schema costruttivo romano “opus reticulatum”, oppure al contrario sono state utilizzate una bassa risoluzione immagine accoppiata a un elevata risoluzione geometrica nel caso di reperti o - 146 - Capitolo 5 Sperimentazione opere murarie complesse ma costruite con materiali uniformi o non particolarmente interessanti. 5.3 MISURAZIONE E RICOSTRUZIONE DI SUPERFICI 3D CON TECNICHE FOTOGRAMMETRICHE La misurazione fotogrammetrica della superficie di un oggetto è oggi generalmente ottenuta stabilendo delle corrispondenze tra primitive geometriche estratte su due o più immagini (paragrafo 2.5) per mezzo delle quali le primitive sono così convertite in informazioni 3D attraverso un modello matematico (equazioni di collinearità o modello proiettivo, paragrafo 2.1.5 e 2.2.2 ). Il problema dell’image-matching è stato studiato per più di 30 anni ma ciononostante le problematiche esistenti sono ancora molteplici: completa automazione, ostruzioni, aree con poca texture, strutture ripetitive, oggetti in movimento (incluse le ombre), artefatti radiometrici (per esempio derivanti dal processamento delle immagini digitali), oggetti traslucidi, applicabilità a differenti configurazioni delle camere, ecc.. Nel caso aereo e da satellite i problemi sono limitati e nella maggior parte già risolti (una prova è il gran numero di software commerciali per la generazione di DSM) mentre in applicazioni terrestri questi derivano principalmente dalle caratteristiche tridimensionali dell’oggetto e spesso dalla configurazione delle prese fotogrammetriche con larghe basi e assi convergenti. Nei comuni software commerciali questo tipo di configurazioni sono difficilmente accettate. Vi sono due principali classi di primitive da correlare automaticamente: (1) pattern d’intensità immagine (Area Based Matching, ABM) per esempio finestre di valori di grigio nell’intorno del punto d’interesse e (2) features (Features Based Matching, FBM) per esempio bordi e linee di separazione tra superfici con colorazione differente. In genere il metodo FBM viene integrato a quello ABM fornendo risultati sensibilmente migliori rispetto all’utilizzo della sola tecnica ABM (in molti software l’unica a essere implementata) soprattutto in zone in cui sono presenti molte discontinuità. Per applicazioni nella documentazione o la generazione di repliche fisiche di beni culturali come quelli mostrati in figura 5.3.6 è possibile affermare che nella maggior parte delle situazioni la risoluzione della ricostruzione 3D deve essere circa di 1-2 millimetri con accuratezze di 0.5 mm o migliori (per esempio nel caso della moneta visibile nella stessa figura). - 147 - Capitolo 5 Sperimentazione Figura 5.3.6 – Alcuni esempi di oggetti d’interesse nei beni culturali modellati con tecniche di image-matching durante questa sperimentazione. Texture mapping e visualizzazioni shaded sono state generate con il software LAIM (capitolo 4). 5.3.1 SOFTWARE COMMERCIALI E DI RICERCA In questa sperimentazione sono stati messi a confronto due software commerciali (BAE systems SOCET SET e Topcon PI-3000) e due software di ricerca (SAT-PP e ARC3D) utilizzando immagini terrestri con assi convergenti [Remondino e Menna, 2008]. Le principali caratteristiche di questi software sono indicate nelle tabella 5.3.B. ulteriori lavori di ricerca con questi software sono illustrati in [Zhang et al., 2006: Menna and Troisi, 2007] e [Kadobayashi et al., 2004; Chandler et al., 2007]. Il software Topcon PI3000, fornito soltanto in modalità demo, non ha consentito l’esportazione dei modelli 3D e per tale motivo non sono mostrati i risultati numerici dei confronti. Il software funziona utilizzando la geometria epipolare dopo che le immagini sono state orientate manualmente. Il software fornisce i modelli digitali 3D sottoforma di TIN da coppie di immagini, può essere elaborata una sola coppia per volta. - 148 - Capitolo 5 Sperimentazione Altri software commerciali, sviluppati per la generazione di DTM da immagini aeree (sensori lineari e frame) e da vari tipi di immagini digitali, sono: ERDAS LPS, Z/I ImageStation, Inpho MATCH-T e SimActive Correlator3D. Recentemente Photomodeler (software generalmente utilizzato per la modellazione 3D in ambito terrestre) ha rilasciato un nuovo modulo, chiamato Photomodeler Scanner, che è in grado di generare ricostruzioni dense di superfici da coppie di immagini (una coppia per volta e con assi non molto convergenti). Tabella 5.3.B – Caratteristiche dei software per l’image-maatching testati in questa sperimentazione. I due software di ricerca sono brevemente descritti nei successivi paragrafi. 5.3.1.1 SAT-PP Il software per l’image matching dell’Institute of Geodesy and Photogrametry dell’ETH di Zurigo è stato progettato per effettuare la misurazione di superfici da immagini ad alta risoluzione provenienti da sensori lineari [Zhang e Gruen, 2004; Zhang, 2005] e successivamente adattato per elaborare immagini provenienti da immagini aeree o terrestri con assi convergenti [Remondino e Zhang, 2006; Lambers et al., 2007; Remondino et al., 2008]. SAT-PP ha un approccio multi-immagine basato sul Least Square Matching (LSM) con vincoli sulla geometria epipolare [Gruen e Baltsavias, 1988; Baltsavias, 1991]. Il software utilizza un approccio gerarchico da un basso livello di dettaglio nella misurazione fino a quello di LoD massimo che risulta essere la combinazione di diverse primitive immagine (punti d’interesse, edges, punti su un grigliato regolare), e diversi algoritmi di image-matching (sia cross-correlation che LSM) con controllo automatico finale sulla qualità del processo. - 149 - Capitolo 5 Sperimentazione 5.3.1.2 ARC 3D WEBSERVICE ARC 3D (homes.esat.kuleuven.be/~visit3d/webservice/v2/) [Vergauwen e Van Gool, 2006] è un gruppo di strumenti software gratuiti che consentono agli utenti registrati al servizio di caricare una sequenza di immagini digitali (stero-coppie) sul server del sito internet e ricevere dopo alcune ore il risultato sottoforma di modello 3D. Le immagini possono essere ricampionate per velocizzare il trasferimento dei file stesso al momento dell’upload. ARC 3D effettua la ricostruzione su una rete di computer e in funzione delle caratteristiche delle immagini quali dimensione, numero e qualità un tipico lavoro richiede dai 15 minuti alle 2-3 ore. Se la ricostruzione è avvenuta con successo, il sistema invia una notifica mediante e-mail consentendo quindi il download dei dati. Il sistema è totalmente automatico e richiede almeno 5-6 immagini non molto convergenti. Inoltre la scena inquadrata nelle immagini non deve essere piana altrimenti il processo di selfcalibration per la stima dei parametri di orientamento interno ed esterno fallisce. Inoltre la distanza principale deve essere tenuta costante durante l’acquisizione delle immagini così come non sono consentite immagini ruotate. Successivamente mediante il software gratuito MeshLab sviluppato dal CNR-ISTI di Pisa (http://meshlab.sourceforge.net/), è possibile scegliere i parametri di image matching o generare il modello poligonale sottoforma di mesh triangolare. 5.3.2 ESEMPI E ANALISI DELLE PERFORMANCE In questa sperimentazione sono stati acquisite diverse sequenze di immagini a differenti risoluzioni e scale. Le caratteristiche fondamentali di questi dataset sono riassunti in tabella 5.3.C. Venice Edzna Dresden Stone Bern Eye Number of images 3 9 6 3 7 4 Image resolution 5 MP 3 MP 6M 6 MP 7 MP 7 MP Scale Number 550 850 300 215 125 6 GSD [mm] 14 3.3 0.6 0.4 0.3 0.015 Tabella 5.3.C - Caratteristiche principali delle sequenze di immagini utilizzate in questa sperimentazione Le immagini sono state acquisite con camere amatoriali digitali precedentemente calibrate mediante bundle block adjustment con self calibration. Tutte le immagini sono state orientate relativamente tra loro inserendo come vincolo di scala la distanza misurata tra due punti. I residui immagine sono risultati essere tutti - 150 - Capitolo 5 Sperimentazione inferiori al pixel. Poiché il software ARC 3D effettua autonomamente e automaticamente l’intero flusso di modellazione fotogrammetrica, non è stato possibile controllare la calibrazione e la fase d’orientamento delle immagini con conseguenti problemi sulla scalatura dei modelli che ha reso difficoltoso il processo di confronto. Il software SOCET SET, acronimo di SOftCopy Exploitation Toolkit, è un software della BAE SYSTEMS, specificamente sviluppato per immagini aeree e da satellite e non consente di orientare immagini in assenza di punti di controllo e/o con immagini convergenti. I parametri di orientamento esterno sono stati quindi ottenuti con il software Photomodeler e poi importati manualmente in SOCET SET. I moduli Automatic Terrain extraction (ATE) e Next Generation Automatic Terrain Extraction (NGATE) del software SOCET SET effettuano la misura automatica di DSM principalmente su stereo-coppie ad assi paralleli anche se recentemente lo scrivente [Menna e Troisi, 2007] ne ha mostrato l’utilizzo anche con immagini ad assi convergenti. ATE è un software di image-matching che usa l’algoritmo con approccio gerarchico Hierarchical Relaxation Correlation (HRC) dallo spazio oggetto a quello immagine (grid points). NGATE è invece basato su un approccio ibrido che fa uso di metodologie ABM e FBM; i risultati del matching ottenuti con la cross-correlation sono utilizzati per guidare e vincolare l’approccio Features Based Matching. Il risultato finale è quindi una combinazione dei due approcci e include strumenti per l’individuazione automatica di errori grossolani (utilizzando più coppie di immagini). L’image-matching avviene dallo spazio immagine a quello oggetto cercando le corrispondenze nelle stereo-coppie per ogni pixel delle immagini. I risultati più soddisfacenti sia da un punto di vista di dettaglio che di accuratezza si sono ottenuti con il modulo NGATE. Tutti i software utilizzati nella sperimentazione, eccetto il SAT-PP, hanno mostrato problemi nelle zone con poca texture (per esempio materiali omogenei come il marmo) e generalmente richiedono tecniche avanzate di pre-elaborazione delle immagini (SAT-PP usa il filtro di Wallis) per diminuire il rumore digitale. Inoltre le moderne camere digitali inglobano funzioni di elaborazione delle immagini come lo sharpening che introducono artefatti in prossimità di bordi aumentando ulteriormente il rumore locale. I risultati grafici dei primi cinque dataseti sono mostrati nelle figure 5.3.7-5.3.11. - 151 - Capitolo 5 Sperimentazione Figura 5.3.7 – DSM del dataset Venezia generati rispettivamente con i software NGATE (a), ATE(b), ARC 3D (c), SAT-PP (d). E’ notevole il rumore e l’effetto smoothing sui fregi e sui bordi nel DSM generato con ATE (b). Il DSM di ARC 3D presenta alcuni buchi (c) Non è stato applicato alcun filtro smoothing durante la fase di generazione delle mesh. - 152 - Capitolo 5 Sperimentazione Figura 5.3.8 – DSM del dataset “Edzna” generati rispettivamente con i software NGATE (a), ATE(b), ARC 3D (c), SAT-PP (d). E’ notevole il rumore e l’effetto smoothing sui bordi nel DSM generato con ATE (b). Il DSM di ARC 3D presenta alcuni errori causati molto probabilmente da un errata fase di orientamento (c). Non è stato applicato alcun filtro smoothing durante la fase di generazione delle mesh. - 153 - Capitolo 5 Sperimentazione a) b) c) d) Figura 5.3.9 – DSM del dataset “Dresden” generati rispettivamente con i software NGATE (a), ATE(b), ARC 3D (c), SAT-PP (d). Non è stato applicato alcun filtro smoothing durante la fase di generazione delle mesh. - 154 - Capitolo 5 Sperimentazione a) b) c) d) Figura 5.3.10 – DSM del dataset “Stone” generati rispettivamente con i software NGATE (a), ATE(b), ARC 3D (c), SAT-PP (d). Il Non è stato applicato alcun filtro smoothing durante la fase di generazione delle mesh. - 155 - Capitolo 5 Sperimentazione a) b) c) d) Figura 5.3.11 – DSM del dataset “Bern” generati rispettivamente con i software NGATE (a), ATE(b), ARC 3D (c), SAT-PP (d). Sono notevoli il rumore e l’effetto di smoothing nel DSM generato con ATE. In questo caso i buchi nel DSM generato con ARC 3D sono dovuti alla geometria di presa (dal basso verso l’alto). Non è stato applicato alcun filtro smoothing durante la fase di generazione delle mesh. - 156 - Capitolo 5 Sperimentazione Per il dataset “Eye” è stata effettuata una scansione con uno scanner a proiezione di luce strutturata Breuckmann Opto-Top HE dall’accuratezza strumentale di circa 50 micron. I DSM generati con i diversi software sono stati così confrontati con il software Polyworks IMAlign. Un primo allineamento approssimativo tra i DSM è stato ottenuto con la procedura N-Point Pairs che usa la trasformazione conforme di Helmert senza fattore di scala. Un caso a parte è stato quello relativo al DSM generato dal software ARC 3D, scalato e rototraslato utilizzando un modulo del software LAIM, sviluppato in proprio, in cui è compreso il fattore di scala. Supponendo questo allineamento come buona approssimazione iniziale è stata utilizzata successivamente la procedura basata sull’algoritmo ICP (Iterative Closet Point, descritta nel capitolo 3) per determinare il “Best Fit Alignment”. In questa fase, il software minimizza le differenze tra le due mesh applicando iterativamente e sequenzialmente delle rotazioni e traslazioni incrementali alla mesh mobile (i DSM da fotogrammetria in questo esperimento) secondo il principio dei minimi quadrati lineari imponendo quindi che la media tra le distanze tra le due mesh sia nulla e minimizzando la sommatoria dei quadrati delle distanze tra i punti delle due mesh. Il software fornisce alla fine del processo di allineamento ai minimi quadrati lineari la varianza dell’unità di peso a posteriori che può essere intesa come una stima della media quadratica delle distanze euclidee tra i punti delle due mesh. Poichè il processo di allineamento nei software commerciali avviene in genere con algoritmo ICP senza variazioni di scala, in questo caso specifico e come dimostrato anche in un altro recente lavoro [Fiani et al., 2008], si è dovuto procedere al confronto apportando delle variazioni di scala manuali e incrementali tali da minimizzare il valore della varianza dell’unità di peso a posteriori. Infatti i software commerciali sono sviluppati per effettuare confronti tra dati omogenei, per esempio tra dati laser scanning e non prevedono quindi la possibilità di confrontare dati con differenti scale. Inoltre da questa sperimentazione è stato notato che diversi software (Rapidform, Geomagic, Polyworks) forniscono risultati leggermente differenti, probabilmente dovuti agli algoritmi di rimozione automatica degli outlier in fase di allineamento. Per tale motivo è stato difficile definire dei parametri oggettivi per il confronto tra i diversi algoritmi e non è quindi consentito definire un “vincitore”. E’ necessario effettuare ancora diversi test per cercare di individuare delle metodologie standard nel confronto di dati di provenienza eterogenea. Nella figura 5.3.12 sono mostrati la sequenza di immagini per il dtataset “eye” e i DSM generati con scanner a proiezione di luce strutturata e con i diversi software di image - 157 - Capitolo 5 Sperimentazione matching. I confronti mediante allineamento ICP tra i DSM sono mostrati invece nella figura 5.3.13. - 158 - Capitolo 5 Sperimentazione a) b) c) d) e) f) Figura 5.3.12 – Le quattro immagini del dataset “Eye” (in alto). DSM (a) generato con lo scanner a proiezione di luce strutturata Breuckmann (b) e DSM generati rispettivamente con i software NGATE (c), ATE(d), ARC 3D (e), SAT-PP (f). Non è stato applicato alcun filtro smoothing durante la fase di generazione delle mesh. - 159 - Capitolo 5 Sperimentazione a) b) c) d) Figura 5.3.13 – Confronti con metodo ICP tra i DSM generati rispettivamente con i software NGATE (c), ATE(d), ARC 3D (e), SAT-PP (f) e il DSM generato con scanner a proiezione di luce strutturata Breuckmann. Il fondo scala (rosso = 0.15 mm; blu scuro = -0.15 mm) è pari a tre volte l’errore strumentale dichiarato dalla casa costruttrice dello scanner (50 micron). - 160 - Capitolo 6 Sperimentazione Modellazione 3D per il reverse engineering: alcuni esempi applicativi nel settore dell’ingegneria navale 6.1 INTRODUZIONE 161 6.2 MODELLAZIONE FOTOGRAMMETRICA DI MODELLI IN SCALA DI CARENE E PROPULSORI PER LE PROVE IDRODINAMICHE IN VASCA NAVALE 163 6.3 INTEGRAZIONE DI TECNICHE DI FOTOGRAMMETRIA DIGITALE E LASER SCANNING PER IL REVERSE ENGINEERING DELLA CARENA DI UNA BARCA A VELA 178 6.1 INTRODUZIONE Il reverse engineering è l’insieme di processi che, a partire da un oggetto reale antropico (in genere opere d’ingegneria quali per esempio dispositivi o parti meccaniche, scocche di automobili, carene di imbarcazioni, fusoliere, ali, ecc.) consente di ricreare il progetto iniziale sottoforma di disegno o rappresentazione 2D-3D. Le motivazioni che spingono alla realizzazione di un progetto di reverse engineering nascono quando il disegno di progetto originale è andato perduto o qualora si vogliano effettuare analisi di conformità per verificare che l’oggetto realizzato sia conforme a quello di progetto entro determinate tolleranze. Il campo d’interesse per il reverse engineering è davvero molto vasto e la tipologia di oggetti in questione è nella maggior parte dei casi di forma e dimensioni tali che non è possibile definire delle direttive operative. Il processo di reverse engineering è però comunque riconducibile a un processo di modellazione 3D inversa con l’aggiunta di particolari procedure di analisi spaziale. Un progetto di reverse engineering richiede competenze specifiche nel settore applicativo d’interesse, competenze necessarie per la definizione dei riferimenti spaziali e la definizione delle tolleranze di progetto nell’accoppiamento delle singole parti. Per fare un esempio, in modellazione meccanica anche il più semplice accoppiamento tra una boccola e un albero richiede che siano note le singole tolleranze di progetto (diverse in questo esempio), per poter stabilire il livello d’accuratezza nel rilievo e nella modellazione inversa. In questo capitolo sono mostrati alcuni esempi di reverse engineering nel caso specifico del settore dell’architettura e dell’ingegneria navale per la modellazione 3D inversa di carene di imbarcazioni al vero, modelli in scala di carene e propulsori allo scopo di ricostruirne le forme e il piano di costruzione iniziale. In questo settore le forme delle - 161 - Capitolo 6 Sperimentazione superfici sono generalmente non definibili matematicamente (free form surface) e presentano caratteristiche geometriche tali (per esempio le cosiddette “forme avviate”) da trovare analogie in molti altri settori del reverse engineering, come quello dell’industria automobilistica, settore aeronautico, ecc.. Negli ultimi anni, nel settore navale, sono stati eseguiti studi sperimentali per la modellazione inversa utilizzando soprattutto sensori attivi come laser scanner e proiettori a luce strutturata [Guidi et al., 2005, Hand et al., 2005]. Sono invece davvero pochi i lavori inerenti la modellazione 3D inversa con tecniche fotogrammetriche e tutte basate sul rilievo di pochi punti presegnalizzati da target, metodo che richiede poi procedure di interpolazione, approssimazione e riprogettazione manuale con superfici NURBS in ambienti software di modellazione. In [Menna e Troisi, 2007; Ackermann et al., 2008] è stato mostrato come sia possibile ottenere modelli tridimensionali densi e accurati di superfici free form con tecniche fotogrammetriche di image-matching in ambito navale dove in assoluto la tecnica fotogrammetrica, data la sua versatilità, consente di ovviare a diversi problemi quali per esempio: (i) oggetti dalle dimensioni considerevoli; (ii) spazi ristretti; (iii) condizioni ambientali svantaggiose per le comuni tecniche di rilievo a scansione e/o tradizionali (movimento dei bacini di carenaggio galleggianti); (iv) tempi a disposizione per il rilievo molto limitati a causa del costo giornaliero per l’utilizzo dei bacini di rimessaggio e carenaggio e indotti dal periodo di inattività dell’unita navale. In [Fiani et al., 2008] sono state evidenziate problematiche e suggerite metodologie operative risolutive per l’integrazione di tecniche laser scanning e fotogrammetriche nella generazione di modelli 3D di carene di imbarcazioni al vero con notevoli benefici soprattutto da un punto di vista dei tempi necessari per la fase di rilievo. Vengono qui di seguito riportati alcuni esempi di modellazione per il reverse engineering sia di modelli in scala per le prove idrodinamiche in vasca navale (carene e eliche), dove le accuratezze richieste sono anche molto spinte (migliori di 1/10 di millimetro), sia un esempio di imbarcazione reale. Gli esempi sono tutti di notevole interesse nell’ambito del reverse engineering perché caratterizzati da dimensioni (da 0,18 m a 12 metri) e accuratezze richieste molto differenti (da un 1/10 mm a 5 mm). In tutti i casi le tecniche fotogrammetriche utilizzate sono di basso costo. L’analisi qualitativa dei - 162 - Capitolo 6 Sperimentazione risultati è stata effettuata sia mediante confronti con altre tecniche di rilievo (CMM, laser scanning, ecc.) sia confrontando i modelli con i piani di costruzione originali, ove disponibili. 6.2 MODELLAZIONE FOTOGRAMMETRICA DI MODELLI IN SCALA DI CARENE E PROPULSORI PER LE PROVE IDRODINAMICHE IN VASCA NAVALE In questa sperimentazione sono stati affrontati due casi studio relativi alla modellazione 3D inversa di due modelli in scala per le prove idrodinamiche in vasca navale disponibili presso il Dipartimento di Ingegneria Navale (DIN) dell’Università Federico II di Napoli. I due modelli, mostrati in figura 6.2.1(a-b) sono rispettivamente una carena di un motoyacht in scala 1:12.5 dalla lunghezza fuori tutto di circa 4.6 metri e un Elica Orvea E034 dal diametro di 180 mm. Lo scopo di questa sperimentazione è quello di analizzare il livello di accuratezza raggiungibile con tecniche di fotogrammetria digitale low-cost nella generazione di Digital Dense Surface Model (DDSM) con tecniche di image-matching, in un settore (modelli in scala) dove generalmente le misurazioni sono effettuate con metodologie per contatto (dal semplice filo a piombo alle CMM e i laser tracker) allo scopo di studiarne le problematiche e definire delle procedure standard per il rilievo e la modellazione che siano poi applicabili anche su scafi al vero. La fotogrammetria è infatti una tecnica molto versatile, per la quale l’accuratezza ottenibile varia linearmente con la scala immagine secondo l’equazione (2.3) del capitolo 2 se la configurazione delle camere rimane la stessa. Alcuni problemi quali omogeneità nella colorazione delle superfici e riflessioni speculari sono stati studiati attentamente e risolti nel caso specifico dei modelli con trattamenti reversibili delle superfici, successivamente utilizzati anche nel caso di uno scafo al vero. L’International Towing Tank Conference (ITTC) ha stabilito le tolleranze che devono essere rispettate nella realizzazione di modelli in scala per le prove idrodinamiche in vasca navale (http://ittc.sname.org/2006_recomm_proc/7.5-01-0101.pdf). Nel caso specifico di carene e eliche le tolleranze assolute in fase di realizzazione dei modelli sono rispettivamente di 1mm per la carena e di 0.1 mm per l’elica che corrispondono rispettivamente ad accuratezze relative in fase di rilievo e modellazione di circa 1:4600 per la carena e di 1:1800 per l’elica. - 163 - Capitolo 6 Sperimentazione Figura 6.2.1– Modelli in scala per le prove idrodinamiche in vasca navale modellati in questa sperimentazione. Carena in scala 1:12.5 lunga 4.6 metri (sinistra), elica Orvea di 180 mm di diametro (destra). 6.2.1 MODELLAZIONE 3D INVERSA DELLA CARENA IN SCALA Il modello di carena in esame è stato scelto tra altri modelli disponibili presso il DIN dell’Università Federico II per le sue particolari caratteristiche di forma. La presenza del bulbo, della pinna e l’angolo pronunciato tra le murate e il fondo nella zona centrale e poppiera della carena ne fanno uno dei casi più complessi da rilevare. Il modello costruito in legno, lungo 4.6 metri, largo 0.8 metri e alto 0.48 metri è stato fotografato con due fotocamere, una reflex Nikon D100 da 6 Mpx con obbiettivo dalla focale nominale di 35 mm per il corpo principale della carena e un’amatoriale Canon A620 da 7Mpx con focale nominale di 7.4 mm (zoom impostato in posizione wide) per la modellazione del bulbo. Le camere sono state calibrate utilizzando il metodo bundle adjustment con self calibration utilizzando il software Photomodeler 5.2.3 e due testfield spaziali specificamente costruiti per questo tipo di applicazioni. Per applicazioni in cui è richiesta un’accuratezza molto spinta nella misurazione fotogrammetrica è fondamentale calibrare le fotocamere con impostazioni tali da mantenere quanto più possibile stabile l’orientamento interno. La fotocamera deve essere calibrata impostando la ghiera di messa a fuoco su una distanza media alla quale l’oggetto sarà fotografato, e l’apertura del diaframma dell’obbiettivo mantenuta costante su un valore che sia un buon compromesso tra profondità di campo e potere risolvente dell’ottica. Un valore dell’apertura del diaframma molto chiuso (numero f alto) migliora la profondità di campo ma degrada il potere risolvente dell’ottica a causa di problemi di diffrazione (pupilla d’entrata molto piccola). Un valore dell’apertura del diaframma molto aperto (numero f basso) diminuisce la profondità di campo e determina un potere risolvente dell’ottica non omogeneo con una maggiore risoluzione nelle aree centrali e peggiore in quelle - 164 - Capitolo 6 Sperimentazione periferiche della zona inquadrata. In questa sperimentazione la calibrazione e il rilievo sono avvenute sequenzialmente sul campo per entrambe le fotocamere. La Nikon D100, con la quale è stata ripresa quasi interamente la carena, la messa a fuoco dell’ obbiettivo è stata fissata (in modalità manuale e bloccando la ghiera con uno spezzone di nastro adesivo) a una distanza di 70 cm sia per la calibrazione che per il rilievo fotogrammetrico. La Canon A620 è stata invece calibrata con impostazioni di messa a fuoco automatica per due motivi: (i) non è presente alcun dispositivo meccanico (ghiera, sblocco motore autofocus) (ii) praticità nella fase di scatto data l’assenza di un mirino ottico per valutare una corretta messa a fuoco manuale. Per la Canon A620 si è avuta cura quindi di fotografare mantenendo una distanza pressoché costante tra l’oggetto e la camera (sia in fase di calibrazione che di ripresa del bulbo). In questo modo le piccole variazioni di messa a fuoco, sebbene comportino una piccola variazione di distanza principale, riescono a essere assorbite o distribuite sui parametri incogniti durante il processo di calcolo della self calibration con metodo bundle adjustment. Il tempo necessario per la calibrazione delle due fotocamere (prese fotografiche più elaborazione) è stato pari circa a 3 ore ed è stata eseguita da un solo operatore. Le principali caratteristiche delle fotocamere utilizzate e i parametri fondamentali delle prese fotografiche per questa sperimentazione sono riassunti nella tabella 6.2.A. FOTOCAMERE Nikon D100 (6Mpx) Canon A620 (7 Mpx) Dimensione ∆x′ del pixel (µm) 7.8 2.3 Focale Nominale (mm) 35 7.3 Distanza di presa media (cm) 70 20 Numero di foto scattate 420 50 1:Scala immagine m 20 30 GSD ∆X = ∆x ′ ⋅ m (mm) 0.160 0.070 Dimensioni area inquadrata (mm) 470 x 310 220 x 160 Tabella 6.2.A – Fotocamere utilizzate nella sperimentazione e caratteristiche principali tecniche e di scatto. Per garantire il raggiungimento delle accuratezze richieste, la scala immagine è stata scelta in modo da avere dimensioni nello spazio oggetto del pixel (GSD) sempre inferiori - 165 - Capitolo 6 Sperimentazione a 0.25 mm e l’equazione (2.3) del capitolo 2 è stata utilizzata nel caso più svantaggioso considerando inoltre possibili ulteriori errori introdotti successivamente nella fase di elaborazione e costruzione della mesh poligonale. La precisione teorica nelle tre coordinate prevista per questo rilievo fotogrammetrico utilizzando invece l’equazione (2.3) nel caso di rilievo multi-foto con immagini convergenti (q=0.8), numero di foto per stazione mediamente pari a 2 ed errore nella determinazione del centroide dei target circolari pari 0,25 pixel, è risultata essere di circa 25 micron. Durante la fase di rilievo, effettuata negli ambienti circostanti la vasca navale, la superficie della carena è stata trattata con una soluzione molto diluita di colla vinilica e tempera colorata per limitare le riflessioni della luce ambiente e creare una trama che consentisse agli algoritmi di image-matching di trovare agevolmente le corrispondenze immagine (Fig. 6.2.2). Figura 6.2.2– Preparazione superficiale dello scafo con trattamento reversibile con colla vinilica e tempera colorata per limitare l’effetto dei riflessi della luce ambiente e creare una trama artificiale sulla carena. Successivamente sono stati posizionati sullo scafo circa 500 target codificati in modo che su ogni immagine, in funzione dell’area inquadrata, fossero presenti almeno dodici target circolari per consentire una buona ridondanza nell’orientamento automatico delle immagini, troppo oneroso da svolgere manualmente dato l’elevato numero di immagini e punti (470 immagini). L’operazione di trattamento della superficie (escluso il tempo di essiccazione) e apposizione dei target ha richiesto circa 3 ore ed è stata svolta da 2 operatori. Le immagini sono state scattate per strisciate: 3 longitudinali per ogni lato della barca (bassa, media e alta con assi inclinati e sovrapposizione trasversale minima del 20%, max del 100%) due per il lato poppiero (bassa e alta con sovrapposizione minima del 20%) e una per il lato prodiero. All’interno di ogni strisciata la sovrapposizione tra le foto è stata - 166 - Capitolo 6 Sperimentazione mediamente del 65% inserendo da alcuni punti di stazione (ogni due) foto convergenti verso prua e poppa. In questo modo è stato progettato che ogni target codificato fosse visibile su un minimo di tre foto con angoli di intersezione dei raggi ottici di almeno 60°. Il tempo necessario per la ripresa delle foto da parte di un solo operatore è stato di circa 10 ore. Dato l’elevato numero di foto presenti l’elaborazione simultanea di tutte le foto in un solo blocco non è risultata agevole con le attuali capacità di calcolo dei desktop computer. Una delle fasi più dispendiose durante il processo di orientamento esterno è la stima dei parametri approssimati delle incognite, davvero molto onerosa per circa 500 foto. Così si è proceduto a orientare le strisciate prima singolarmente con metodo bundle adjustment del software Photomodeler e poi successivamente in maniera congiunta (tutte le foto in un unico blocco) utilizzando una funzione dello stesso software, denominata merge (rototraslazione tramite punti doppi) per stimare i parametri approssimati degli orientamenti esterni di tutte le foto. Il processo di orientamento con il software photomodeler ha richiesto circa 40 ore ed è stato svolto da un solo operatore. I risultati della compensazione dell’intero blocco di foto è riassunto nella tabella 6.2.B. Il valore assoluto della precisione teorica sulle coordinate dei coded target nello spazio oggetto è risultato essere di 0.055 mm che corrisponde a una precisione teorica relativa sui tie-point di circa 1:90000. L’angolo medio di intersezione tra i raggi ottici è stato 78° e il numero medio di raggi per punto è stato pari a 10. La configurazione della camere è visibile in figura 6.2.3. Il modello successivamente è stato quindi scalato utilizzando una barra calibrata di 600 mm in acciaio C40 fotografata in più punti del modello (per controllo e ridondanza). CIRCULAR CODED TARGET Max Min Average X Precision (mm) 0,047 0,012 0,026 Y Precision (mm) 0,100 0,014 0,033 Z Precision (mm) 0,073 0,016 0,036 Precision Vector Length (mm) 0,115 0,026 0,056 Angle (deg.) 89,999 15,806 78,583 Largest Residual (pixel) 0,737 0,022 0,193 Tabella 6.2.B – Alcune statistiche riassuntive del processo di compensazione del bundle adjustment - 167 - Capitolo 6 Sperimentazione Figura 6.2.3– Configurazione delle camere e tie point dopo il processo di bundle adjustment. Una volta orientato l’intero set di foto, sono stati restituiti manualmente una serie di punti sullo scafo (materializzati in fase di costruzione dei modelli in scala) necessari per individuare il sistema di riferimento di coordinate solidale con il modello di carena (il sistema di riferimento di progetto). Le direzioni degli assi di tale sistema sono state determinate con tecniche ai minimi quadrati lineari. Successivamente sono stati definiti alcuni sistemi di riferimento oggetto in Photomodeler in modo da avere l’asse z rivolto verso le camere. In sistemi di coordinate oggetto così definiti, gli orientamenti esterni delle fotocamere divengono simili a quelli del caso aereo e, come dimostrato in [Menna e Troisi, 2007], possono essere importati in software di image-matching per la fotogrammetria aerea gestendo convergenze tra gli assi anche maggiori di 80 gradi. Nel caso specifico sono stati definiti sei sistemi di riferimento (uno per ciascun lato della carena, uno per la poppa e tre per il bulbo) all’interno dei quali generare i DSM (un punto ogni 2 mm) con tecniche di image-matching utilizzando il modulo NGATE di SOCET - 168 - Capitolo 6 Sperimentazione SET 5.4.0. Per riportare le nuvole di punti nel sistema di riferimento di progetto è stato utilizzato un modulo di LAIM che si basa su metodi procustiani usando le coordinate dei tie point come punti doppi nei sistemi ruotati e in quello di progetto. La successiva fase di editing, riduzione del rumore e generazione della mesh è stata effettuata in maniera controllata (modifica massima di 0.5 mm delle coordinate dei punti) con il software GEOMAGIC. Il risultato dell’allineamento con le nuvole di punti rappresentate in colorazione differente è visibile in figura 6.2.4, la mesh finale è invece visibile in figura 6.2.5. L’operazione di generazione dei DSM con image matching, rototraslazione, editing e costruzione della mesh ha richiesto circa 70 ore ed è stata svolta da un operatore. La tabella 6.2.C riassume i tempi necessari per la generazione della modellazione da parte di un solo operatore con le tecnica utilizzate. Tempo Richiesto (h) Calibrazione delle fotocamere 3 Trattamento della superficie e apposizione dei target 6 Esecuzione degli scatti 10 Orientamento 40 Image-matching, rototraslazione, editing e generazione mesh 70 Totale 129 Tabella 6.2.C – Tempi necessari per la modellazione 3D inversa della carena. Figura 6.2.4 – Allineamento delle nuvole di punti con metodo procustiano implementato in LAIM. - 169 - Capitolo 6 Sperimentazione Figura 6.2.5 – Mesh finale del modello della vasca in differenti viste. Successivamente il modello è stato sezionato secondo i piani principali del sistema di riferimento solidale alla carena generando così delle linee 2D da confrontare con quelle di progetto. Il confronto con il piano di costruzione in formato cartaceo, precedentemente digitalizzato e rettificato per eliminare le distorsioni indotte durante la fase di scansione, ha rivelato una discrepanza massima inferiore a tre millimetri. Questa differenza potrebbe essere causata dalle deformazioni subite a causa delle condizioni ambientali (soprattutto umidità) dal momento che il modello (in legno) è stato costruito più di vent’anni fa. Allo scopo di approfondire l’analisi delle deformazioni subite dal modello, è stata effettuata un’analisi di simmetria specchiando la parte sinistra dello scafo su quella di destra rispetto al piano longitudinale e calcolando le distanze euclidee tra i punti delle mesh (Fig.6.2.6). L’asimmetria massima è risultata essere 2 mm. L’analisi di simmetria è stata effettuata anche sul piano di costruzione in formato cartaceo digitale (Fig.6.2.7). Figura 6.2.6 – Analisi di simmetria tra sinistra specchiata e dritta (mm). - 170 - Capitolo 6 Sperimentazione Figura 6.2.7 – Analisi di simmetria tra sezioni trasversali di sinistra specchiata e dritta sovrapposte al disegno cartaceo di progetto (le unità indicate sugli assi di riferimento sono in mm). - 171 - Capitolo 6 Sperimentazione 6.2.2 MODELLAZIONE 3D INVERSA DELL’ELICA ORVEA E034 Per questa sperimentazione è stata scelta un’elica Orvea E034 della serie BWageningen B3-50 di cui sono ben noti i parametri principali di progetto. Il modello, costruito in bronzo, è un’elica destrorsa a tre pale dal diametro e passo di 180 mm, utilizzata per le prove idrodinamiche di autopropulsione in vasca navale dei modelli di carene in scala. La grande sfida in questa sperimentazione è legata alle dimensioni dell’elica e all’accuratezza stabilita dall’ITTC per questa classe di oggetti, pari a 0,1 mm. Con oggetti di queste dimensioni sono da preferire camere con focale più piccola a parità di area inquadrata perché la profondità di campo risulta maggiore (funzione del quadrato della focale). Per tale motivo, per eseguire il rilievo fotogrammetrico, è stata utilizzata una fotocamera amatoriale digitale Fujifilm S5600 da 5 Mpx con focale nominale di 6.3 mm. Le principali caratteristiche della fotocamera utilizzata e i parametri fondamentali delle prese fotografiche per questa sperimentazione sono riassunti nella tabella 6.2.D. Fujifilm S5600 (5 Mpx) Dimensione ∆x′ del pixel (µm) 2.9 Focale Nominale (mm) 6.3 Foto misura coordinate target circolari Distanza di presa media (cm) 18 Numero di foto scattate 30 1:Scala immagine m 28 GSD ∆X = ∆x ′ ⋅ m (mm) 0.080 Dimensioni area inquadrata (mm) 215 x 160 Foto image-matching Distanza di presa media (cm) 10 33 Numero di foto scattate (4 per ogni faccia delle pale e 9 per il mozzo) 1:Scala immagine m 15 GSD ∆X = ∆x ′ ⋅ m (mm) 0.045 Dimensioni area inquadrata (mm) 115 x 86 Tabella 6.2.D - Caratteristiche e parametri di scatto della fotocamere utilizzata per la modellazione dell’elica Orvea. - 172 - Capitolo 6 Sperimentazione La fotocamera è stata calibrata con impostazioni macro mediante bundle adjustment con self calibration utilizzando il testfield spaziale mostrato in figura 6.2.8 a una distanza media di circa 15 cm. Figura 6.2.8 – Test field (120 x 120 x 35 mm) per la calibrazione in modalità macro della Fuji S5600 (sinistra) e configurazione delle prese per la calibrazione (destra). Al fine di limitare l’effetto dei riflessi causati dalla superficie metallica l’oggetto è stato opacizzato spalmando un sottilissimo strato di cerone e controllando le luci con un set per fotografia still-life autocostruito (Fig. 6.2.9). L’effetto di riduzione dei riflessi è visibile in figura 6.2.10. Successivamente sono stati applicati 57 target circolari (7 per ogni faccia delle pale e 15 sul mozzo) codificati per eseguire l’orientamento automatico delle immagini in Photomodeler 5.2.3. Figura 6.2.9 –Still life set utilizzato per controllare l’effetto dei riflessi sulla superficie metallica dell’elica. - 173 - Figura 6.2.10 – Effetto di riduzione dei riflessi. Senza luce diffusa (in alto), con luce diffusa (basso). Capitolo 6 Sperimentazione Per poter generare un DSM con accuratezza inferiore al decimo di millimetro sono state effettuate due serie di scatti con differenti scale immagine. La prima serie è servita a misurare, con configurazione ottimale delle camere, i target codificati posizionati sulle pale e sul mozzo, la seconda, a scala immagine maggiore, a generare i DSM in SOCET SET. L’orientamento con metodo del bundle adjustment ha fornito un errore massimo di 0.02 mm sulle coordinate dei target codificati. La configurazione delle camere è visibile in figura 6.2.11. Il modello fotogrammetrico è stato infine scalato con una barra d’acciaio calibrata di 100 mm. Analogamente al caso del modello di carena, descritto nel paragrafo precedente, sono stati definiti diversi sistemi di riferimento per la generazione dei DSM con tecniche image-matching (uno per ogni faccia delle pale e tre per il mozzo). Figura 6.2.11 – Configurazione geometrica delle prese per l’elica Orvea. I DSM, generati con i moduli ATE di SOCET SET (un punto ogni 0.5 mm) sono stati rototraslati e successivamente editati per generare la mesh con le stesse procedure illustrate nel paragrafo precedente. Per poter misurare il passo (pitch) e il massimo spessore delle pale (thickness) il modello 3D dell’elica è stato sezionato ad una distanza pari a una distanza di 7/10 del raggio, valore di riferimento rispetto al quale sono riportati passo e spessore nei disegni progettuali delle eliche. Il sezionamento è avvenuto con un cilindro coassiale (Fig. 6.2.12) al mozzo dell’elica, asse individuato con tecniche ai minimi quadrati. I valori ottenuti da questa operazione sono stati poi confrontati con quelli ottenuti da misure effettuate con una particolare CMM disponibile presso il DIN dell’università Federico II di Napoli (Fig. 6.2.13). - 174 - Capitolo 6 Figura 6.2.12 – Sezionamento del modello 3D dell’elica con un cilindro coassiale al Sperimentazione Figura 6.2.13 – CMM utilizzata per la misura del passo e dello spessore massimo delle pale. mozzo e di raggio pari a 7/10 del raggio I risultati dei confronti mostrati in tabella 6.2.E indicano una differenza massima nella misura dello spessore di 0.11 mm e di 0.36 mm nella misura del passo (tolleranza maggiore secondo i parametri dell’ITTC). La misura del raggio sul modello fotogrammetrico è stato pari a 90.016 mm contro i 90 mm di progetto con una differenza di soli 16 micron. I valori ottenuti sono molto incoraggianti e suggeriscono di approfondire maggiormente questo tipo di confronti anche perché il tipo di CMM utilizzato ha un’accuratezza di circa 50 micron e richiede particolare cura nelle operazioni di misura. Ulteriori cause d’errore nella modellazione dell’elica sono in parte dovute alla presenza dei target il cui spessore è circa un decimo di millimetro. I target sono stati rimossi durante la fase di editing generando dei buchi successivamente riempiti con funzioni di interpolazione presenti nel software Geomagic e quindi possibili fonti d’erorre. Un’altra problematica che è necessario approfondire è inerente la calibrazione. La camera è stata calibrata a una distanza media tra quella minima per l’image-matching , e massima per la misura delle coordinate dei coded target. A queste distanze una variazione di pochi centimetri può comportare variazioni nella distanza principali secondo la (2.2) del capitolo 2 anche notevoli. Una variazione di distanza coniugata oggetto da 15 a 10 cm provoca una variazione di distanza principale di quasi un decimo di millimetro! Le conseguenze non sono state ancora studiate anche perché il processo di self calibration mediante bundle adjustment in genere assorbe e distribuisce gli errori del modello sui numerosi parametri incogniti. - 175 - Capitolo 6 Pitch by CMM Pitch by photogrammetry Pitch differences Thickness by CMM Thickness by photogrammetry Thickness differences Sperimentazione Blade 1 182.37 182.64 0.27 4.06 4.03 −0.03 Blade 2 181.19 180.91 −0.28 3.87 3.88 0.01 Blade 3 182.49 182.13 −0.36 3.95 4.06 0.11 Tabella 6.2.E – Confronti tra misure effettuate con tecniche fotogrammetriche e con CMM. Ulteriori analisi e confronti con i dati di progetto (profili e inclinazione delle generatrici) (Fig. 6.2.14) hanno confermato l’attendibilità delle misure effettuate sul modello 3D generato con tecniche fotogrammetriche. L’inclinazione delle generatrici è risultata essere pari a 15° come quella di progetto (Fig. 6.2.15). Figura 6.2.14 – Sezionamento dell’elica con piani passanti per l’asse del mozzo. - 176 - Capitolo 6 Sperimentazione Figura 6.2.15 – Misura dell’inclinazione della generatrice. Una ulteriore importante analisi spaziale per il reverse engineering sull’elica è rappresentata dalla misura dello spessore della pala in ogni suo punto effettuando la differenza tra le superfici delle facce superiori e inferiori (Figura 6.2.16). Figura 6.2.16 – Spessore della pala misurato attraverso il calcolo delle distanza euclidee tra le due facce (valori in mm). - 177 - Capitolo 6 Sperimentazione 6.3 INTEGRAZIONE DI TECNICHE DI FOTOGRAMMETRIA DIGITALE E LASER SCANNING PER IL REVERSE ENGINEERING DELLA CARENA DI UNA BARCA A VELA I rilievi fotogrammetrico e laser effettuati in questa sperimentazione riguardano la carena di una barca a vela da regata, costruita in legno nel 1980, di lunghezza fuori tutto di circa 12 m, larghezza massima di 3,67 m e altezza di 3,2 m (inclusa la deriva). Le misure sono state eseguite sul molo di un cantiere nautico nel quale erano presenti altre barche messe a secco che, per la loro posizione rispetto a quella oggetto del test, hanno influenzato lo schema delle scansioni laser, delle prese fotogrammetriche e del rilievo topografico dei target. In figura 6.3.17 è mostrata la barca a vela Test, il cui nome è “Cuordileone”. Figura 6.3.17 – Barca a vela Test. 6.3.1 RILIEVO E MODELLAZIONE FOTOGRAMMETRICA Il rilievo fotogrammetrico della carena dell’imbarcazione è stato eseguito con una fotocamera digitale reflex NIKON D100 da 6Mpx con obiettivo di focale nominale 35 mm. La calibrazione del sistema corpo macchina-obbiettivo è stata effettuata in laboratorio acquisendo immagini di un test field tridimensionale con procedura selfcalibration mediante Bundle Block Adjustment. Prima di effettuare le riprese dello scafo, sono stati posizionati circa trecentocinquanta target circolari autoadesivi del diametro di 6 cm, dei quali centosessanta codificati per il riconoscimento automatico. - 178 - Capitolo 6 Sperimentazione L’ubicazione di tali target è stata progettata in modo da delineare le linee fondamentali dello scafo, utilizzate in seguito per la definizione di un RS solidale con l’oggetto: linea di galleggiamento, piano diametrale, ruota di prua, deriva, etc. La posizione di circa quaranta target è stata rilevata con una stazione totale Leica TCRA 1102, in modalità senza prisma, da due punti di stazione materializzati a terra, in un unico RS esterno allo scafo. La rete topografica non è stata sottoposta ad una vera e propria compensazione per quanto riguarda i punti battuti sullo scafo in quanto questi sono stati rilevati necessariamente solo dalla stazione posizionata sullo stesso lato: gli unici punti battuti da entrambe le stazioni sono stati quelli di collegamento a terra e alcuni target sferici posizionati sul piano diametrale, per i quali sono stati ottenuti scarti quadratici medi nelle coordinate inferiori a 6 mm. Al fine di controllare un eventuale sbandamento trasversale dell’imbarcazione e possibili torsioni del modello fotogrammetrico, in corrispondenza dell’estremità prodiera e poppiera sono stati calati due fili a piombo, le cui oscillazioni sono state smorzate disponendo i pesi in contenitori riempiti di liquido ad alta viscosità. La presenza di un sottile strato di polvere sulla carena, dovuto alle operazioni di ordinaria manutenzione sulle barche circostanti, ha disegnato una trama naturale sufficientemente casuale da caratterizzare localmente la superficie (Fig. 6.3.18) e garantire il funzionamento degli algoritmi di image-matching senza necessità di ulteriore trattamento, come a esempio uso di opacizzanti e sovrimpressione di una trama. Figura 6.3.18 – Trama naturale della superficie della carena. E’ stato acquisito un centinaio di fotogrammi a scala media 1:170, in modo di coprire con elevatissima sovrapposizione stereoscopica tutto lo scafo e di assicurare la presenza - 179 - Capitolo 6 Sperimentazione di un adeguato numero di prese convergenti. Il Ground Sample Distance, GSD, risultante è mediamente di circa 1.3 mm. Le operazioni di collocazione dei target e l’acquisizione dei fotogrammi sono state eseguite da due operatori e sono durate circa tre ore. I fotogrammi acquisiti sono stati elaborati con il software di fotogrammetria digitale close range PhotoModeler ver. 5.2.3 della EOS Systems. E’ stato eseguito l’orientamento relativo utilizzando i target codificati che assicurano una maggiore precisione nella collimazione automatica (fino a 0.1 pixel), ottenendo residui inferiori al pixel nella compensazione in blocco dei fotogrammi. Per dimensionare e inquadrare il modello nel sistema di riferimento esterno, sono stati utilizzati come punti fotografici di appoggio cinque target codificati, assegnando i pesi in funzione delle accuratezze ottenute dalla compensazione del rilievo topografico di appoggio (o stimate a priori in funzione delle accuratezze strumentali della stazione totale utilizzata). Successivamente, per referenziare il modello in un RS solidale all’oggetto, è stata effettuata una rototraslazione nello spazio con procedura ai minimi quadrati. Il nuovo sistema è definito mediante i seguenti elementi: - il piano diametrale, individuabile dai target allineati sulla ruota di prua e sulla faccia prodiera e poppiera della pinna di deriva, - la retta intersezione tra il piano individuato dalla linea di galleggiamento e il piano diametrale, - un punto sulla retta, in corrispondenza della ruota di prua. La terna cartesiana così definita è confrontabile (o meglio coincide) con quella utilizzata nel piano di costruzione dello scafo. Il processo di Bundle Adjustment ha fornito le coordinate di tutti i punti e i parametri di orientamento esterno delle camere che sono stati utilizzati nella successiva procedura di generazione del modello digitale della superficie (Digital Surface Model, DSM). La massima lunghezza del vettore residuo sui punti manuali utilizzati per marcare alcuni elementi caratteristici dello scafo è risultata di 20 mm mentre nei punti in cui erano stati apposti i target codificati, in cui la collimazione era avvenuta in modo automatico e con tecniche subpixel, la lunghezza del vettore residuo ammonta ad un massimo di 0.6mm. La generazione del DSM è stata eseguita mediante il software Socet Set ver. 5.3 della BAE Systems, utilizzando il modulo ATE. Analogamente a quanto effettuato nei casi mostrati nei paragrafi precedenti per i modelli in scala, è stato qui necessario definire almeno due diversi sistemi di riferimento corrispondenti ai due lati dello scafo. Inoltre, - 180 - Capitolo 6 Sperimentazione poiché il modulo ATE dà problemi in presenza di prese molto convergenti, è stato necessario utilizzare un terzo sistema; partendo da quello di riferimento solidale all’oggetto e utilizzato nel piano di costruzione dello scafo, sono state effettuate opportune rototraslazioni mediante il software Photomodeler, in modo da minimizzare i valori assoluti degli angoli di orientamento esterno [Menna & Troisi, 2007]. Questa procedura risulta reversibile dal momento che insieme agli orientamenti esterni vengono rototraslati anche i punti utilizzati per l’orientamento delle immagini, fornendo così un set di punti doppi tra il nuovo RS per la generazione del DSM e quello relativo al piano di costruzione. In figura 6.3.19 le parti dello scafo diversamente colorate corrispondono alle nuvole di punti misurate automaticamente nei tre differenti sistemi. Tali nuvole di punti sono state successivamente riportate nel RS del piano di costruzione mediante il modulo di LAIM per le rototraslazioni con metodo procustiano. Figura 6.3.19 – Sistemi di riferimento utilizzati per la generazione del DSM. Il DSM complessivo è stato generato su un grigliato regolare di punti con passo di 2 cm utilizzando circa ottanta fotogrammi. La strategia impiegata è la Adaptive e si è utilizzato il massimo numero possibile di coppie di fotogrammi. E’ stato fornito, come prima approssimazione del DSM, quello costituito dai “punti seme” costruito sulle coordinate dei target determinate con Photomodeler. L’accuratezza teorica attesa per le coordinate spaziali dei tie point secondo l’equazione (2.3) del capitolo 2 è risultata essere pari a 1 mm. - 181 - Capitolo 6 Sperimentazione Il tempo necessario per l’elaborazione dei dati fotogrammetrici, riassumibile nelle seguenti fasi: (1) calibrazione, (2) orientamento delle immagini, (3) restituzione di linee e elementi necessari per la definizione del RS solidale alla carena, (4) generazione automatica delle nuvole di punti e loro inquadramento nel RS finale, (5) generazione della mesh è risultato pari a circa trenta ore. 6.3.2 RILIEVO E MODELLAZIONE LASER SCANNING Il rilievo laser è stato effettuato con lo scanner terrestre ILRIS 36D della Optech. Tale strumento è fornito di base rotante, che permette di acquisire scansioni panoramiche a 360°. La precisione strumentale nominale nella determinazione delle coordinate spaziali dei punti rilevati è pari a 8 mm a una distanza di 100 m dall’oggetto. Le trentasei scansioni sono state effettuate da dieci stazioni posizionate tutto intorno allo scafo a una distanza media di 5 m da esso. La progettazione delle scansioni è stata effettuata in funzione del metodo scelto per l’allineamento, l’Iterative Closest Point, ICP, e risultano perciò molto sovrapposte. Il passo di scansione è stato impostato da 2 a 5 mm e il diametro dello spot laser, alla distanza di 5 metri, è risultato inferiore al millimetro. In tabella 6.3.F sono riportati alcuni dati riassuntivi riguardanti le scansioni insieme a una rappresentazione grafica dell’ubicazione dei punti di stazione rispetto allo scafo. Il rilievo laser dalle dieci stazioni ha richiesto circa sei ore di lavoro. La rumorosità dei punti laser è stata verificata analizzando in sezione un campione di punti in un’area limitata. In figura 6.3.20 si evidenzia come la variazione della misura del range sulla superficie dello scafo sia dell’ordine dei 40 mm. - 182 - Capitolo 6 STAZIONE AD A AS PRS PR PRD BD B BS PO SCANSIONE scanAD_1 scanAD_2 scanAD_3 scanA_24 scanA_25 scanA_26 scanA_27 scan AS_16 scanAS_17 scanAS_18 scan AS_19 scanPRS_16 scanPRS_17 scanPRS_18 scanPR_7 scanPRD_21 scanPRD_22 scanPRD_23 scanBD_12 scanBD_13 scanBD_14 scanBD_15 scanB_5 scanB_6 scanB_7 scanBS_5 scanBS_6 scanBS_7 scanBS_8 scanPO_4 Sperimentazione DURATA 9’ 14’ 18’ 11’ 18’ 22’ 18’ 12’ 13’ 20’ N° PUNTI 198720 476100 370530 453051 502681 502681 93588 175032 749892 749892 390390 410310 763002 60237 1999712 25.626 705318 189645 310233 759506 759506 135564 407740 498427 428830 144486 494882 494882 351094 2281995 PASSO DI SCANSIONE 4 mm (a 5 m) 4 mm (a 5 m) 4 mm (a 5 m) 4 mm (a 5 m) 2 mm (a 5 m) 4 mm (a 5 m) 4 mm (a 5 m) 4.9 mm (a 5 m) 4.9 mm (a 5 m) 2.4 mm (a 10 m) Tabella 6.3.F – Dati relativi al rilievo laser scanning e ubicazione delle scansioni. Figura 6.3.20 – Campione di punti utilizzato per l’analisi del rumore sul range (sinistra) e sua sezione trasversale (valori in metri) - 183 - Capitolo 6 Sperimentazione 6.3.3 ELABORAZIONE DEI DATI LASER 6.3.3.1 ALLINEAMENTO CON METODO ITERATIVE CLOSEST POINT - ICP L’elaborazione delle scansioni laser è stata eseguita con il software Polyworks della Innovmetric. La base rotante dello scanner è dotata di encoder che misurano le rotazioni dello strumento restituendo una nuvola di punti, che può essere considerata riferita a un unico RS per ogni punto di stazione. Dapprima, sono state quindi allineate automaticamente tutte le scansioni effettuate da ciascuna stazione ottenendo dieci distinte nuvole di punti, ciascuna con proprio sistema di riferimento legato allo strumento. Successivamente sono state allineate tra loro le dieci nuvole di punti, aventi grande sovrapposizione l’una con l’altra, corrispondenti alle diverse parti dello scafo: fianco destro, fianco sinistro, prua e poppa, ottenendo così quattro “blocchi”. Questa operazione è stata effettuata mediante l’algoritmo ICP, implementato nel modulo IMAlign del software (Soucy & Laurendeau, 1995) utilizzando anche punti non appartenenti allo scafo (per esempio taccate di sostegno, candelieri e albero), in modo da avere superfici multiforme. L’algoritmo ICP, se le superfici da allineare sono costituite da forme lisce, può infatti portare a errati allineamenti anche in presenza di ottimi parametri di convergenza che farebbero pensare a un corretto risultato (Guidi et al., 2005). Nel modulo IMAlign l’allineamento avviene tra coppie di mesh poligonali previa generazione di un grid regolare di punti il cui passo è stato fissato a 5 mm. Per fornire all’algoritmo un primo allineamento approssimato, è stata utilizzata la procedura di rototraslazione per punti omologhi implementata nel software, servendosi delle intensity images (figura 6.3.21) per individuare i target fotogrammetrici. Alcune scansioni, riguardanti la parte poppiera, hanno presentato problemi di allineamento per il fatto che il timone era stato accidentalmente ruotato durante il rilievo; si è dovuto quindi procedere alla rimozione di tale appendice dalla nuvola di punti in fase di editing. Nelle procedure di allineamento si sono ottenute delle deviazioni standard inferiori al centimetro eccetto per quelle relative alla prua e alla poppa dove si sono raggiunti valori di circa 18 mm. La mesh complessiva è stata composta mediante l’allineamento dei quattro blocchi con procedura ICP, mantenendo fisso il RS di uno dei blocchi. Infine, la mesh è stata sottoposta alla fase di editing per eliminare appendici e oggetti estranei alla carena. Il tempo richiesto per l’elaborazione dei dati laser, dalla generazione delle mesh al loro allineamento, è stato pari a circa trenta ore. - 184 - Capitolo 6 Sperimentazione Nella figura 6.3.22 si mostra il risultato dell’allineamento di tutte le scansioni laser dopo la fase di editing. Figura 6.3.21 – Intensity image di una Figura 6.3.22 – Risultato dell’allineamento delle porzione di barca scansioni. 6.3.3.2 ORIENTAMENTO CON REFERENCE POINTS - RPS DA FOTOGRAMMETRIA Un metodo alternativo di generazione di modelli tridimensionali fa uso di una procedura integrata sperimentata insieme a quella standard dell’ICP. Sono state utilizzate per questa prova solo due nuvole di punti relative alle stazioni A e B, le quali coprono interamente rispettivamente i lati sinistro e destro della barca. Per riportare le nuvole di punti nello stesso RS della fotogrammetria, sono stati calcolati i baricentri dei punti laser contenuti nel cerchio più esterno dei target; tali punti sono stati considerati centri dei target. Poiché le loro coordinate sono note nel sistema di riferimento della fotogrammetria, è possibile calcolare i parametri di rototraslazione spaziale con variazione di scala tra laser e fotogrammetria. Per ogni lato dello scafo sono stati calcolati quindici centri di target (figura 6.3.23). I residui massimi delle trasformazioni a sette parametri sono risultati inferiori a 7 mm su entrambi i lati. I parametri calcolati sono stati applicati alle nuvole di punti ottenendo il modello completo già referenziato e scalato. Questa procedura è stata eseguita con lo stesso modulo del software LAIM già utilizzato per portare i diversi DSM fotogrammetrici in uno stesso RS. Il tempo necessario per la generazione del modello finale con questa procedura integrata ha richiesto circa dodici ore per la parte fotogrammetrica e due ore per l’inquadramento delle due nuvole di punti nel RS fotogrammetrico e generazione della mesh. - 185 - Capitolo 6 Sperimentazione Figura 6.3.23 – Lato destro. Punti doppi per la trasformazione a sette parametri. 6.3.4 CONFRONTO DEI RISULTATI Sono stati confrontati i risultati ottenuti con le tre metodologie utilizzando come reference il modello fotogrammetrico. Affinché il confronto tra i prodotti permetta di evidenziare effettivi scostamenti tra i due modelli, questi devono essere ovviamente riferiti alla stessa terna cartesiana. Nel nostro caso, la definizione del RS confrontabile con quello del piano di costruzione è risultata agevole con la tecnica fotogrammetrica grazie all’utilizzo di marker autoadesivi di piccole dimensioni collocati in punti significativi dello scafo, mentre non è stata effettuata per il modello laser. In generale, infatti, per misurare punti notevoli con strumenti come gli scanner, che non hanno un apparato di collimazione, è necessario utilizzare dei target volumetrici (tipo sfere, coni o altri solidi di forma nota) da modellare con procedure e algoritmi di best fitting. Nel test sono state impiegate alcune sfere di diametro di 6 cm ma, poiché lo scanner impiegato presenta un rumore elevato sul range (Fig. 6.3.20), le operazioni di best fitting delle sfere non hanno fornito risultati affidabili per la definizione dei loro centri. Risultati probabilmente migliori per il best fitting si sarebbero ottenuti utilizzando dei target volumetrici di maggiori dimensioni che tuttavia non sarebbero stati facilmente posizionabili sullo scafo e avrebbero inoltre provocato ostruzioni prospettiche sulla superficie, con conseguenti buchi nei dati. L’alternativa adottata, consistente, come detto, nell’utilizzo delle intensity images del laser sui target fotogrammetrici, si è dimostrata valida. I confronti che seguono sono stati effettuati in ambiente GeoMagic Studio 8, in cui sono stati costruiti sia il modello fotogrammetrico che quello laser dopo aver effettuato un - 186 - Capitolo 6 Sperimentazione leggerissimo smoothing sui dati. Gli scostamenti tra due superfici o tra punti e superfici sono computati come distanza più breve dalla mesh costruita come superficie di riferimento. 6.3.4.1 LASER ICP - FOTOGRAMMETRIA Per poter eseguire il confronto, i due modelli sono stati allineati con ICP prendendo quello fotogrammetrico, già orientato nel RS del piano di costruzione, come superficie di riferimento. La convergenza della procedura ICP è ricercata, secondo il principio dei Minimi Quadrati Lineari (MQL), minimizzando la sommatoria dei quadrati dei vettori scostamento tra i punti del modello da orientare e quelli della superficie di riferimento. Poiché gli algoritmi di allineamento delle nuvole di punti implementati nei software commerciali sono pensati per allineare dati omogenei, cioè ottenuti con la stessa metodologia, se tra i due modelli è presente un fattore di scala, il risultato potrebbe non essere veritiero. In genere, un fattore di scala diverso tra i due modelli conduce a un risultato in cui i due modelli si intersecano, poiché la media dei vettori scostamento deve essere nulla per il principio dei MQL (Fig. 6.3.24). - 187 - Capitolo 6 Sperimentazione Figura 6.3.23 – Esempi dell’effetto dell’allineamento tra due modelli differenti solo in scala. Il risultato del confronto effettuato con il software GeoMagic è mostrato in figura 6.3.24 dove sono ben visibili gli scostamenti tra le due superfici. Si noti come il modello laser sia “esterno” a quello fotogrammetrico nella parte inferiore dello scafo (colori della scala dal giallo all’arancio che corrispondono a valori positivi), mentre nella parte superiore delle murate il comportamento è opposto (colori in tonalità dell’azzurro, corrispondenti a valori negativi). Fanno eccezione alcune zone colorate nei toni scuri dell’azzurro appartenenti alla parte inferiore, in cui il modello fotogrammetrico è stato costruito per interpolazione perché la presenza delle taccate ha ostacolato il processo di image-matching. Lo scostamento medio sul fondo è di circa 1cm e raggiunge un massimo di circa 2.5 cm. Gli scostamenti sui bordi delle mesh possono raggiungere anche valori notevolmente maggiori (vari centimetri) ma non sono significativi di reali differenze tra i due modelli. Il confronto tra i target rilevati con la stazione totale e il modello fotogrammetrico ha evidenziato uno scostamento massimo di 7 mm, con media di 1 mm e deviation standard (dev.st.) di 3 mm; lo stesso confronto effettuato con il modello laser presenta invece uno scostamento massimo di 10 mm, media 4 mm e dev.st. 4 mm. - 188 - Capitolo 6 Sperimentazione Figura 6.3.24 – Scostamento tra mesh laser allineata con ICP e mesh fotogrammetrica (valori in metri). 6.3.4.2 LASER RPS - FOTOGRAMMETRIA La nuvola di punti laser relativa ai dati rilevati dalle due stazioni A e B è già stata sottoposta a trasformazione a sette parametri ed è quindi nello stesso RS del modello fotogrammetrico. Il confronto è stato effettuato sulla mesh costruita con le stesse procedure già seguite. I risultati del confronto tra la mesh laser e quella fotogrammetrica sono visibili in figura 6.3.25, nella quale si evidenzia come l’allineamento ottenuto tenendo conto della diversa scala porti a una migliore aderenza tra i due modelli: le zone a scostamento positivo, dove il modello laser è esterno a quello fotogrammetrico (in giallo), sono distribuite in tutto lo scafo, così come avviene per le zone colorate in blu che vedono la superficie laser interna rispetto a quella fotogrammetrica. Gli scostamenti sul fondo dello scafo sono diminuiti come entità ed estensione rispetto al precedente confronto. Si sottolinea però che nella prima metodologia di allineamento sono state utilizzate le nuvole di punti di tutte le scansioni, mentre nella seconda soltanto i dati relativi a due punti di stazione. - 189 - Capitolo 6 Sperimentazione Figura 6.3.25 – Scostamento tra mesh laser registrata con RPs e mesh fotogrammetrica (valori in metri). Si evidenzia inoltre un effetto che nel confronto precedente non era manifesto, proprio perché erano state considerate tutte le scansioni: nella zona centrale delle murate si notano delle forme ellittiche in cui la superficie laser è interna a quella fotogrammetrica. Tale effetto, manifestatosi a seguito del confronto, era comunque già risultato visibile in certe posizioni della nuvola di punti laser corrispondenti a particolari condizioni di illuminazione (figura 6.3.26). I dati di range in quel settore ellittico sono leggermente sovrastimati (quasi un centimetro). Tale comportamento si nota sui dati delle stazioni laterali A e B nella parte centrale delle murate, mentre per le altre stazioni è meno accentuato e si verifica in posizioni leggermente diverse. Figura 6.3.26 – Aree con ranges anomali. - 190 - Capitolo 6 Sperimentazione Il confronto tra i target rilevati con la stazione totale e il nuovo modello laser evidenzia in questo caso uno scostamento massimo di 8 mm, media nulla e una dev.st. di 4 mm. La media nulla trovata negli scostamenti tra i dati topografici e la mesh laser è ovviamente il risultato logico delle operazioni effettuate per la trasformazione a sette parametri. 6.3.4.3 CONFRONTO CON IL PIANO DI COSTRUZIONE E ANALISI DI SIMMETRIA DELLA CARENA Per confrontare i modelli ottenuti con il piano di costruzione, poiché quest’ultimo era disponibile in copia cartacea, è stato rasterizzato a 300 d.p.i. e successivamente corretto, mediante funzioni polinomiali, dagli effetti di distorsione procurati dallo scanner. In figura 6.3.27 è visibile il disegno di progetto, rappresentato secondo le consuete normative di disegno navale, che prevedono il tracciamento solo di metà scafo per le imbarcazioni simmetriche come quella sotto test. In figura, le sezioni trasversali poppiere sono disegnate sulla destra e quelle prodiere a sinistra. Per confrontare le sezioni trasversali del piano di costruzione con quelle dei modelli fotogrammetrico e laser, questi ultimi sono stati sezionati con piani trasversali in corrispondenza dei valori definiti da progetto (Fig. 6.3.28). Le sezioni ottenute sono state quindi sovrapposte al piano di costruzione “georeferenziato” nello stesso RS utilizzato per i modelli. Figura 6.3.27 – Piano di costruzione. - 191 - Capitolo 6 Sperimentazione Figura 6.3.28 – Piano di costruzione. Dal confronto effettuato, è risultato evidente che sia il modello fotogrammetrico che quello laser sono leggermente più interni rispetto a quello di progetto nella parte inferiore della carena, mentre sono coincidenti nella parte centrale e superiore delle murate. Dall’analisi dei modelli è possibile infine ottenere utili informazioni sulla forma della carena, che potrebbe presentare differenze significative rispetto a quella di progetto. Nel caso in cui il comportamento manovriero dello scafo presenti anomalie, si può, infatti, sospettare la presenza di una asimmetria rispetto al piano diametrale; un tipico esempio di comportamento anomalo è quello che si verifica quando il natante devia dal percorso rettilineo in assenza di cause perturbatrici (vento e corrente) pur avendo il timone al centro, oppure quando una barca a vela tende a stringere la bolina in modo diverso sulle due mura. L’individuazione del piano diametrale permette quindi di effettuare un’analisi di simmetria, allo scopo di evidenziare eventuali differenze tra la parte sinistra e quella destra della carena, e più in generale dello scafo. L’individuazione di punti di riferimento per la determinazione del piano diametrale sulle imbarcazioni è però un problema aperto, soprattutto su carene senza un’evidente svasatura sul fondo come nel caso in esame. L’importanza di queste analisi suggerisce l’idea di proporre la materializzazione di appositi contrassegni sullo scafo durante la fase della loro costruzione sia per facilitare - 192 - Capitolo 6 Sperimentazione eventuali operazioni di controllo di qualità che per la progettazione di possibili modifiche dello scafo al vero. Nel caso in esame, data la mancanza dei suddetti contrassegni, sono stati utilizzati punti che, per progetto, dovevano giacere sul piano diametrale, ma non si esclude la possibilità che per problemi insorti in fase di costruzione, di montaggio della deriva, di sue modifiche e/o possibili urti, tali elementi non rispettino più l’idea progettuale. Per indagare sulla eventuale presenza di asimmetria è necessario confrontare il modello ricostruito a partire dal rilievo di uno dei due lati dell’imbarcazione con il simmetrico del restante lato rispetto al piano diametrale. Tale operazione è stata effettuata sui tre modelli (i due laser con i diversi allineamenti e quello fotogrammetrico), confrontando il lato destro specchiato con il lato sinistro preso come riferimento. Le figure 6.3.29, 6.3.30 e 6.3.31 mostrano i risultati di tali confronti, effettuati in ambiente GeoMagic, dai quali si evidenzia un sostanziale accordo tra i tre modelli e la minore larghezza della parte destra poppiera rispetto a quella sinistra (fino a 4 cm). Nel caso in esame, l’asimmetria di 4 cm riscontrata è infatti difficilmente attribuibile all’incertezza nella definizione del piano diametrale, dal momento che il massimo dei residui nel calcolo dello stesso, con la procedura MQL, è risultato pari a soli 2 mm. Figura 6.3.29 – Modello Laser con RPs: confronto lato destro specchiato – lato sinistro (valori in metri). - 193 - Capitolo 6 Sperimentazione Figura 6.3.30 – Modello fotogrammetrico: confronto lato destro specchiato – lato sinistro (valori in metri). Figura 6.3.31 – Modello Laser con ICP: confronto lato destro specchiato – lato sinistro (valori in metri). - 194 - Conclusioni La ricerca ha affrontato ed evidenziato le principali problematiche inerenti la modellazione tridimensionale inversa in numerosi settori applicativi attraverso un approccio generalizzato. Lo studio e l’analisi delle metodologie analitiche e operative presenti in letteratura così come la possibilità di cooperare con altri enti di ricerca italiani (Università di Salerno, Federico II di Napoli, Scuola normale Superiore di Pisa,) e esteri (ETH di Zurigo) ha consentito allo scrivente di evidenziare le attuali problematiche e i principali aspetti della modellazione tridimensionale inversa intesa nell’accezione più generale del termine. Sebbene infatti i requisiti in termini di accuratezze, tempi e costi per i progetti di modellazione 3D siano tra di loro molto differenti a seconda dell’ambito applicativo, i flussi di modellazione tridimensionale inversa nei settori analizzati (ambiente e territorio, beni culturali, reverse engineering nel settore navale) sono molto simili. In ogni ambito sono stati approfonditi gli aspetti principali sui quali sia il mondo scientifico che quello commerciale chiedono quotidianamente delle risposte (automatismo, accuratezze raggiungibili, affidabilità, tempi, confronti tra i software, ecc.). Si è concentrata l’attenzione sulle tecnologie che oggi forniscono il miglior compromesso tra costi, tempi, accuratezze, affidabilità e versatilità: sistemi ottici a scansione attivi e fotogrammetria digitale. I sistemi a scansione attivi divengono oggi sempre più popolari per la loro semplicità d’uso, la fotogrammetria digitale sempre più versatile ed economica. L’utilizzo di fotocamere amatoriali digitali ai fini metrici, ha esteso notevolmente gli orizzonti applicativi della modellazione tridimensionale grazie alla possibilità di stimare, durante la fase di calcolo al computer, i parametri di calibrazione della camera e di correggere gli errori sistematici introdotti dalla non coincidenza con il modello geometricomatematico su cui si basa la fotogrammetria. Le potenzialità offerte dall’analisi spaziale e dalla documentazione virtuale digitale riscuotono una sempre maggiore popolarità anche tra i non addetti ai lavori. La definizione di standard in materia diviene per tale motivo sempre più necessaria. La sperimentazione delle tecniche di modellazione inversa è stata effettuata in campi molto diversi: discipline per lo studio dell’ambiente e del territorio, documentazione e conservazione dei beni culturali, reverse engineering. Di ogni settore sono state analizzate e messe in evidenza le principali difficoltà e proposte opportune metodologie operative risolutive. Oggetti dalle forme lisce e non definibili matematicamente come quelli rilevati nella sperimentazione effettuata nel settore navale trovano forti analogie in altri settori come quelli industriali automobilistico e aeronautico, il body modelling, ecc.. La modella- 195 - Conclusioni zione di oggetti dalle forme note nel settore dei beni culturali trova forti analogie in quello della modellazione meccanica (pur con notevoli differenze circa le affidabilità e le accuratezze richieste). Le dimensioni degli oggetti notevolmente diverse tra loro o caratterizzati da forme e materiali differenti (da vaste zone di territorio sino alle dimensioni di una moneta), problemi di logistica e condizioni ambientali di lavoro svantaggiose (spazi ristretti, ostruzioni), accuratezze e affidabilità molto restrittive hanno talvolta richiesto approcci differenziati in funzione dei singoli casi ma il flusso di modellazione inversa è rimasto invariato. Nella maggior parte dei casi sono state analizzate tutte le fasi del flusso di generazione di un modello 3D: calibrazione, rilievo, elaborazione dei dati e analisi dei risultati. Le attuali tecnologie e metodologie di rilievo sono in grado di soddisfare i requisiti richiesti per la modellazione 3D inversa nella maggior parte dei settori applicativi. Per applicazioni in cui sono richieste accuratezze e affidabilità elevate e prossime al limite consentito dagli strumenti o dalle tecniche è necessario effettuare ulteriori sperimentazioni perché il processo di modellazione attraversa una serie di fasi che introducono ulteriori errori (non sempre semplici da indagare) che degradano inevitabilmente l’accuratezza del prodotto finale. Per tale motivo, in modellazione meccanica e applicazioni di reverse engineering (Capitolo 6), dove le accuratezze richieste sono generalmente molto elevate, è necessario che l’intero flusso di modellazione sia tenuto sotto controllo, dalla calibrazione alla generazione della mesh e delle superfici NURBS. In particolare è stato mostrato che l’utilizzo di camere fotografiche amatoriali digitali ai fini metrici può sicuramente soddisfare i requisiti richiesti nei settori applicativi close-range dove scala immagine e configurazione della rete di camere possono essere pianificati e modificati molto più flessibilmente che nel caso della fotogrammetria aerea in cui predominano le ben più costose camere metriche (obbiettivi quasi esenti da distorsione radiale). La ricerca ha analizzato le principali problematiche oggi inerenti la modellazione tridimensionale inversa con tecniche fotogrammetrica e laser scanning. Nel capitolo 4 sono state analizzate alcune problematiche fondamentali nella modellazione dell’ambiente e del territorio: il filtraggio di dati laser scanning aereo (ALS). Lo scrivente ha sviluppato e implementato in linguaggio MATLAB un nuovo algoritmo di filtraggio (PBTIN - Prismatic Buffered TIN) che si basa sulla densificazione iterativa di TIN. L’algoritmo e le strategie di filtraggio, implementati in un software denominato LAIM (Laser e IMagini), sono stati sottoposti al test standardizzato ISPRS fornendo ottimi risultati. Il vantaggio del metodo - 196 - Conclusioni proposto risiede soprattutto nella intuitività dei parametri di filtraggio e nel loro esiguo numero (3). L’algoritmo proposto è stato utilizzato non solo su dati laser aerei (ALS) ma anche nel caso di dati laser scanning terrestri (TLS) e su DSM da image-matching, grazie alla sua versatilità. Nel settore della fotogrammetria digitale sono state affrontate le problematiche inerenti la generazione di modelli densi di superficie da image-matching in ambito close-range, in assoluto il più complesso per geometria delle prese (convergenza, scale differenti) e per caratteristiche radiometriche della superficie degli oggetti (omogeneità, assenza di texture o ripetitività). Lo scrivente ha analizzato e comparato diversi software per l’imagematching, sia commerciali che di ricerca (capitolo 5). La maggior parte dei software per l’image-matching oggi in commercio nasce per applicazioni di fotogrammetria aerea. Questi software non consentono di orientare immagini acquisite con qualsiasi schema di presa (multi-immagine convergenti) oppure non riescono a effettuare l’image-matching su immagini che non siano state acquisite con assi paralleli. Lo scrivente ha sviluppato una procedura (capitolo 5-6) mediante la quale è possibile orientare le immagini in software per la fotogrammetria close-range e importare orientamenti e parametri di calibrazione della camera in software di fotogrammetria aerea. In alcuni casi sono stati effettuati dei confronti tra tecnica fotogrammetrica e laser scanning (capitolo 5 e 6) nella generazione di modelli densi di superficie (DDSM). La ricerca ha dimostrato che benché le tecniche con sensori attivi (laser scanner e proiettori di luce strutturata) siano preferite per semplicità d’uso e rapidità d’acquisizione, è possibile ottenere risultati equivalenti con tecniche di fotogrammetria digitale ma con costi per la strumentazione di almeno un ordine di grandezza inferiore. Nel capitolo 6 lo scrivente ha sviluppato una procedura per la generazione di modelli tridimensionali con tecniche di image-matching su oggetti dalle superfici chiuse (imbarcazioni, eliche, ecc.). Rispetto ai precedenti lavori presenti in letteratura la modellazione effettuata non si limita ad una porzione 2.5D (per ogni coppia X,Y esiste una sola Z) dell’oggetto ma all’intero corpo. La procedura consiste nel segmentare l’oggetto in più porzioni 2.5D ed effettuare dei cambi di sistema di riferimento all’interno dei quali gli orientamenti esterni delle fotocamere posseggono valori degli angoli di orientamento esterno compresi in intervalli accettati dai software per l’image-matching (minimizzare il valore assoluto degli angoli di rollio e beccheggio). La procedura prevede la successiva generazione dei DDSM nei singoli sistemi di riferimento e quindi l’allineamento delle singole parti 2.5D applicando in maniera inversa le rototraslazioni precedentemente calcolate per i - 197 - Conclusioni singoli sistemi di riferimento utilizzando un modulo implementato in LAIM che si basa sull’analisi procrustiana. Contrariamente a quanto normalmente si ottiene utilizzando l’algoritmo ICP per allineare i DSM ottenuti con tecniche laser scanning, il metodo di allineamento è praticamente esente da errori ma prevede il riconoscimento dei punti utilizzati per il calcolo dei parametri di trasformazione. In ambito del reverse engineering nel settore navale, lo scrivente ha sottolineato (capitolo 6) l’importanza dell’integrazione delle tecniche fotogrammetrica e laser scanning nella misurazione della superficie delle carene. Il metodo proposto è molto più rapido e affidabile rispetto all’allineamento con solo metodo ICP. Nell’eseguire i confronti tra DSM generati con tecniche fotogrammetrica e laser scanning (capitolo 5-6) è stata evidenziata l’importanza di individuare con notevole accuratezza un sistema di riferimento comune. L’uso molto popolare in letteratura, dell’algoritmo ICP per portare in un unico sistema di riferimento i due DSM generati con tecniche differenti, è da limitare ai soli casi in cui si è certi che non vi siano differenze in scala. - 198 - Bibliografia Abdel-Aziz, Y.I. and Karara, H.M., 1971: Direct linear transformation into object space coordinates in close-range photogrammetry. Proc. Symposium on Close-Range Photogrammetry, pp. 1-18 Ackermann, S., Miele, D., Rizzardi, M., Troisi, S., 2007: Modellazione automatica di edifici da dati LIDAR. In: Dal rilevamento fotogrammetrico ai database topografici. Convegno Nazionale Sifet 2007. Arezzo. 27-29 Giugno 2007. (pp. 316-323). Ackermann, S., Miele, D., Rizzardi, M., Troisi, S., 2007: 3D modelling da dati lidar. 11a Conferenza Nazionale ASITA. Torino. 06-09 novembre 2007. Ackermann, S., Menna, F., Troisi, S., Scamardella, A., 2008: Digital photogrammetry for high precision 3D measurements in shipbuilding field. 6TH CIRP International Conference on ICME, Intelligent Computation In Manufacturing Engineering, Naples 23-25 July 2008. Axelsson, P., 1999. Processing of laser scanning data - algorithms and applications. ISPRS Journal of Photogrammetry & Remote Sensing, vol. 54 July 1999, pp. 138-147. Axelsson, P., 2000. DEM Generation from Laser Scanner Data Using Adaptive TIN Models. IAPRS, vol. 33. part B4/1, pp.110-117. Axelsson, P., 2001. Ground estimation of laser data using adaptive TIN-models. Proceedings of OEEPE workshop on airborne laserscanning and interferometric SAR for detailed digital elevation models 1-3 March 2001. Official Publication No. 40. CD-ROM. pp 185-208. Royal Institute of Technology Department of Geodesy and Photogrammetry 100 Stockholm, Sweden. Baltsavias, E. P., 1991. Multiphoto geometrically constrained matching. Ph.D. thesis, Institute of Geodesy and Photogrammetry, ETH Zurich, Switzerland. 221 pages Balzani, M., Pellegrinelli, A., Perfetti, N., Uccelli, F. (2001): A terrestrial 3D laser scanner: Accuracy tests. Proc. 18th Int. Symp. CIPA 2001, pp. 445-453. Beauchesne, E, and Roy, S., 2003. Automatic relighting of overlapping textures of a 3D model. Proceedings of IEEE Computer Vision and Pattern Recognition, 18th to 20th June 2003. Vol. 2, 742 pages: 166–173. Beinat, A., Crosilla, F., 2000: La soluzione della triangolazione aerea a modelli indipendenti mediante tecniche di analisi procustiana. Bollettino SIFET, N. 5. Beinat, A., Crosilla, F., 2000: Applicazioni dell'analisi procustiana alla trasformazione di datum in ambiente GIS. Atti della XL Riunione Scientifica della Soc. It. di Statistica, Firenze 26-28 Aprile 2000, pp 707-710. - 199 - Bibliografia Beraldin, J.-A., Rioux, M., Cournoyer, L., Blais, F., Picard, M., Pekelsky, J., 2007: Traceable 3D Imaging Metrology. Videometrics IX, SPIE Electronic Imaging, Vol. 6491, pp. B.1-11 Besl, P.J., McKay, N.D., 1992: A method for registration of 3-d shapes. IEEE Trans. Pattern Anal. Mach. Intell., 14(2), 239-256. Blais, F., 2004: Review of 20 Years of Range Sensor Development. Journal of Electronic Imaging, 13(1): 231-240 Blais, F., Taylor, J., Cournoyer, L., Picard, M., Borgeat, L., Dicaire, L.-G., Rioux, M., Beraldin, J.-A., Godin, G., Lahnanier, C., Aitken, G., 2005: Ultra-High Resolution Imaging at 50μm using a Portable XYZ-RGB Color Laser Scanner. International Workshop on Recording, Modeling and Visualization of Cultural Heritage, Centro Stefano Franscini, Monte Verita, May 22-27, Ascona, Switzerland Boehler, W., Bordas-Vicent, M., Marbs, A. (2003): Investigating Laser Scanner Accuracy, Proceedings of the XIXth CIPA Symposium. ISPRS/CIPA, pp. 696-701, Antalya, Turkey. Brovelli, M.A., Cannata, M., Longoni, U.M., 2002. Managing and processing LIDAR data within GRASS. Proceedings of the GRASS Users Conference 2002, Trento, 11-13 September 2002. Brovelli, M.A., Zamboni, G., Cannata, M., 2006. Qualità del filtraggio di dati LIDAR con GRASS. Bollettino SIFET 1/2006 pp.13-28. Brown, D.C., 1971: Close-range camera calibration. PE&RS, Vol. 37(8), pp.855-866 Chandler, J., Bryan, P., Fryer, J., 2007: The development and application of a simple methodology for recording rock art using consumer-grade digital cameras. Photogrammetric Record, 22(117), pp. 10-21 Chen, Y., and Medioni, G., 1992: Object modeling by registration of multiple range images. Image and Vision Computing, 10 (3), 145-155. Cheok, G., Lytle, A., Saidi, K. 2006: Status of the NIST 3D imaging system performance evaluation facility. Proc. of PIE Defence and Security Symposium, Orlando, FL Crosilla, F., 1999: Procrustes analysis and geodetic sciences. Proc. International Symposium "Quo Vadis Geodesia…?" (on the occasion of the 60 birthday of Prof. Dr. mult. E. Grafarend), Department of Geodetic Science, Stuttgart University, November 4-5, 1999. Crosilla, F., Beinat, A., 2001: Procrustes solution of the photogrammetric block adjustment by independent models. Inviato per la pubblicazione a Journal of Photogrammetry & Remote Sensing. Crosilla F., Visintini D., Prearo G., Fico B., 2005: Esperienze di filtraggio, classificazione, segmentazione e modellazione di dati spaziali da rilievo laser aereo, Bollettino SIFET n. 1/2005, Cagliari. - 200 - Bibliografia Debevec, P. E., Taylor, C. J. and Malik, J., 1996. Modeling and rendering architecture from photographs: A hybrid geometry- and image-based approach. ACM Proceedings of SIGGRAPH ’96, New Orleans, Louisiana, 4th to 9th August 1996. 518 pages: 11–20. De Joinville, O., Saur, S., Bretar, F., 2003: Le levé laser aéroporté: tecniques, applications et recherche, Bulletin d’ Information de l’ IGN n° 74 (2003/3). El-Hakim, S., Gonzo, L. Voltolini, F., Girardi, S., Rizzi, A., Remondino, F., Whiting, E., 2007: Detailed 3D Modelling of Castles Farr, T. G., et al. (2007), The Shuttle Radar Topography Mission, Rev. Geophys., 45, RG2004, doi:10.1029/2005RG000183. Fiani, M., Menna, F., Troisi, S., 2008: Integrazione di tecniche di fotogrammetria e laser scanning per la modellazione 3d della carena di una imbarcazione. Atti del Convegno Nazionale SIFET “ La Topografia per le opere di ingegneria: metodi, strumenti ed applicazioni”, Sorrento, 18-20 Giugno 2008. In corso di stampa sul bollettino della SIFET. Fraser, C. S., 2001. Network design. Chapter 9 in Close Range Photogrammetry and Machine Vision (Ed.K. B. Atkinson). Whittles, Caithness, Scotland. 371 pages: 256–281. Godin, G., Rioux, M., Beraldin, J.-A., Levoy, M., Cournoyer, L., 2001: An Assessment of Laser Range Measurement of Marble Surfaces. Proceedings of the 5th Conference on Optical 3-D Measurement Techniques, pp. 49-56, Vienna, Austria Gruen A., 1985. Adaptive least square correlation: a powerful image matching technique. South African Journal of Photogrammetry, Remote Sensing and Cartography, 14(3): 175–187. Gruen, A. and Beyer, H. A., 2001. System calibration through self-calibration. In Calibration and Orientation of Cameras in Computer Vision (Eds. A. Gruen and T. S. Huang). Springer, Berlin. Vol. 34, 235 pages: 163–193. Gruen, A., Remondino, F., Zhang, L., 2004: Photogrammetric Reconstruction of the Great Buddha of Bamiyan, Afghanistan The Photogrammetric Record, Vol.19(107), September 2004, pp. 177-199 Guidi, G., Micoli, L.L., and Russo, M., 2005: Boat’s hull modeling with low-cost triangulation scanners. Videometrics VIII - Proc. of SPIE-IS&T Electronic Imaging, SPIE Vol. 5665, pp. 28-39 Guidi, G., Remondino, F., Russo, M., Menna, F., Rizzi, A., 2008: 3D modeling of large and complex site using multisensor integration and multi-resolution data. Proc. of 9th Int. Symposium on Virtual Reality, Archaeology and Cultural Heritage (VAST). Ashley, Hermon, Proenca, Rodriguez-Echavarria (eds), pp.85-92, Braga, Portugal - 201 - Bibliografia Guidi, G., Remondino, F., Russo, M., Rizzi, A., Voltolini, F., Menna, F., Fassi, F., Ercoli, S., Masci, M., E., Benedetti, B., 2008: A multi-resolution methodology for archeological survey: the Pompeii forum. VSMM 2008, Limassol, Cyprus, October 20th - 25th 2008. Hand, S., D., Clark, F., F., Mongon, W., J., Schindelholz, E., 2005: Measurement of the U.S.S. Monitor Propeller Usimg Structured Light and Coherent Laser Radar Scanning Technologies. Proceedings of CMSC 2005 Coordinate Systems Measurement Conference July 18-21, 2005, Austin, Texas USA Kadobayashi, R., Kochi, N., Otani, H., Furukawa, R., 2004: Comparison and evaluation of laser scanning and photogrammetry and their combined use for digital recording of cultural heritage. IAPRS&SIS, 35(5), pp. 401-406 Kim, S. J. and Pollefeys, M., 2004. Radiometric alignment of image sequences. Proceedings of IEEE Computer Vision and Pattern Recognition, Washington, DC, 27th June to 2 July 2004. Vol. 1, 901 pages: 645–651. Lichti, D.D., Stewart, M.P., Tsakiri, M., Snow, A.J., 2000: Calibration and testing of a terrestrial laser scanner. Int. Arch. of Photogrammetry and Remote Sensing, Vol. XXXIII, Part B5, pp. 485-492. Lichti, D.D., Gordon, S.J., Stewart, M.P., Franke, J., Tsakiri, M., 2002: Comparison of digital photogrammetry and laser scanning. Proc. of the CIPA WG6 Int. Workshop on scanning for cultural heritage recording. http://www.isprs.org/commission5/workshop/ Lohani, B., Kumar, R., 2007: A model for GPS-GDOP prediction in urban environment using lidar data OPTICAL volII pp339-346 Luhmann, T., Robson, S., Kyle, S., Harley, I., 2006: Close Range Photogrammetry. Principles, methods and Applications. Whittles Publishing, Scotland UK Menna, F., Troisi, S., 2007: Photogrammetric 3D modelling of a boat’s hull. Proceedings of the Optical 3-D Measurement Techiniques VIII, July 9-12, 2007, Zuerich, Vol. II, pp. 347-354. Menna, F., Troisi, S., 2007: PBTIN: Prismatic Buffered TIN un algoritmo di filtraggio per dati ALS, Bollettino della SIFET 1/2007 pp.67-88. Menna, F., Troisi, S., 2006: Strategie di classificazione di dati laser scanning, Atti del Convegno Nazionale SIFET “Le nuove frontiere della rappresentazione 3D”– Castellaneta Marina, 14-16 Giugno 2006. Menna, F., Troisi, S., 2005: Filtraggio dati laser scanning, Atti della 9a Conferenza Nazionale ASITA – Catania, 15-18 Novembre 2005, pp. 1505-1510. - 202 - Bibliografia Niem, W. and Broszio, H., 1995. Mapping texture from multiple camera views onto 3D-object models for computer animation. Proceedings of the International Workshop on Stereoscopic and Three Dimensional Imaging, Santorini, Greece, 6th to 8th September 1995. 344 pages: 99–105 Pirenne, M. H., 1970: Optics, Painting & Photography, Cambridge University Press, trad. it. (1991) Percezione visiva. Ottica, pittura e fotografia, Franco Muzzio & c. editore spa, Padova. Pulli, K., Abi-Rached, H., Duchamp, L., Shapiro, L. G. and Stu¨ tzle, W., 1998. Acquisition and visualization of coloured 3D objects. Proceedings of the 4th IEEE International Conference on Pattern Recognition, Brisbane, Australia, 16th to 20th August 1998. Vol. 1, 947 pages: 11–15. Ray, S. 1972: The photographic lens, Focal Press Limited, London, trad. it. (1982) Sistemi Ottici, Cesco Ciapanna editore, Roma. Remondino, F. and Niederoest, J., 2004. Generation of high-resolution mosaic for photo-realistic texturemapping of cultural heritage 3D models. Proceedings of the 5th International Symposium on Virtual Reality, Archaeology and Intelligent Cultural Heritage (VAST04), Brussels, Belgium, 7th to 10th December 2004. 279 pages: 85–92. Remondino, F., El-Hakim, S., 2006: Image-based 3D modelling: a review. The Photogrammetric Record, Vol.21(115), September 2006, pp. 269-291 Remondino, F., Menna, F., 2008: Image-based surface measurement for close-range heritage documentation International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol. XXXVII, part B5-1, pp.199-206 International Journal of Architectural Computing, Vol.5(2), pp. 199-220 Remondino F., Menna, F., 2008: Image-Based surface measurement for close-range heritage documentation. Int. Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol 37(B5), pp 199-206, Beijing, China. Remondino, F., El-Hakim, S., Gruen, A., Zhang, L., 2008: Development and performance analysis of image matching for detailed surface reconstruction of heritage objects IEEE Signal Processing Magazine, Vol.25(4), pp.55-65, July 2008 Rocchini, C., Cignoni, P., Montani, C. and Scopigno, R., 2002. Acquiring, stitching and blending diffuse appearance attributes on 3D models. The Visual Computer, 18(3): 186–204. Roggero, M., 2001. Airborne laser scanner-clustering in raw data. International Archives of Photogrammetry and Remote Sensing 34 (Part B3), 227–232. Selvini, A., Guzzetti, F., 2000: Fotogrammetria generale, UTET, Torino. - 203 - Bibliografia Sithole, G., 2001. Filtering of laser altimetry data using a slope adaptive filter. International Archives of Photogrammetry and remote Sensing, vol. XXXIV, B3/W4, Annapolis, pp. 203-210. Sithole, G., Vosselman, G., 2003. Comparison of filtering algorithms. International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. 34, part 3/W13, Dresden, Germany, pp. 71-78. Sithole, G., Vosselman, G., 2003. Report: ISPRS Comparison of Filters. http://www.itc.nl/isprswgIII-3/filtertest/Report05082003.pdf http://www.itc.nl/isprswgIII-3/filtertest/AppendixA05082003.pdf http://www.itc.nl/isprswgIII-3/filtertest/AppendixB05082003.pdf Sithole, G., Vosselman, G., 2004. Experimental comparison of filter algorithms for bare-Earth extraction from airborne laser scanning point clouds. ISPRS Journal of Photogrammetry & Remote Sensing, vol. 59 (2004), pp. 85-101. Vergauwen, M., Van Gool, L., 2006: Web-based 3D reconstruction service, Machine vision and applications, 17(6) p. 411-426 Zhang, L., 2005. Automatic Digital Surface Model (DSM) generation from linear array images. Diss. ETH No. 16078, Technische Wissenschaften ETH Zurich, IGP Mitteilung N. 90 Zhang, B., Miller, S., De Venecia, K., Walker, S., 2006: Automatic terrain extraction using multiple image pair and back matching. Proc. ASPRS Annual Conference, Reno, USA Siti WEB: WWW (2003): http://scanning.fh-mainz.de. Young-Hoo Kwon (1998), http://kwon3d.com/theory/dlt/dlt.html. Shuttle Radar Topography Mission (SRTM), http://www2.jpl.nasa.gov/srtm/ Test ISPRS commission III, http://www.commission3.isprs.org/wg3/ International Towing Tank Conference (ITTC) , http://ittc.sname.org/2006_recomm_proc/7.5-01-01-01.pdf - 204 -