UNIVERSITÀ DEGLI STUDI DI NAPOLI “PARTHENOPE”

UN IV E RS I T À D E G L I S TU DI D I N APO L I
“ PAR TH E NO P E”
Corso di Dottorato di Ricerca in
SCIENZE GEODETICHE E TOPOGRAFICHE
TESI DI DOTTORATO
METODOLOGIE E TECNICHE PER LA MODELLAZIONE
TRIDIMENSIONALE INVERSA
Relatore
Chiar. Prof. Salvatore Troisi
Coordinatore
Prof. Lorenzo Turturici
XXI CICLO
Candidato
Dr. Fabio Menna
INDICE
Riassunto
1
Capitolo 1
Modellazione tridimensionale e sue applicazioni
1.1 INTRODUZIONE
5
1.2 MODELLAZIONE 3D INVERSA
7
1.2.1
PIANIFICAZIONE DI UN PROGETTO PER LA MODELLAZIONE 3D
8
1.2.2
METODI DI RILIEVO PER LA MODELLAZIONE 3D
9
1.2.2.1
FOTOGRAMMETRIA
12
1.2.2.2
S.A.R.
15
1.2.2.3
SONAR
17
1.2.2.4
LASER SCANNING
18
1.2.3
STRATEGIA DI RILIEVO: LA SCELTA DELLA TECNICA
21
1.2.5
STRUTTURAZIONE DEL DATO SPAZIALE
23
1.2.6
MODELLI 3D FOTO-REALISTICI
27
1.2.7
ANALISI SPAZIALE
29
1.3 APPLICAZIONI DELLA MODELLAZIONE 3D INVERSA
31
1.3.1
CARTOGRAFIA E STUDIO DEL TERRITORIO
31
1.3.2
ARCHITETTURA E BENI CULTURALI
33
1.3.3
INDUSTRIA AUTOMOBILISTICA, AERONAUTICA E NAVALE
34
1.3.4
MEDICINA
34
1.3.5
FLUIDODINAMICA
35
Capitolo 2
Modellazione 3D fotogrammetrica
2.1 DEFINIZIONI
36
2.1.1
FONDAMENTI GEOMETRICI
36
2.1.2
ABERRAZIONI OTTICHE: DISTORSIONI RADIALE E TANGENZIALE
40
2.1.3
ORIENTAMENTO INTERNO
44
I
INDICE
2.1.4
ORIENTAMENTO ESTERNO
49
2.1.5
EQUAZIONI DI COLLINEARITÀ
50
2.2 ORIENTAMENTO E CALIBRAZIONE DI SINGOLE IMMAGINI
52
2.2.1
SPACE RESECTION
52
2.2.2
TRASFORMAZIONE LINEARE DIRETTA (DLT)
53
2.3 ORIENTAMENTO DI STEREO−COPPIE DI IMMAGINI
57
2.3.1
GEOMETRIA EPIPOLARE
58
2.3.2
ORIENTAMENTO RELATIVO
60
2.4 ORIENTAMENTO E CALIBRAZIONE MULTI-IMMAGINE: BUNDLE
ADJUSTMENT
61
2.5 CORRISPONDENZE TRA IMMAGINI
64
2.5.1
COLLIMAZIONE SEMIAUTOMATICA DI TARGET CIRCOLARI
67
2.5.2
METODI DI IMAGE MATCHING
68
2.6 TEXTURING MAPPING
71
Capitolo 3
Modellazione 3D con sensori ottici attivi
3.1 INTRODUZIONE
74
3.2 SISTEMI OTTICI ATTIVI A SCANSIONE
74
3.2.1
LASER SCANNER DISTANZIOMETRICI
75
3.2.2
SISTEMI OTTICI 3D A TRIANGOLAZIONE
81
3.3 TECNICHE DI ALLINEAMENTO E REGISTRAZIONE
DI NUVOLE DI PUNTI
85
3.3.1
87
METODI DI ALLINEAMENTO SURFACE-MATCHING
3.4 IL SISTEMA AIRBORNE LASER SCANNING
3.4.1
89
96
I SISTEMI GPS-INS
II
Indice
Capitolo 4
Modellazione del territorio: il software LAIM
4.1 INTRODUZIONE
99
4.2 UN TIPICO FLUSSO DI ELABORAZIONE PER LA GENERAZIONE
DI MODELLI TRIDIMENSIONALI DEL TERRENO
CON IL SOFTWARE LAIM
101
4.2.1
IMPORTAZIONE DEI DATI E SEPARAZIONE DELLE ECO
102
4.2.2
FILTRAGGIO
104
4.2.2.1
106
PRISMATIC BUFFERED TIN (PBTIN)
4.3 PROBLEMATICHE INERENTI LA SELEZIONE DEI PUNTI SEME:
CONFRONTO LAIM – TERRASCAN
4.4 IL TEST ISPRS DELL’ALGORITMO PBTIN
115
116
4.5 UN ESEMPIO DI UTILIZZO DEL SOFTWARE LAIM PER LA
MODELLAZIONE DI UNA FRANA DA DATI
LASER SCANNING TERRESTRE
129
Capitolo 5
Modellazione 3D inversa nel settore dei beni culturali
5.1 INTRODUZIONE
5.1.1
136
GLI STANDARD NELLA DOCUMENTAZIONE DIGITALE E
NELLA MODELLAZIONE 3D INVERSA DEI BENI CULTURALI
5.2 MODELLAZIONE MULTI-SCALA DEL FORO DI POMPEI
138
140
5.2.1
METODOLOGIE DI MODELLAZIONE 3D MULTI-RISOLUZIONE
141
5.2.2
ELABORAZIONE DEI DATI
142
5.2.3
INTEGRAZIONE DEI DATI MULTI-TECNICA
145
5.3 MISURAZIONE E RICOSTRUZIONE DI SUPERFICI 3D
CON TECNICHE FOTOGRAMMETRICHE
148
5.3.1
SOFTWARE COMMERCIALI E DI RICERCA
148
5.3.1.1
SAT-PP
149
5.3.1.2
ARC 3D WEBSERVICE
150
5.3.2
ESEMPI E ANALISI DELLE PERFORMANCE
5.4 RILIEVO TLS DELLA FRANA DI NOCERA INFERIORE
III
150
143
Indice
Capitolo 6
Modellazione 3D per il reverse engineering:
alcuni esempi applicativi nel settore dell’ingegneria navale
6.1 INTRODUZIONE
161
6.2 MODELLAZIONE FOTOGRAMMETRICA DI MODELLI IN SCALA DI
CARENE E PROPULSORI PER LE PROVE IDRODINAMICHE IN VASCA
NAVALE
163
6.2.1
MODELLAZIONE 3D INVERSA DELLA CARENA IN SCALA
164
6.2.2
MODELLAZIONE 3D INVERSA DELL’ELICA ORVEA E034
172
6.3 INTEGRAZIONE DI TECNICHE DI FOTOGRAMMETRIA DIGITALE
E LASER SCANNING PER IL REVERSE ENGINEERING DELLA CARENA
DI UNA BARCA A VELA
178
6.3.1
RILIEVO E MODELLAZIONE FOTOGRAMMETRICA
178
6.3.2
RILIEVO E MODELLAZIONE LASER SCANNING
182
6.3.3
ELABORAZIONE DEI DATI LASER
184
6.3.3.1
ALLINEAMENTO CON METODO ITERATIVE CLOSEST POINT – ICP
184
6.3.3.2
ORIENTAMENTO CON REFERENCE POINTS – RPS DA FOTOGRAMMETRIA
185
6.3.4
CONFRONTO DEI RISULTATI
186
6.3.4.1
LASER ICP – FOTOGRAMMETRIA
187
6.3.4.2
LASER RPS – FOTOGRAMMETRIA
189
6.3.4.3
CONFRONTO CON IL PIANO DI COSTRUZIONE E ANALISI DI
SIMMETRIA DELLA CARENA
191
Conclusioni
195
Bibliografia
199
IV
Riassunto
Riassunto
Negli ultimi anni sono stati fatti numerosi passi in avanti nel settore delle discipline del
rilievo e della rappresentazione grazie all’avvento di nuove tecnologie e al perfezionamento e all’ottimizzazione di quelle già esistenti, che ne hanno notevolmente esteso i
campi d’applicazione. Strumentazione automatica per il rilievo, software di basso costo
(o addirittura gratuiti) e loro semplicità d’utilizzo, hanno introdotto le discipline del rilievo tridimensionale anche in campi in cui tradizionalmente ci si affidava a rappresentazioni più tipicamente grafiche e spesso delegate alla sola interpretazione soggettiva degli operatori addetti ai lavori. Le tecnologie e le metodologie oggigiorno esistenti sono
senz’altro in grado di soddisfare i requisiti di un’ampia gamma di utenze con costi, tempi
di elaborazione, accuratezze e affidabilità funzioni soprattutto degli scopi finali. Cartografia, architettura, ingegneria, documentazione dei beni culturali, robotica, navigazione e
medicina sono i principali settori d’interesse benché sono note ulteriori applicazioni in
campi come la cinematografia e i videogames.
L’impiego oramai standardizzato delle tecnologie informatiche sta rivoluzionando il
modo di concepire la rappresentazione degli oggetti e se nel passato (ma ancora oggi),
l’uso di rappresentazioni bidimensionali “rappresentava” uno standard necessario, il futuro pare orientato verso i database informatici tridimensionali. L’era della rappresentazione cartacea sta man mano cedendo il passo a quella informatica in maniera quasi spontanea, latente e con una rapidità che solleva importanti problematiche circa gli standard da
seguire e l’affidabilità e la compatibilità delle procedure utilizzate. Ancora oggi la filiera
di produzione del dato spaziale rimane in molti casi legata storicamente ad un prodotto
finale di tipo bidimensionale1. La staticità del supporto bidimensionale impone l’uso di
una simbologia che rende difficile la lettura, l’interpretazione e di conseguenza
l’accessibilità delle informazioni ai non esperti del settore rinchiudendo così le varie discipline e ambiti applicativi del rilievo in compartimenti stagni. Modelli tridimensionali
integrati con informazioni di vario genere sono oggi molto diffusi partendo da applicazioni prettamente scientifiche sia in ambito ingegneristico (termografia in ingegneria
meccanica) che nel campo dei beni culturali (analisi multispettrale, termica di dipinti e
reperti) sino a giungere ad applicazioni didattiche e socio-culturali come i musei virtuali
1
Si pensi per esempio al concetto di “errore di graficismo” tipicamente legato al supporto cartaceo e tuttora impiegato in cartografia numerica o alle difficoltà che si riscontrano nel rappresentare secondo piante e prospetti
statue e oggetti strutturalmente complessi
-1-
Riassunto
e i sistemi informativi territoriali integrati nei navigatori satellitari GPS. Il grande successo di massa riscontrato con tali applicazioni è da attribuire soprattutto alle moderne tecnologie informatiche sia hardware che software che consentono in maniera agevole analisi e
visualizzazioni scenografiche fotorealistiche persino su telefoni cellulari (…virtual museum, car navigator). L’aspetto scenografico non è da considerarsi solo meramente estetico ma anzi visto come un mezzo che semplifica la lettura delle informazioni che salta la
fase di decodifica e interpretazione di simboli non sempre di immediata comprensione.
Alla immediatezza dell’informazione si affianca la portabilità dei dati, facilmente accessibili e divulgabili sul web.
I modelli tridimensionali costituiscono quindi un argomento di notevole interesse sia
tecnico-scientifico che socio-culturale; i campi applicativi sono molteplici, ognuno con i
propri requisiti e le proprie difficoltà specifiche.
La modellazione 3D può essere vista come una serie di processi atti a definire la forma
tridimensionale di un oggetto mediante l’utilizzo di software detti modellatori 3D in uno
spazio virtuale al computer nel quale è possibile interagire ed effettuare analisi di vario
genere. Il processo di modellazione nasce come supporto alla progettazione nell’ ambito
dell’industria (CAD, CAM) automobilistica e aeronautica negli anni ’60 del secolo scorso
abbracciando con il passare degli anni campi che escono dall’ambito tecnico (grafica, cinematografia, videogames); in questi casi la generazione del modello 3D avviene in maniera interattiva al computer secondo le esigenze del progettista/disegnatore che conosce
le geometrie dell’oggetto da realizzare. In altri casi l’oggetto da modellare in 3D, antropico o naturale, è già esistente ma non se ne conoscono le forme che devono essere rilevate
con tecniche di metrologia. Mentre in progettazione dal progetto si giunge al modello 3D,
in questi casi il processo è inverso: dall’oggetto reale si giunge al suo modello tridimensionale. Questo processo di modellazione inversa in ambito ingegneristico prende il nome
di reverse engineering. Topografia, Fotogrammetria, scansioni laser e per proiezione
(fringe projector, pattern projector), metrologia industriale con Coordinate Measurement
Machine (CMM) sono le tecniche oggi più usate in ambito di modellazione inversa e ognuna presenta vantaggi/svantaggi in termini di accuratezze, affidabilità, tempi di esecuzione dei rilievi e costi.
La fotogrammetria sta attraversando una fase di rinascita con l’avvento della tecnologia
digitale grazie alla quale anche con fotocamere amatoriali, e quindi di basso costo, è possibile effettuare misure di vario tipo raggiungendo accuratezze relative elevate. Il notevole interesse per questa tecnologia è motivato, oltre che dai suoi bassi costi, soprattutto
-2-
Riassunto
dalla sua versatilità: i sensori fotografici possono essere utilizzati in diversi ambienti (nello spazio, in aria, acqua) e facilmente installati su piattaforme di diverso tipo come satelliti, aerei e elicotteri, Unmanned Aerial Vehicle (UAV) e anche sott’acqua con i Remotely Operated Vehicle (ROV). La fotogrammetria vanta in confronto alle altre tecniche, la
possibilità di unire al dato metrico rilevato, un contenuto semantico derivante
dall’immagine fotografica utile anche per scopi fotointerpretativi e analisi di vario genere.
Le tecniche di rilievo con sensori attivi come i laser scanner stanno divenendo sempre
più popolari soprattutto in ambito terrestre grazie alla loro semplicità di utilizzo e a software specificamente progettati per consentire anche a operatori non esperti in materia di
metrologia di effettuare rilievi per la modellazione tridimensionale. La grande velocità
d’acquisizione di questi strumenti richiede però una fase di elaborazione molto onerosa
data l’enorme mole di dati non strutturata acquisita, oltre che potenti strumenti software
per la loro gestione.
Lo scopo di questa ricerca è quello di analizzare le problematiche inerenti il processo di
modellazione inversa con tecniche di Fotogrammetria e laser scanning su oggetti dalle caratteristiche e dimensioni differenti tra loro. La ricerca è soprattutto applicata e numerose
sperimentazioni sono state eseguite: da grandi estensioni di territorio (landscape modelling, city modelling), passando per architetture, imbarcazioni, parti meccaniche, e reperti
archeologici di piccolissime dimensioni come quelle di una moneta. Le principali metodologie di modellazione sia manuali che automatiche vengono così analizzate seguendo
un approccio multiscala e differenziate in funzione dei singoli casi affrontati. In molti casi un’analisi comparativa delle procedure oggi utilizzate in fase di calibrazione, rilievo,
elaborazione e analisi, viene illustrata e integrata presentando algoritmi e software sviluppati in proprio.
Il capitolo primo introduce le problematiche della modellazione tridimensionale inversa
indipendentemente dalla tipologia di tecnica di rilievo utilizzata. In questo modo, sebbene
i campi d’applicazione siano molto differenti tra loro e richiedano approcci diversificati
in funzione delle esigenze dei singoli casi (strumentazioni, tecniche, e metodi di elaborazione), è possibile comunque individuare nell’intero diagramma di flusso della modellazione 3D delle fasi che li accomunano ed essere visto quindi attraverso una chiave di lettura più generale. Vengono inoltre illustrate le principali tecnologie e tecniche di rilievo
tridimensionale oggi esistenti sottolineando come, nelle più diffuse applicazioni di modellazione, le tecniche fotogrammetrica e a scansione con sistemi ottici attivi siano le più
-3-
Riassunto
produttive e versatili. Nel capitolo due vengono quindi mostrate le principali relazioni analitiche che stanno alla base della fotogrammetria e descritti i più importanti metodi per
la misurazione automatica di punti sulle immagini. Il capitolo tre mostra una panoramica
dei principali sistemi ottici attivi a scansione sia per applicazioni terrestri, come i laser
scanner distanziometrici e triangolatori (TLS) e i proiettori di luce strutturata, sia i laser
scanner aerotrasportati (ALS). Sono illustrati i principi di funzionamento, le principali caratteristiche e riportati i risultati di importanti test per l’analisi di errori e problematiche
inerenti l’utilizzo di tali sistemi. I capitoli 4,5,6 riportano le sperimentazioni eseguite in
ambito di modellazione 3D inversa. Il capitolo 4 mostra le problematiche principali che si
presentano nella modellazione 3D dell’ambiente e del territorio con tecniche laser scanning sia aereo che terrestre. Viene presentato un software, sviluppato dallo scrivente in
linguaggio Matlab, denominato LAIM (Laser e IMmagini) in cui sono implementati originali algoritmi proprietari per il filtraggio e la classificazione automatica dei punti così
come importanti funzioni di integrazione fotogrammetrica. Nel capitolo 5 sono affrontate
le problematiche inerenti la modellazione nel settore della documentazione e conservazione dei beni culturali. Il capitolo 6 mostra le potenzialità della modellazione tridimensionale per il reverse engineering attraverso importanti applicazioni nel settore
dell’architettura navale.
-4-
Capitolo 1
Modellazione 3D inversa
Modellazione tridimensionale e sue applicazioni
1.1 INTRODUZIONE
5
1.2 MODELLAZIONE 3D INVERSA
7
1.3 APPLICAZIONI
31
1.1 INTRODUZIONE
La modellazione tridimensionale (3D) viene oggi generalmente associata all’insieme di
processi atti a definire la forma di un oggetto in tre dimensioni con l’ausilio di un
computer. Sia che l’oggetto debba essere disegnato/progettato, sia che esista già nel
mondo reale, il processo si conclude in genere con la visualizzazione del suo modello
virtuale su un monitor di un computer; mediante software specifici l’utente può
successivamente interagire virtualmente con il modello che può essere ruotato, sottoposto
ad analisi geometriche di vario tipo (sezionamento, calcolo dei volumi, estensioni delle
superfici, ecc.), inserito in ambienti di realtà virtuale (simulatori di navigazione,
rendering, cinematografia, videogame) o utilizzato come “calco digitale” per eventuali
riproduzioni e stampe 3D (fresatura).
Grazie alle moderne tecnologie informatiche, sia hardware che software, quel che fino a
pochi anni fa richiedeva un computer da un milione di dollari e spazi adeguati a
contenerlo, può oggi essere sostituito da un piccolo computer portatile che pesa meno di
un chilo e dal costo di poche centinaia di dollari. Tale tecnologia informatica, sempre più
portabile e di basso costo, ha trasformato l’uso del computer da strumento di supporto per
scopi tecnico-scientifici, a mezzo per la diffusione della cultura (soprattutto tramite
internet) e per scopi ricreativi. I modelli 3D si inseriscono agevolmente in questo contesto
di innovazione perché consentono rappresentazioni esteticamente piacevoli e soprattutto
di immediata lettura, senza decodifica di alcuna simbologia. Il loro utilizzo spazia da
scopi altamente tecnici e di elevata precisione come l’analisi delle deformazioni
geometriche in tempo reale di un antenna satellitare sottoposta a sbalzi termici o il
controllo di qualità di parti meccaniche nelle catene di montaggio, sino a giungere a fini
prettamente ricreativi come la ricostruzione 3D del volto di personaggi dello spettacolo e
dello sport da inserire nei videogame. Anche nell’ambito del marketing su WEB la
generazione di modelli 3D desta notevole interesse e ciò è dimostrato dal grande numero
di aziende che sui propri siti internet pubblica i cataloghi dei prodotti in 3D.
-5-
Capitolo 1
Modellazione 3D inversa
L’attenzione multilaterale verso i modelli tridimensionali costituisce un importante
incentivo alla ricerca e allo sviluppo innovativo in questo settore e sta muovendo,
soprattutto negli ultimi anni, imponenti risorse economiche e umane. Molto è stato fatto
in termini di visualizzazione e sviluppo di software modellatori per progettazione, grafica
e animazione 3D (CAD, CAM e modellatori grafici come Maya, 3DMax o Lightwave) in
cui procedure e metodologie operative sono oramai pressoché standardizzate. Ciò che
ancora richiede molti sforzi e la confluenza di esperienze specifiche è il processo di
modellazione inversa del mondo reale. Il problema è abbastanza semplice nella sua
definizione: “dato un oggetto reale di qualsiasi dimensione, ricostruirne un modello
digitale virtuale con accuratezza, affidabilità e livello di dettaglio funzioni dell’utilizzo
finale”. La risoluzione di tale problema non risulta però altrettanto semplice dal momento
che si tratta di oggetti reali, continui che in qualche modo devono essere digitalizzati,
discretizzati. Se da una parte durante la fase di progettazione di un oggetto, questo viene
rappresentato da forme geometriche note o comunque definibili da una o più superfici
matematiche, nel mondo reale il problema è completamente opposto perché sia che si
tratti di oggetti antropici che naturali, le forme geometriche “perfette” esistono solo se si
stabilisce un certo grado di astrazione e tolleranza. Una colonna che in fase di
progettazione è stata disegnata come un cilindro, una volta realizzata non lo sarà più se
non entro le tolleranze di costruzione; se questa viene poi sottoposta a carichi troppo
elevati potrebbe addirittura subire delle deformazioni ad esempio incurvandosi. Per
questo oggetto reale diversi tipi di modellazione potrebbero essere richiesti:
§ controllo di qualità/collaudo dopo la messa in opera per verificare che l’oggetto sia
stato realizzato rispettando le specifiche tolleranze di progetto;
§ analisi delle deformazioni geometriche per studi strutturali;
§ semplice modellazione con forme parametriche (altezza e raggio del cilindro) in un
progetto di modellazione 3D a scopi divulgativi (ad esempio una colonna antica).
Ciascuno dei tre esempi appena elencati richiede un differente approccio alla
modellazione più o meno complesso e con precisioni e livello di dettaglio estremamente
differenti. La modellazione tridimensionale inversa è quell’insieme di processi che,
attraverso la fase di rilievo dell’oggetto, ne ricava informazioni geometriche così da
poterne ricostruire le forme mediante appositi software.
-6-
Capitolo 1
Modellazione 3D inversa
In questo capitolo sono descritte tecnologie e metodologie oggigiorno usate in ambito di
modellazione tridimensionale inversa (dall’oggetto fisico, reale al suo modello 3D
mediante un rilievo metrico) in diversi campi d’applicazione e su differenti scale
dimensionali. Benché le caratteristiche degli oggetti in questione siano molto differenti
tra loro e richiedano approcci diversificati in funzione delle esigenze dei singoli casi
(strumentazioni e tecniche di rilievo diverse), è possibile comunque individuare
nell’intero diagramma di flusso della modellazione 3D delle fasi che li accomunano; in
questo modo ciò che in letteratura viene generalmente suddiviso per singole aree
disciplinari (beni culturali, meccanica, landscape modelling, reverse engineering,
building modelling, close range modelling, aerial modelling) può essere visto attraverso
una chiave di lettura più generale. Le problematiche e le tecniche di rilievo ed
elaborazione più specifiche dei singoli casi vengono analizzate distintamente nei prossimi
capitoli anche attraverso esempi ed esperienze maturate durante la fase di
sperimentazione.
1.2 MODELLAZIONE
3D
INVERSA:
DALL’OGGETTO
REALE
AL
SUO
MODELLO VIRTUALE
Il modello 3D di un oggetto reale è una sua rappresentazione virtuale: l’oggetto viene
discretizzato secondo primitive geometriche più o meno elementari, in genere una
composizione di superfici o l’unione di segmenti di retta, archi, ecc. Punti, segmenti,
archi definiscono la struttura geometrica del modello 3D (modello wireframe) sui quali si
“stendono” successivamente le superfici (dove necessario) ottenendo così una
rappresentazione “solida” dell’oggetto.
Sia che si tratti di modelli dalla forma semplice (un modello di edificio) che complessa
(la fusoliera di un aereo o la carena di una imbarcazione) la modellazione può essere
ricondotta a un problema di campionamento. L’elemento geometrico fondamentale è
quello matematicamente più semplice di tutti: il punto. L’unione di due punti definisce un
segmento di retta, tre punti un triangolo, così come la circonferenza per essi passanti o il
piano che li contiene. A loro volta solidi primitivi come il prisma, il parallelepipedo, la
sfera, il cono ecc. sono definiti come figure derivanti indirettamente da quella
fondamentale che è il punto. Anche geometrie più complesse come le curve spline o le
superfici NURBS sono definite da relazioni matematiche calcolate in punti (nodi) che
possono o meno appartenere all’oggetto stesso.
La modellazione 3D di oggetti reali può essere quindi suddivisa in almeno tre fasi:
-7-
Capitolo 1
Modellazione 3D inversa
1. rilievo;
2. elaborazione;
3. generazione delle superfici e loro unione,
attraverso le quali misurare o determinare indirettamente le coordinate tridimensionali
(Xi, Yi, Zi) di un minimo numero di punti (rilievo ed elaborazione) necessari a definirne le
forme (generazione delle superfici) in funzione del livello di semplificazione definito a
priori. In genere le tre fasi appena elencate sono oggi comuni in tutti i progetti di
modellazione a meno di differenze derivanti da particolari applicazioni.
1.2.1 PIANIFICAZIONE DI UN PROGETTO PER LA MODELLAZIONE 3D
La generazione di un modello tridimensionale è un’operazione che consiste di passi ben
definiti attraverso i quali si “recuperano” le informazioni geometriche necessarie per la
rappresentazione digitale dell’oggetto in 3D garantendo requisiti specifici come
accuratezza e affidabilità metriche, tempi e costi per la produzione del dato spaziale. Tali
parametri, definibili come specifiche di progetto della modellazione 3D, sono soprattutto
funzione degli scopi finali del modello tridimensionale (monitoraggio deformazioni o
solo visualizzazione) oltre a essere dettati da circostanze ambientali di rilievo (volo aereo,
spazi ristretti, rilievo in concomitanza con altre operazioni di manutenzione sull’oggetto
da modellare). I modelli 3D sono divenuti molto popolari negli ultimi anni, un prodotto
d’innovazione che, come tale, “deve” apportare benefici e vantaggi, in termini di risorse
umane ed economiche, con costi uguali o addirittura inferiori alle “vecchie” tecnologie.
Poiché il processo di modellazione 3D consta di numerose fasi, il rispetto delle specifiche
di progetto può avvenire soltanto previa accurata pianificazione del progetto che tenga
sotto controllo tutti i parametri richiesti.
La pianificazione è il cuore del processo di modellazione, la fase più importante di tutto
il progetto ma anche quella più complessa. Le difficoltà non risiedono soltanto nei
tecnicismi di progetto ma soprattutto nel dialogo tra la committenza e il produttore del
dato spaziale.
L’innovazione informatica e con essa tutte le applicazioni derivate,
costituiscono un fenomeno la cui espansione a macchia d’olio raggiunta negli ultimi anni,
ha sollevato importanti questioni circa la sua controllabilità, gli standard da seguire e
compatibilità con tecnologie del passato (la definizione di “passato” è sempre più
opinabile). Le ricerche scientifiche spesso viaggiano parallele in vagoni stagni che vanno
verso la stessa destinazione ma portando nomi differenti; la logica di mercato vende
“innovazioni centellinate“ obbligando l’utenza tecnologica a continue operazioni di up-8-
Capitolo 1
Modellazione 3D inversa
grade delle proprie strumentazioni e software per stare al passo con gli “standard” di
compatibilità del momento. Infine il cambio generazionale tra professionisti dell’era
analogica, con differente “forma-mentis”, e quelli dell’era digitale non si è ancora
completato, con conseguenti continue e disperate corse verso l’aggiornamento
professionale ai nuovi sistemi informatici. Il risultato è un fenomeno di entropia
tecnologica spontaneo e pressoché incontrollabile all’interno del quale, data la
settorializzazione delle competenze scientifiche, l’unica possibile soluzione a una “vera
innovazione” sta nel dialogo e nella confluenza delle singole esperienze. La
pianificazione di un progetto di modellazione deve tener conto di questa realtà eterogenea
in cui in molti casi la committenza non conosce concretamente le potenzialità dei modelli
3D e soprattutto le difficoltà e i costi che sorgono per soddisfare particolari richieste. È
quindi solo attraverso il dialogo tra committente e team di modellazione che si possono
arginare richieste spesso sovradimensionate con conseguenti inutili sprechi di risorse
economiche e temporali per convergere piuttosto in un prodotto che sia realmente
innovativo, conveniente e utile. Nel caso di progetti di modellazione di vaste aree o
oggetti molto complessi è importante tener presente che nella gestione, visualizzazione e
analisi dei modelli 3D, possono essere richiesti potenti strumenti hardware e software che
il committente dovrebbe acquisire. Nel caso in cui ciò non sia possibile, il progetto deve
essere ridimensionato. Il dialogo non deve fermarsi alla sola pianificazione ma seguire
l’intero processo dei lavori perché, soprattutto in progetti di una certa entità, gli
imprevisti potrebbero costringere a ridimensionare le specifiche di progetto.
La pianificazione di un progetto di modellazione 3D inizia in genere con la definizione
di alcune linee guida che servono soprattutto ad avere un’idea sull’entità del progetto
quali dimensione e complessità dell’area/oggetto da modellare e quindi il numero di
persone necessarie per ottenere determinati risultati in un certo tempo.
La qualità metrica del dato spaziale è quella che fornisce innanzitutto informazioni circa
la strumentazione e le tecniche da utilizzare e quindi l’esperienza e le competenze
necessarie per garantirla. Ad esempio potrebbe essere richiesto un modello 3D di un bene
culturale per scopi divulgativi su internet: l’utente dall’interfaccia del browser WEB deve
poter principalmente ruotare e zoomare sull’oggetto osservandone principali forme e
dettagli geometrici oltre che apprezzarne la rappresentazione foto-realistica. L’affidabilità
delle misure, ovvero la possibilità che siano presenti degli errori grossolani, non è di
fondamentale importanza per questi scopi e un modello parzialmente errato non conduce
ad alcuna dannosa conseguenza nella pratica. Al contrario in un progetto di modellazione
-9-
Capitolo 1
Modellazione 3D inversa
per il reverse engineering in ambito navale, un’errata definizione delle forme della carena
di una imbarcazione oltre le tolleranze consentite nella progettazione di interventi di
modifica sullo scafo, potrebbe comportare problemi in fase di realizzazione delle stesse
modifiche, o addirittura la cattiva governabilità dell’unità navale durante la navigazione.
Nel primo caso un rilievo speditivo con tecniche automatiche può soddisfare in tempi
rapidi e costi molto contenuti i requisiti di divulgazione preposti; nel secondo caso la
calibrazione degli strumenti, il rilievo e l’elaborazione dei dati devono essere
attentamente controllati lungo l’intero flusso di lavoro per garantire i requisiti di
accuratezza e affidabilità tipici dei progetti ingegneristici.
Accuratezza e affidabilità sono parametri che guidano verso la scelta della tecnica da
utilizzare nella modellazione 3D, livello di dettaglio e estensione dell’area/oggetto da
rilevare forniscono invece indicazioni sul tempo necessario per la realizzazione del
progetto. In progetti di vasta estensione in cui è richiesto un elevato livello di dettaglio,
l’utilizzo di strumentazioni/tecniche di rilievo automatiche è consigliabile se non
addirittura necessario (accuratezza e affidabilità permettendo) considerato il fatto che i
tempi di consegna sono in genere molto stringenti. Se l’oggetto del rilievo risulta
particolarmente complesso (ostruzioni, zone dell’oggetto non facilmente accessibili,
oggetto in movimento) devono essere prese in considerazione l’utilizzo di più tecniche e
la loro integrazione,.
In molti casi è utile integrare ulteriori informazioni aggiuntive note a priori (CAD,
CAM, DTM, cartografia, disegni di progetto, ecc..) al fine di ottimizzare tempi e costi per
la generazione del modello 3D finale.
1.2.2 METODI DI RILIEVO PER LA MODELLAZIONE 3D
Un metodo di rilievo è un procedimento attraverso il quale applicando particolari
tecniche si determinano direttamente o indirettamente le grandezze di interesse.
In letteratura si è soliti suddividere i metodi di rilievo per la modellazione 3D in due
principali classi: per contatto e senza contatto. La differenza che sta alla base di tale
classificazione, come facilmente intuibile, è che i metodi per contatto necessitano di
un’interazione diretta con l’oggetto da rilevare il quale deve essere accessibile
fisicamente.
a) metodi per contatto. Appartengono a questa categoria tecniche che fanno uso di
strumenti e sistemi di misura diretta come i più antichi e tradizionali metri, squadre,
- 10 -
Capitolo 1
Modellazione 3D inversa
goniometri, calibro, micrometro così come strumenti più sofisticati quali i moderni
misuratori automatici e semiautomatici di coordinate (Coordinate Measuring Machine –
CMM). Nel primo caso si tratta di sistemi non usati nella pratica della modellazione e
l’affidabilità delle misure è interamente delegata all’esperienza e competenza
dell’operatore. Nel caso dei sistemi CMM, questi consentono misurazioni molto accurate
(sino a pochi micron) e sono soprattutto usati nell’ambito di applicazioni industriali come
i controlli di qualità lungo le catene di montaggio. L’architettura dei CMM è molto
variabile, spesso specificamente progettata in funzione degli oggetti da rilevare, ma il
modello più popolare è quello configurato come un coordinatometro a tre assi ortogonali.
L’ingombro e il peso di questi sistemi richiede la loro installazione in appositi laboratori
di metrologia, da cui la necessità che l’oggetto da rilevare sia trasportabile. In questi
strumenti l’operazione di misura consiste nel tastare la superficie dell’oggetto, un punto
alla volta, con una sonda collegata a un braccio (figura 1.2.1) i cui movimenti (traslazioni
e rotazioni) sono misurati in un sistema di riferimento cartesiano strumentale OXYZ. Il
vantaggio principale è che forniscono direttamente le coordinate dei punti Pi(Xi,Yi,Zi) con
un’elevata affidabilità sia perché le operazioni vengono eseguite sotto il controllo e la
supervisione di un operatore, sia perché ogni punto misurato appartiene all’oggetto
poiché la sonda entra in contatto con la sua superficie. I principali svantaggi dei CMM,
oltre alla staticità imposta dal peso e dall’ingombro, risiedono nella limitata dimensione
massima degli oggetti da rilevare (ad esempio relativa alla lunghezza del braccio
articolato o alla lunghezza del ponte) e al tempo necessario per misurare un numero
cospicuo di punti. Sono quindi strumenti poco versatili in ambito di modellazione 3D se
non per applicazioni industriali dove sono richieste poche misurazioni mirate ma
estremamente accurate e affidabili.
Figura 1.2.1 – Alcuni misuratori di coordinate per contatto. Sulla sinistra modello a ponte con tre assi
ortogonali, al centro modello con braccio articolato, e a destra modello specifico per le eliche.
- 11 -
Capitolo 1
Modellazione 3D inversa
b) Metodi senza contatto. A questa classe appartengono le tecnologie oggi più diffuse e
usate in ambito di modellazione 3D che fanno uso di sensori sia passivi che attivi quali
fotogrammetria, Synthetic Aperture Radar (SAR), SONAR, laser scanning, structured
light projectors. Il grande successo di tali tecnologie è ampiamente giustificato da
molteplici fattori che le caratterizzano come ad esempio la versatilità, la trasportabilità, i
costi e i tempi richiesti per la produzione del dato spaziale.
1.2.2.1 FOTOGRAMMETRIA
La fotogrammetria è la più antica delle tecniche di telerilevamento che permette
l’estrazione di informazioni metriche e semantiche di un oggetto a partire da una o più
fotografie in cui esso compare. Pone le basi sugli studi fatti già nel X sec d.C. da
astronomi arabi e da autorevoli uomini di scienza come Leonardo Da Vinci su un
semplice dispositivo, denominato camera oscura (l’antenato della moderna fotocamera),
che riproduceva il “fenomeno” delle proziezioni centrali, modello geometrico e
matematico sul quale si fonda la fotogrammetria.
Il metodo di determinazione delle coordinate 3D con la fotogrammetria deriva
direttamente dal sistema di visione binoculare dell’uomo basato sulla tecnica di
triangolazione per intersezione in avanti.
Come diretta riproduzione del sistema umano di percezione della tridimensionalità, la
fotogrammetria richiede almeno due fotografie di un oggetto scattate da punti di vista
differenti per poterne ricostruire le forme in 3D. Misurate in un opportuno sistema di
riferimento piano di coordinate immagine (retiniche nella visione umana) la posizione
della proiezione di un punto oggetto su almeno due immagini, la determinazione delle
coordinate nello spazio oggetto (reale) è possibile applicando semplici relazioni
geometriche.
- 12 -
Capitolo 1
Modellazione 3D inversa
Figura 1.2.2 – La camera oscura (a sinistra e in alto a destra): antenato delle più moderne fotocamera (in
basso a destra).
La fotogrammetria nasce insieme alla fotografia e si evolve parallelamente con essa;
con l’avvento della tecnologia digitale ha conosciuto e sta conoscendo una nuova
rinascita dovuta soprattutto all’eliminazione del processo di sviluppo e stampa fotografici
e alla potenzialità fornite dagli ultimi strumenti software che rendono obsoleti
costosissimi strumenti opto-elettro-meccanici di misura sulle immagini e che consentono
di utilizzare camere fotografiche digitali amatoriali, e quindi di basso costo, anche per
misurazioni di elevata precisione. A questo si unisce la grande versatilità della tecnica
dovuta alla estrema trasportabilità dei sistemi fotografici, sempre più piccoli e leggeri, su
piattaforme di diverso tipo: satelliti, aeroplani, aeromodelli UAV, in immersione
subacquea oltre ovviamente alla possibilità di essere tenuti in mano durante le campagne
di rilievo in fotogrammetria terrestre (Fig. 1.2.4). Una camera fotografica può essere
utilizzata per rilievi di oggetti di differenti dimensioni e l’accuratezza delle misure
effettuate è soprattutto funzione del rapporto di scala immagine, un rapporto di riduzione
derivante dall’obbiettivo montato e dalla distanza della fotocamera dall’oggetto. Il
contenuto semantico delle immagini fotografiche è un altro grande vantaggio che questa
tecnica possiede rispetto ad altre; una immagine fotografica è un contenitore di
innumerevoli informazioni sull’oggetto, registrate al momento dello scatto, che possono
- 13 -
Capitolo 1
Modellazione 3D inversa
essere utilizzate per successive analisi multitemporali sia descrittive (fotointerpretazione)
che metriche. La fotogrammetria è largamente usata in tutti i settori della modellazione
3D: dalla modellazione di oggetti regolari a quelli dalle forme più complesse, in settori
dove non è richiesta una precisione molto spinta come in progetti di visualizzazione sino
al monitoraggio delle deformazioni in ambito aeronautico. Il principale svantaggio di
questa tecnica risiede nel fatto che usa un sensore fotosensibile e quindi passivo (fonte di
energia elettromagnetica esterna allo strumento), molto influenzato dalle condizioni di
illuminazione dell’oggetto. Una diretta evoluzione della fotogrammetria è la
videogrammetria che usa delle videocamere in sostituzione delle fotocamera in modo da
poter analizzare metricamente fenomeni dinamici grazie a una elevata frequenza di
acquisizione (maggiore di 1000 fotogrammi al secondo) (Fig. 1.2.3).
Figura 1.2.3 – Esempi di campi applicativi per la videogrammetria:
motion analisys (sinistra) e crash test (destra)
- 14 -
Capitolo 1
Modellazione 3D inversa
600-800 km
Satellite
Aereo
Elicottero, Mongolfiera
Aeromodelli, UAV
Tenuta in mano,
Fotogrammetria
terrestre
Tenuta in mano,
Fotogrammetria
subacquea
<- 1000 m
ROV
Figura 1.2.4 – Piattaforme per l’installazione dei sensori fotografici.
- 15 -
Capitolo 1
Modellazione 3D inversa
1.2.2.2 S.A.R.
Il Synthetic Aperture Radar (SAR) è una tecnica radar nella quale un’antenna rotante
altamente direzionale (e quindi molto grande) usata nella tecnica radar convenzionale (ad
apertura reale) viene sintetizzata da una serie di impulsi trasmessi da un’antenna a bassa
direzionalità (e quindi più piccola). Come principio di base i radar effettuano misure
monodimensionali: la distanza tra il radar e il target di interesse. Un radar montato su una
piattaforma mobile può fornire misure bidimensionali sulla posizione degli oggetti.
Misure tridimensionali sono possibili con tecniche di interferometria tra due immagini
radar acquisite lungo differenti traiettorie. Il SAR è una tecnica di rilievo attiva e come
tale non è influenzata dall’illuminazione dell’oggetto essendo essa stessa fonte
dell’energia elettromagnetica rilevata. I sensori radar emettono e rilevano onde
elettromagnetiche nella regione delle microonde la cui lunghezza d’onda è capace di
penetrare lo strato di copertura nuvolosa e altre particelle atmosferiche fornendo così un
vantaggio notevole rispetto alle altre tecniche che usano sensori ottici (a esempio la
fotogrammetria). La tecnica SAR si basa su principi fisico-matematici molto complessi
che richiedono particolari procedure di elaborazione delegate ad enti e centri di ricerca
internazionali specializzati. E’ usata in ambito di modellazione del territorio (landscape
modelling) nella generazione dei Digital Terrain Model DTM: un progetto imponente e
molto popolare basato sull’utilizzo di questa tecnica è quello denominato Shuttle Radar
Topography Mission (SRTM) che in un volo orbitale di undici giorni della navicella
spaziale Shuttle ha registrato dati per generare un DTM dell’intero globo [Farr et al.,
2006] con una risoluzione di un secondo d’arco e un’accuratezza nella media inferiore ai
5 metri in quota (Fig. 1.2.5). I DTM dell’intero globo sono pubblicati on line e scaricabili
liberamente dal sito della NASA (http://www2.jpl.nasa.gov/srtm/).
- 16 -
Capitolo 1
Modellazione 3D inversa
Figura 1.2.5 – Tipiche piattaforme aeree per l’uso della tecnica SAR (sinistra e centro) e un DTM
generato mediante interferometria SAR (destra).
1.2.2.3 SONAR
Il sonar, acronimo di Sound Navigation and Ranging è una tecnica di rilievo attiva che
usa la propagazione del suono (generalmente in acqua) per navigare, comunicare e
rilevare la batimetria del fondo marino, di laghi e fiumi. Il sonar è costituito da un
emettitore di impulsi sonori e da un trasduttore che li riceve. La distanza tra il sonar e gli
oggetti è misurata in funzione del tempo intercorso tra l’emissione dell’impulso sonoro e
il suo ritorno al ricevitore, nota la velocità del suono in acqua (funzione di diverse
variabili quali temperatura, profondità e salinità medi). Gli ecoscandagli che usano più
coppie di emettitori/trasduttori, chiamati multi-beam, consentono di generare modelli 3D
molto dettagliati del fondo marino (Fig. 1.2.6) in maniera molto rapida. L’accuratezza di
questi sistemi nella determinazione della profondità è in genere nell’ordine dei centimetri.
- 17 -
Capitolo 1
Modellazione 3D inversa
Figura 1.2.6 – Modelli 3D batimetrici generati con tecniche multibeam.
1.2.2.4 LASER SCANNING
Il laser scanner è un sensore misuratore attivo di tipo opto-elettro-meccanico che opera
generalmente nella banda dell’infrarosso vicino. Esistono due tipologie di laser scanner:
distanziometrici e triangolatori. Entrambi illuminano l’oggetto usando un raggio laser
opportunamente direzionato da dispositivi meccanici di precisione. Gli scanner
distanziometrici determinano le coordinate 3D dell’oggetto mediante coordinate polari (lo
strumento misura distanza e angoli), gli scanner triangolatori per intersezione semplice in
avanti (lo strumento misura solo angoli, nota la misura della base). I laser a scansione
sono strumenti automatici: l’utente deve soltanto impostare la finestra e il passo con cui
campionare la superficie dell’oggetto. Gli scanner distanziometrici sono strumenti
specificamente progettati per il rilievo di vaste aree di territorio e per l’architettura e si
suddividono in laser scanner terrestri (Terrestrial Laser Scanner, TLS) (Fig. 1.2.7,
centro) e laser scanner aerei (Airborne Laser Scanner, ALS) (Fig. 1.2.7, sinistra).
L’accuratezza delle misure, nel caso dei TLS varia da pochi millimetri per oggetti poco
distanti dallo strumento (circa dieci metri) a qualche centimetro per oggetti al limite della
gittata (anche più di 1500 metri). Nel caso degli ALS l’accuratezza è soprattutto funzione
degli strumenti di posizionamento del vettore aereo e sono in genere dell’ordine dei dieci,
venti centimetri in quota, leggermente migliore in planimetria.
I laser triangolatori sono usati per oggetti di piccole dimensioni dal momento che per il
principio di intersezione in avanti l’accuratezza delle misure degrada con il quadrato della
distanza dallo strumento. All’interno della portata gli scanner triangolatori consentono
misure molto accurate, anche dell’ordine di poche decine di micron, motivo per il quale
- 18 -
Capitolo 1
Modellazione 3D inversa
sono largamente usati per la modellazione meccanica in ambito industriale. Uno dei
principali svantaggi dei laser triangolatori è che sono influenzati dalle condizioni di
illuminazione essendo sistemi ibridi in cui il raggio laser è captato da un sensore
fotosensibile CCD/CMOS: superfici metalliche lucide, luce ambientale troppo forte sono
parametri da considerare attentamente in fase di rilievo.
I structured light projectors (Fig. 1.2.7, destra), sono dei sistemi di rilievo attivi simili ai
laser scanner triangolatori dai quali ereditano vantaggi e svantaggi. All’emettitore laser si
sostituisce un proiettore mentre il raggio laser (punto o linea) viene sostituito da bande
luminose codificate; la configurazione proiettore-fotocamera rende questi strumenti
molto più simili a un sistema fotogrammetrico stereoscopico.
Laser scanner e structured light projectors sono gli strumenti più usati in ambito di
modellazione 3D. La grande velocità di acquisizione (anche 500k punti al secondo per i
TLS, 200k punti al secondo per gli ALS) e la semplicità d’uso li ha resi molto popolari
negli ultimi anni. Il vantaggio principale è che questi strumenti forniscono direttamente le
coordinate 3D della superficie scansionata, il principale svantaggio è che i costi sono
ancora di gran lunga superiori ad altre tecniche in grado di fornire gli stessi risultati come
ad esempio la fotogrammetria. La grande rapidità di acquisizione comporta una mole
notevole di dati, con tempi di elaborazioni e costi per ulteriori strumenti hardware e
software che non sono trascurabili. Inoltre questi strumenti, nella loro configurazione
base, non forniscono informazioni semantiche sull’oggetto, ma solo la sua geometria,
richiedendo così l’integrazione con un sistema di acquisizione fotogrammetrico (molti
modelli iniziano a integrare una fotocamera calibrata nello strumento).
Figura 1.2.7 – Sistemi a scansione. Laser scanner aereo (sinistra), laser scanner terrestre distanziometrico
(centro), scanner triangolatore a luce strutturata.
- 19 -
Capitolo 1
Modellazione 3D inversa
La classificazione dei metodi di rilievo con o senza contatto, riportata nei sottoparagrafi
precedenti, assieme agli strumenti utilizzati nell’ambito di questi metodi, non deve essere
ritenuta rigida, a compartimenti stagni; molti strumenti con il passare degli anni si
evolvono divenendo dei “sistemi” ibridi anche mantenendo lo stesso nome. Strumenti
come i CMM, che effettuano misure tipicamente per contatto possono oggi integrare una
sonda con laser scanner triangolatore in sostituzione della sonda con tastatore. Allo stesso
modo le total station, strumenti concepiti per misure senza contatto (sono come i TLS
distanziometrici ma hanno un cannocchiale per la collimazione dei punti, in genere
effettuata manualmente) possono essere usati anche con particolari prismi tastatori (in
ambito industriale) divenendo strumenti per misure con contatto.
Molte tecniche di rilievo sopra elencate presentano peculiarità tali da risultare idonee
solo per specifiche applicazioni di modellazione 3D dove talvolta costituiscono anche
l’unica soluzione possibile (per esempio il sonar per la batimetria). Vi sono invece molti
ambiti dove tecniche differenti possono condurre a risultati equivalenti ma con costi e
tempi molto diversi tra loro. Benché non esista oggi una tecnica eleggibile come
l’optimum in termini di rapidità di acquisizione del dato spaziale, tempo di elaborazione,
costi, accuratezza, affidabilità vi sono alcune tecniche che si distinguono dalle altre per la
loro capacità di riuscire ad adattarsi alla modellazione in campi applicativi anche molto
eterogenei. Questa capacità, definibile come flessibilità o versatilità è propria di tecniche
come la fotogrammetria, in assoluto la più flessibile e produttiva (alto contenuto di
informazioni geometriche e semantiche, economica, informazioni accessibili e rielaborabili in qualsiasi istante) e di alcune tipologie di laser scanner i quali hanno dalla
loro parte soprattutto rapidità d’acquisizione e semplicità d’uso (forniscono direttamente
le coordinate 3D della zona scansionata). Per tale motivo la ricerca negli ultimi anni si sta
concentrando sulle tecniche fotogrammetrica e per scansione con sensori attivi (laser
scanner, structured light projectors) suddividendo la modellazione 3D inversa in tecniche:
•
image based (fotogrammetria);
•
range based (sensori attivi).
Queste tecniche singolarmente possono soddisfare la quasi totalità di richieste di
modellazione 3D ma è la loro integrazione che sta dimostrando enormi potenzialità
compensando reciprocamente gli svantaggi che ognuna possiede in ambiti specifici.
- 20 -
Capitolo 1
Modellazione 3D inversa
1.2.3 STRATEGIA DI RILIEVO: LA SCELTA DELLA TECNICA
“In ambito scientifico e tecnico-progettuale, per modello si intende genericamente una
rappresentazione di un oggetto o di un fenomeno reale, rappresentazione che riproduce
caratteristiche o comportamenti ritenuti fondamentali per il tipo di ricerca che si sta
svolgendo”. Il problema della modellazione 3D di un oggetto reale, come già accennato
nell’introduzione di questo capitolo, è ben definibile se e solo se si stabilisce un livello di
astrazione mediante il quale la semplificazione dell’oggetto, con opportune primitive
geometriche, può soddisfare gli scopi preposti. Definito il livello di semplificazione nella
modellazione 3D, gli oggetti reali possono essere suddivisi in:
•
oggetti dalle forme definibili matematicamente (per esempio parallelepipedo,
cilindro, cono, toro);
•
oggetti dalle forme non definibili matematicamente.
Al primo caso appartengono soprattutto oggetti antropici dalle forme regolari o una loro
composizione (meccanica, architettura) mentre al secondo caso appartengono soprattutto
oggetti naturali (morfologia del territorio, corpo umano, beni culturali). In genere
l’approccio di rilievo usato per la modellazione 3D di oggetti dalle forme
matematicamente definibili e note a priori consiste nel determinare le coordinate
tridimensionali di un numero di punti sufficiente a definirne la geometria (ad esempio
operando con misure manuali come con CMM in modellazione meccanica) mentre nella
modellazione di oggetti dalle forme non matematicamente definibili si preferisce
campionare in modo regolare la superficie dell’oggetto (ad esempio usando tecniche
automatiche per scansione). Nel secondo caso dal rilievo si otterrà un seminato di punti
(nuvola di punti, point cloud) più o meno denso in funzione del passo di campionamento
scelto. La nuvola di punti così ottenuta costituisce il dato spaziale di riferimento
(misurato) utile per successive elaborazioni, mentre ulteriori punti intermedi possono
essere stimati con tecniche di approssimazione/interpolazione locale o globale.
In molti casi è possibile che nello stesso progetto di modellazione siano presenti
entrambe le classi di oggetti, per cui in fase di pianificazione del rilievo bisognerebbe
considerare la possibilità di usare un approccio integrato tra tecniche manuali e
automatiche per velocizzare il rilievo e l’elaborazione. E’ il caso, ad esempio, della
modellazione di siti archeologici o di interesse nel settore dei beni culturali per la
creazione di musei virtuali o come database 3D di supporto alla pianificazione di
interventi di conservazione e restauro [Guidi et al., 2008, El-Hakim et al., 2007, Gruen et
- 21 -
Capitolo 1
Modellazione 3D inversa
al., 2004] dove si utilizzano sia tecniche automatiche per scansione nella modellazione di
fregi, statue, volte che tecniche di restituzione fotogrammetrica manuale nella
modellazione di strutture murarie regolari.
E’ bene sottolineare, qualora sia possibile conseguire risultati equivalenti in un progetto
di modellazione 3D inversa utilizzando più tecniche, che la scelta di una tecnica di rilievo
rispetto ad un’altra non è sempre vincolante. Per fare un esempio, un edificio
approssimabile a un prisma retto a base quadrangolare si riesce a modellare molto più
rapidamente e facilmente con tecniche di fotogrammetria terrestre (pochi minuti per
eseguire gli scatti fotografici e fornire il modello finale) che laser scanning terrestre ma
ciò non significa che non sia possibile comunque soddisfare le richieste utilizzando
quest’ultima tecnica.
Si sottolinea che la generazione del dato spaziale passa attraverso le fasi di rilievo ed
elaborazione, e molto spesso un maggior tempo d’acquisizione con una specifica tecnica
viene compensato da un minor tempo di elaborazione e viceversa.
L’importanza della ricerca nel settore delle tecniche image-based e range-based sta
proprio nel fornire delle soluzioni ai problemi citati al fine di potenziare le possibilità
offerte da queste tecnologie. E’ noto per esempio che i sensori attivi per scansione
consentono di misurare molto più rapidamente e agevolmente dense nuvole di punti
rispetto a tecniche passive come la fotogrammetria. Negli ultimi anni però sono stati
sviluppati diversi software commerciali (anche di basso costo) e di ricerca che
consentono di generare in maniera altrettanto densa e accurata nuvole di punti mediante
algoritmi di image matching [Remondino e Menna, 2008]. La scelta della tecnica è quindi
funzione di tante variabili che devono essere ben definite in fase di pianificazione del
progetto di modellazione.
Uno schema generale su come operare nella modellazione 3D è mostrato nella figura
1.2.8.
- 22 -
Capitolo 1
Modellazione 3D inversa
Oggetto reale
Informazioni a
priori, vincoli
Requisiti del
modello 3D
Astrazione/
Semplificazione
SI
Geometria
definibile?
NO
Rilievo per
campionamento
(point cloud)
Rilievo per punti
salienti
(interest point)
Elaborazione
Dati
spaziali
Figura 1.2.8– Diagramma di flusso nella scelta della tecnica di rilievo.
1.2.5 STRUTTURAZIONE DEL DATO SPAZIALE
La modellazione tridimensionale inversa può essere considerata come la naturale
evoluzione del rilievo e della rappresentazione bidimensionale da cui ha ereditato alcuni
concetti e problematiche come quello sulla semplificazione descritto nel paragrafo 1.2.4.
Nell’era della rappresentazione su supporto cartaceo esistevano dei limiti circa la quantità
di informazioni che potevano essere disegnate sul foglio, funzione sia dell’acuità visiva
dell’occhio umano (distinguere distintamente e agevolmente due entità geometriche
elementari vicine tra loro) sia percettiva (un numero eccessivo di informazioni codificate
rende poco leggibile il disegno). Inoltre l’uso per scopi tecnici di una rappresentazione su
carta tuttora richiede che questa sia facilmente leggibile nelle più comuni situazioni di
illuminazione e quindi con linee ben contrastate e di un certo spessore. Lo spessore delle
linee e la limitata acuità visiva comportano inevitabilmente degli errori nelle operazioni
di misura su carta (con un semplice righello per esempio). Questo errore viene definito in
- 23 -
Capitolo 1
Modellazione 3D inversa
cartografia errore di graficismo, ed è stabilito empiricamente essere pari a 0.2 ÷ 0.3
millimetri. Su una carta in scala 1:1000 non si potranno distinguere oggetti che nella
realtà distano meno di 20 ÷ 30 centimetri e quindi, in funzione di tale tolleranza vengono
scelte tecnica di rilievo e di elaborazione del dato spaziale. Per una data scala di
rappresentazione viene quindi definito implicitamente un livello di astrazione,
semplificazione e accuratezza che deve essere considerato sin dalla fase di rilievo.
Con l’introduzione dei computer, e quindi del CAD nel mondo della rappresentazione, i
concetti di scala ed errore di graficismo sarebbero teoricamente obsoleti dal momento che
non esiste un disegno reale ma soltanto relazioni topologiche tra coordinate cartesiane (in
un file di cartografia numerica ci sono istruzioni di disegno del tipo “unisci il punto A di
coordinate (XA,YA,ZA) con il punto B di coordinate (XB,YB,ZB) con una linea”). Nella realtà
questi concetti sono ancora molto radicati e quindi tuttora di uso comune.
Mentre le rappresentazioni vettoriali bidimensionali (CAD) hanno ereditato un notevole
bagaglio di definizioni e procedure dal disegno su carta, il mondo dei modelli 3D è quasi
privo di una “guida” e non esistono delle regole di rappresentazione, né dei veri e propri
standard. In alcuni casi, a esempio in architettura, sarebbe possibile estendere il concetto
di scala di rappresentazione ed errore di graficismo dal 2D al 3D intendendo in questo
modo che il modello tridimensionale, visto secondo piante e prospetti, debba possedere lo
stesso contenuto qualitativo e quantitativo di informazioni delle rappresentazioni
bidimensionali cartacee. Il problema comunque rimane ancora abbastanza aperto; nel
settore cartografico, il livello di dettaglio e l’accuratezza dei modelli digitali del terreno
sono funzione della scala di rappresentazione, in modellazione meccanica questi
dipendono, in funzione dei singoli casi, direttamente dalle tolleranze richieste
nell’accoppiamento delle parti meccaniche mentre nel settore dei beni culturali (carta di
Londra 2008) sono ancora in fase di discussione.
L’uso di una scala di rappresentazione definisce quindi un livello di approssimazione
che semplifica gli oggetti reali nella quantità tale da soddisfare comunque i requisiti
richiesti. La scelta di un metodo, e conseguentemente di una o più tecniche di rilievo,
porta alla produzione del dato spaziale comunemente nella forma di una serie di
coordinate tridimensionali di punti. Sia che si tratti di punti salienti (punti d’interesse,
interest point) rilevati sull’oggetto, sia che si tratti di una nuvola di punti, la generazione
del modello tridimensionale deve passare attraverso una fase di definizione delle relazioni
topologiche, di strutturazione della geometria dell’oggetto.
- 24 -
Capitolo 1
Modellazione 3D inversa
Nel caso di rilievo di “punti salienti”, a seconda delle applicazioni, è l’esperienza
dell’operatore già all’atto della misurazione (a esempio per collimazione su
stereorestitutore fotogrammetrico oppure con strumenti topografici) che consente di
definire le relazioni tra punti (per esempio un edificio semplificato come un solido a sei
facce di cui ne ha rilevato gli otto vertici). In questo caso i punti sono in genere uniti a
coppie da linee formando un modello tipo wireframe (Fig. 1.2.9) che può essere “vestito”
successivamente con delle superfici (in genere porzioni poligonali di piano) a formare un
modello tipo shaded.
Nel caso di rilievo per nuvola di punti (campionamento) la ricerca delle relazioni
topologiche è più complessa e dipende fortemente dal passo di campionamento. In genere
la misurazione di nuvole di punti dense avviene con strumentazione automatica tipo laser
scanning o particolari algoritmi di ricerca automatica delle corrispondenze sulle immagini
in fotogrammetria digitale (image matching, paragrafo 2.5 del capitolo 2); l’automatismo
non consente di controllare direttamente le operazioni di misura, di conseguenza una
nuvola di punti rilevata con queste tecniche non è pronta per le operazioni di
strutturazione geometrica perché al suo interno vi sono errori e punti misurati su corpi
che ostruiscono l’oggetto del rilievo (alberi, strutture di sostegno, ecc.). La nuvola di
punti deve quindi essere “ripulita” da punti non d’interesse e corretta dagli errori di
misura attraverso delle operazioni di elaborazione denominate editing e filtraggio. Una
volta editata e filtrata la nuvola di punti, il modo più semplice e versatile per strutturare i
dati spaziali consiste nell’unire i punti (usando criteri specifici) a due a due con linee in
modo da formare dei triangoli (porzioni di piano anche se si potrebbero utilizzare
superfici di diverso ordine), operazione denominata triangolazione (Fig. 1.2.10).
La superficie reale è quindi in questo modo approssimata da triangoli nel suo modello
3D. Il massimo scostamento tra la superficie reale e i triangoli (errore di
approssimazione) deve essere tale da rispettare i requisiti del progetto. Data la grande
quantità di dati prodotta dalle tecniche di rilievo automatiche (non è difficile, in grandi
progetti, trovarsi a gestire più di un miliardo di punti) la definizione delle relazioni
topologiche (linee nel caso di triangolazione) non può avvenire manualmente da cui è
evidente la necessità di sfruttare la potenza dell’automazione dei computer mediante
software e algoritmi specifici.
- 25 -
Capitolo 1
Modellazione 3D inversa
a)
b)
c)
d)
Figura 1.2.9 – Modellazione fotogrammetrica manuale per punti salienti. a) visualizzazione dei punti
misurati; b) visualizzazione wireframe delle relazioni topologiche tra i punti; c) visualizzazione
shaded delle superfici; d) visualizzazione delle superfici con applicazione delle textures.
- 26 -
Capitolo 1
Modellazione 3D inversa
Figura 1.2.10 – Esempio di triangolazione di punti 3D generati con tecniche di image-matching.
In altri casi come per esempio in modellazione meccanica, sia che si tratti di nuvola di
punti che “punti salienti”, si definiscono direttamente delle superfici che meglio
approssimano i dati rilevati (piani, cilindri, coni e altri solidi parametrici).
1.2.6 MODELLI 3D FOTO-REALISTICI
La strutturazione dei dati, descritta nel paragrafo precedente, consente di definire la
geometria dell’oggetto ma non fornisce informazioni semantiche e qualitative su di esso.
Un alto livello di dettaglio (LoD – Level of Detail) unito a strumenti di visualizzazione
avanzati può fornire certamente informazioni anche descrittive sull’oggetto ma è
- 27 -
Capitolo 1
Modellazione 3D inversa
sicuramente l’integrazione di informazioni fotografiche al dato spaziale che assicura il
massimo contenuto di informazioni con un minimo dispendio di risorse computazionali
[Guidi et al., 2008]. In molti casi infatti, se i requisiti di progetto lo consentono, la sola
aggiunta di una texture a un modello 3D con LoD basso (Fig. 1.2.11) può fornire un
maggior contenuto di informazioni rispetto ad un modello ad elevato LoD che ne è
sprovvisto e che richiederebbe inoltre una maggiore potenza di calcolo nella gestione e
nell’analisi.
Figura 1.2.11 – Modello digitale 3D del terreno con edifici. In alto visualizzazione della sola geometria
del sito, in basso dopo l’operazione di texture mapping. E’ evidente il notevole incremento di
informazioni aggiunte con la sovraimposizione dell’immagine fotografica senza la quale i muri di
contenimento e la strada sottostante sarebbero appena riconoscibili.
- 28 -
Capitolo 1
Modellazione 3D inversa
La serie di operazioni che consentono di associare informazioni qualitative fotografiche
(ma anche provenienti da altre fonti come per esempio sensori termici) al dato spaziale
tridimensionale è definito texture mapping (si veda anche il paragrafo 2.6).
Il texture mapping trova analogie nella rappresentazione bidimensionale in cartografia e
in architettura nelle ortofotocarte e nei fotopiani dove, invece di codificare con opportune
campiture aree a contenuto qualitativo specifico (per esempio campo coltivato in
cartografia), si delega la lettura delle informazioni d’interesse all’utente mediante
fotointerpretazione.
1.2.7 ANALISI SPAZIALE
Una delle più grandi potenzialità dei modelli 3D è la possibilità di effettuare analisi
spaziali avanzate in maniera agevole: il calcolo del volume, dell’area della superficie, la
generazione di sezioni e profili così come l’analisi di deformazioni sono operazioni molto
semplici oramai implementate nei più comuni software che utilizzano modelli 3D.
Le principali funzioni di analisi spaziale possono essere così suddivise:
•
misura parametri geometrici elementari: sono funzioni per la misura dell’area
della superficie, del volume e delle inclinazioni delle normali del modello 3D o di
sue parti. Nel caso del calcolo del volume, si tratta di una funzione molto utile
quando a partire dai parametri geometrici fondamentali è possibile determinarne
altri derivati come per esempio la massa del modello 3D. Questa funzione è molto
usata nel settore delle costruzioni per valutare il volume di terrapieni o nei
dissesti idrogeologici quando si vuole conoscere la quantità di materiale franato
o ancora quando si vuole monitorare l’attività estrattiva nelle cave a cielo aperto.
Analogamente in ambito progettuale nello stesso modo si stima la massa di
elementi costruttivi come per esempio sezioni prefabbricate in metallo per la
realizzazione di ponti, navi, ecc.. Nell’ambito delle discipline per lo studio e la
gestione del territorio a partire dai modelli 3D del terreno è possibile generare
delle mappe di pendenza calcolando l’inclinazione della normale alla superficie
rispetto alla verticale. Sono utili soprattutto negli studi idrogeologici per
individuare zone particolarmente a rischio di frane o valanghe. Integrando la
mappa delle pendenze con semplici calcoli astronomici sulla posizione del sole è
possibile derivare la mappa di esposizione solare dei terreni, utile nel settore
agrario per l’individuazione di zone particolarmente adatte alla coltivazione di
- 29 -
Capitolo 1
Modellazione 3D inversa
determinati prodotti agricoli (nel campo della viticoltura ad esempio, è
fondamentale la conoscenza dei valori d’esposizione).
•
confronto tra modelli 3D: nelle filiere di produzione industriale sono presenti
diversi passaggi di controllo della conformità del prodotto rispetto al suo disegno
di progetto. Il prodotto realizzato viene in genere scansionato con un elevato LoD
e la nuvola di punti così misurata messa a confronto con il modello 3D di progetto
ad esempio misurando le distanze euclidee tra i singoli punti e la superficie del
modello 3D di progetto. Ulteriori esempi di analisi per il controllo di qualità sono
analisi di simmetria di una carena (capitolo 6) e la misura delle deformazioni
statiche e dinamiche (videogrammetria); in ambito degli studi di urbanistica è
possibile monitorare attraverso un analisi multitemporale i cambiamenti subiti
dall’edificato attraverso operazioni di change detection.
•
analisi di visibilità: tale funzione consiste nel valutare la visibilità di un punto B
da un altro punto A. Sono molto usati in ambito urbanistico per verificare la
visibilità di un punto panoramico al fine di evitare la costruzione di elementi di
disturbo visivo, oppure nelle telecomunicazioni per studiare la copertura di
un’antenna (in Italia molte aziende che operano nel settore della telefonia mobile
si servono di tali funzioni). Un esempio di studi sull’analisi di visibilità da parte di
antenne di ricevitori satellitari GPS in ambito urbano densamente edificato sono
presenti in [Lohani e Kumar, 2007].
•
sezionamento: la generazione di profili e sezioni è molto usata soprattutto nella
costruzione di linee ferroviarie, strade, acquedotti, funivie, ecc.. un modello
digitale tridimensionale consente di generare in maniera agevole un numero
indefinito di profili altimetrici e quindi la possibilità di individuare quello ottimale.
•
progettazione e simulazione: i modelli 3D possono essere importati in ambienti
software di progettazione, simulazione e analisi per applicazioni specifiche come
per esempio quelli di analisi aerodinamica, aeroacustica, termica e idrodinamica
(analisi di stabilità di corpi galleggianti come per esempio un modello di carena di
un’imbarcazione o simulazione di risposta della nave al moto ondoso ) o
nell’ambito dei simulatori di volo, robotica ecc..
- 30 -
Capitolo 1
Modellazione 3D inversa
1.3 APPLICAZIONI DELLA MODELLAZIONE 3D INVERSA
Il settore della modellazione 3D inversa è sempre in continua espansione ed è difficile
fare un elenco completo di tutti i campi in cui questa trova applicazione. Le tecnologie
oggi disponibili consentono praticamente la misurazione tridimensionale accurata di
qualsiasi oggetto (in particolar modo con la fotogrammetria). Nei prossimi paragrafi
vengono mostrate alcune aree in cui la modellazione 3D riscuote un notevole interesse e
per ciascuna di esse vengono mostrate alcune tabelle riassuntive degli scopi e delle
tecniche usate.
1.3.1 CARTOGRAFIA E STUDIO DEL TERRITORIO
PRODOTTI E SCOPI DELLA
STRATEGIA DI
METODI E TECNICHE DI
MODELLAZIONE 3D
MODELLAZIONE
RILIEVO
Point Cloud e
Ortofoto di precisione:
documentazione e pianificazione
urbanistica, controllo abusivismo edilizio,
studio di piani di evacuazione ecc.
Interest Point per la
modellazione degli
Fotogrammetria aerea
edifici e per linee di
rottura con forte salto
altimetrico
Laser scanning aereo e
(breaklines) come
fotogrammetria aerea
scarpate, strapiombi.
Modellazione edificato urbano, city
modelling:
documentazione e pianificazione urbanistica,
piani di evacuazione, carte di rischio
idrogeologico (funzione dei danni a persone
e cose), analisi di copertura antenne per le
telecomunicazioni, analisi di visibilità dei
satelliti GPS, realtà virtuale, videogames,
ecc.
Point Cloud e
Interest Point per la
Fotogrammetria aerea
(+ terrestre)
modellazione degli
edifici e per linee di
Laser scanning aereo
rottura con forte salto
(+ terrestre) e
altimetrico
fotogrammetria aerea (+
(breaklines) come
terrestre)
scarpate, strapiombi.
- 31 -
Capitolo 1
Modellazione 3D inversa
Fotogrammetria aerea
Progettazione viabilità e servizi:
costruzione strade, ferrovie, elettrodotti,
tunnel, catasto strade, ecc.
a grande scala
Point Cloud e/o
Laser scanning da elicottero
Interest Point
Laser scanning terrestre
Topografia, DGPS
Landscape Modelling:
SAR
studio morfologia di vaste aree di territorio
per l’analisi di fenomeni macroscopici (per
esempio fenomeni meteorologici,
Point cloud
Fotogrammetria Satellitare
idrologici), simulatori di volo, realtà
Fotogrammetria aerea
virtuale, ecc.
a piccola scala
Batimetria:
Ecoscandaglio, Multibeam
isoipse batimetriche (carte nautiche), studio
Point cloud
correnti e moto ondoso, erosione costiera
Laser scanning batimetrico
ecc..
(bassi fondali)
Fotogrammetria aerea
Studi di geotecnica e idrogeologici:
analisi di stabilità pendii, erosione costiera,
frane, smottamenti, valanghe, piani di
evacuazione, carte di rischio idrogeologico
a grande scala
Point cloud e
Interest Point
(funzione dei danni a persone e cose)
Laser scanning aereo
Laser scanning terrestre
- 32 -
Capitolo 1
Modellazione 3D inversa
1.3.2 ARCHITETTURA E BENI CULTURALI
PRODOTTI E SCOPI DELLA
STRATEGIA DI
METODI E TECNICHE DI
MODELLAZIONE 3D
MODELLAZIONE
RILIEVO
Fotogrammetria aerea a
Ortofoto di precisione:
Point Cloud e
grandissima scala (UAV,
documentazione siti e scavi archeologici,
Interest Point per la
mongolfiera)
pianificazione interventi di conservazione e
modellazione di
restauro di edifici storici, ecc.
aggetti, opere
murarie, ecc.
Laser scanning terrestre
Fotogrammetria terrestre
“Calco digitale”:
Fotogrammetria terrestre
replica fisica reperti e statue (beni culturali
danneggiati o perduti), documentazione ad
Point Cloud
alto LoD per la pianificazione di interventi
Laser scanning
di conservazione e restauro, musei virtuali,
(o structured light projectors)
didattica ecc.
GIS archeologico 3D:
documentazione multi-scala per lo studio e
l’analisi di siti e scavi archeologici (dal
modello digitale del terreno georeferenziato
passando per le opere murarie sino ai reperti
più piccoli), pianificazione conservazione,
Fotogrammetria aerea
Point Cloud e/o
Interest Point in
funzione del livello di
realtà virtuale, musei virtuali, didattica,
cinematografia
Laser scanning terrestre
dettaglio richiesto
Topografia, GPS
musei virtuali, didattica
Divulgazione:
Fotogrammetria terrestre
Point Cloud e/o
Interest Point in
funzione del livello di
dettaglio richiesto
- 33 -
Fotogrammetria aerea
Fotogrammetria terrestre
Laser scanning terrestre
Capitolo 1
Modellazione 3D inversa
1.3.3 INDUSTRIA AUTOMOBILISTICA, AERONAUTICA E NAVALE
PRODOTTI E SCOPI DELLA
STRATEGIA DI
METODI E TECNICHE DI
MODELLAZIONE 3D
MODELLAZIONE
RILIEVO
Controllo di qualità e test:
Laser scanning terrestre
analisi di conformità al modello 3D di
progetto, analisi metrologica durante i test
(per esempio torsione di un telaio di
un’automobile), simulazioni, robot
(o structured light projectors)
Point Cloud e/o
Interest Point
Fotogrammetria terrestre
navigation, crash test ecc.
Videogrammetria
Reverse engineering:
Fotogrammetria terrestre
prototipazione,
ricostruzione del disegno di progetto,
Point Cloud e/o
progettazione di interventi di modifica di
Interest Point
Laser scanning terrestre
(o structured light projectors)
opere ingegneristiche esistenti (aggiunta di
controcarene auna nave)
1.3.4 MEDICINA
PRODOTTI E SCOPI DELLA
STRATEGIA DI
METODI E TECNICHE DI
MODELLAZIONE 3D
MODELLAZIONE
RILIEVO
Laser scanning terrestre
Ortopedia:
analisi movimenti corporei,
studio deformazioni ossa e deformazioni
spinali, studio postura
(o structured light projectors)
Point Cloud o
Interest Point
Fotogrammetria terrestre
Videogrammetria
Fotogrammetria terrestre
Protesi:
misura di superfici di parti corporee per
l’accoppiamento e l’adattamento di protesi
Point Cloud
(facciali, articolazioni, odontoiatria)
Laser scanning terrestre
(o structured light projectors)
- 34 -
Capitolo 1
Modellazione 3D inversa
1.3.5 FLUIDODINAMICA
PRODOTTI E SCOPI DELLA
STRATEGIA DI
METODI E TECNICHE DI
MODELLAZIONE 3D
MODELLAZIONE
RILIEVO
Point Cloud
Videogrammetria
Analisi e Simulazioni:
Campo di moto fluido, topografia moto
ondoso
- 35 -
Capitolo 2
Modellazione 3D fotogrammetrica: definizioni
Modellazione 3D fotogrammetrica
2.1 DEFINIZIONI
36
2.2 ORIENTAMENTO E CALIBRAZIONE DI SINGOLE IMMAGINI
52
2.3 ORIENTAMENTO DI STEREO-COPPIE DI IMMAGINI
57
2.4 ORIENTAMENTO E CALIBRAZIONE MULTI-IMMAGINE
61
2.5 CORRISPONDENZE TRA IMMAGINI
64
2.6 TEXTURE MAPPING
71
2.1 DEFINIZIONI
In generale in fotogrammetria si ricercano le relazioni analitiche e geometriche che
legano lo spazio oggetto (il mondo reale) e lo spazio immagine (la fotografia) al fine di
ottenere informazioni metriche indirette. In tal modo è possibile acquisire non solo
informazioni relative ad oggetti altrimenti inaccessibili, ma anche in un tempo
decisamente contenuto. La fotogrammetria racchiude metodi di misura e interpretazione
sulle immagini allo scopo di rilevare forma e posizione di un oggetto nello spazio da una
o più fotografie. La fotogrammetria è una tecnica molto versatile, i metodi
fotogrammetrici possono essere teoricamente applicati in ogni situazione in cui l’oggetto
può essere registrato fotograficamente ma soprattutto la fotografia costituisce un
importante magazzino di informazioni metriche e semantiche a cui è possibile accedere in
qualsiasi momento.
2.1.1 FONDAMENTI GEOMETRICI
Facendo riferimento a immagini provenienti da camere fotografiche (metriche e non), il
modello usato per descrivere la geometria di un fotogramma è quello di una prospettiva
centrale. Il precursore di tali dispositivi è la camera oscura (o camera stenopeica)
utilizzata dal fisico arabo Alhazen (Ibn Al-Haitham, ca 965-1039 d.C.) nei suoi studi
astronomici. Leonardo da Vinci (1452-1519) conosceva probabilmente le sue ricerche e
scriveva a proposito della camera oscura in un passo intitolato “Prova di come gli oggetti,
posti in una posizione siano tutti ovunque e tutti in ciascuna parte” (Richter e Richter,
1939, n. 70, da M.H.Pirenne, 1991): “Affermo che se la facciata di un edificio, o una
piazza aperta o un campo illuminato dal sole, ha di fronte un’abitazione, e se sul lato non
esposto al sole pratico un piccolo foro rotondo, tutti gli oggetti illuminati proietteranno
la loro immagine attraverso quel foro, e saranno visibili all’interno dell’abitazione, sulla
- 36 -
Capitolo 2
Modellazione 3D fotogrammetrica: definizioni
parete opposta che dovrebbe essere resa bianca; e là in effetti saranno capovolte, e se si
fanno più fori simili in diverse posizioni sulla stessa parete per ognuno di questi si
otterrà lo stesso risultato. Quindi, le immagini degli oggetti illuminati sono ovunque su
questa parete e tutti in ogni minuscola parte di essa…” (da M.H.Pirenne, “Percezione
visiva”, 1991).
Figura 2.1.1 – Modello della camera oscura.
La figura 2.1.1 illustra i parametri fondamentali della prospettiva centrale nel modello
della camera oscura (una fotocamera molto semplificata), definiti in fotogrammetria
parametri di orientamento interno: posizione del centro della prospettiva O’ rispetto a un
sistema di riferimento fissato nella camera (sistema di coordinate immagine), distanza
principale c tra il centro O’ e il piano di proiezione. Secondo questo modello geometrico
un raggio luminoso (raggio ottico) che parte da un punto oggetto P si propaga in linea
retta passando attraverso il centro della prospettiva O formando quindi un immagine P’
sul quadro di proiezione (sul quale è posto un sensore fotosensibile, pellicola o sensore
digitale). Punto oggetto P, centro della prospettiva O’ e punto immagine P’ giacciono su
una retta denominata retta di collinearità. L’insieme di tutti i possibili raggi ottici (fascio
di raggi ottici o anche stelle proiettive) che partono dall’oggetto forma una sua immagine
capovolta (immagine negativa) e rimpicciolita sul quadro di proiezione.
Il rapporto di riduzione tra oggetto reale e la sua immagine è denominato scala media
del fotogramma e risulta così definito:
Scala = 1: m
dove m =
h X
=
c x′
(2.1)
La scala immagine è il parametro che più di ogni altro fornisce una stima
approssimativa dell’accuratezza raggiungibile con le misure fotogrammetriche.
Differenziando infatti l’equazione della scala immagine (2.1) si ottiene:
dX = m ⋅ dx′
- 37 -
(2.2)
Capitolo 2
Modellazione 3D fotogrammetrica: definizioni
L’incertezza lineare dx nello spazio immagine genera un errore dX nello spazio oggetto
direttamente proporzionale al denominatore scala m(figura 2.1.2).
Figura 2.1.2 – Incertezza nello spazio immagine e nello spazio oggetto.
Il valore dx in fotogrammetria digitale viene spesso indicato in numero di pixel. In
alcuni casi, in condizioni di luce favorevoli punti pre-segnalizzati da target retroriflettenti possono essere collimati sulle immagini con accuratezze anche di un decimo di
pixel (sub-pixel) mentre per i punti naturali l’accuratezza raggiungibile è in genere di un
pixel anche se molto variabile in funzione della risoluzione del sensore digitale
[Remondino e El-Hakim, 2006].
La fotogrammetria è una tecnica di misura tridimensionale mediante la quale forma e
posizione di un oggetto sono determinati ricostruendo le stelle proiettive da almeno due
posizioni differenti. Il principio di determinazione delle coordinate 3D è quello della
triangolazione (figura 2.1.3), ovvero dell’intersezione in avanti semplice o multipla da
due o più posizioni note. La misurazione di coordinate Pi nello spazio oggetto OXYZ si
riduce alla misura di punti pi omologhi nello spazio immagine oxyz che può avvenire
manualmente o automaticamente grazie alle moderne tecniche di auto-correlazione di
immagini digitali (image-matching) (paragrafo 2.5).
- 38 -
Capitolo 2
Modellazione 3D fotogrammetrica: definizioni
Figura 2.1.3– Principio di intersezione in avanti semplice (sinistra) o multipla (destra) in
fotogrammetria.
L’accuratezza ottenibile con le misure fotogrammetriche non è quindi solo funzione
della scala immagine ma anche della configurazione geometrica con cui i raggi ottici si
intersecano nello spazio. In generale quindi l’accuratezza sulle coordinate spaziali
ottenibile in fotogrammetria multi-immagine può essere descritta dalle seguenti relazioni
(Fraser 1996):
dX =
q
⋅ m ⋅ dx
k
(2.3)
dove
q:
k:
coefficiente dipendente dalla configurazione della rete di immagini,
q = 0.4 – 0.8
per reti con immagini convergenti (figura 2.1.4a)
q = 1.5 – 3.0
per configurazioni stereo (figura 2.1.4b)
numero di immagini scattate da ogni stazione
- 39 -
Capitolo 2
Modellazione 3D fotogrammetrica: definizioni
a
b
Figura 2.1.4 – Configurazioni geometriche di presa: a) configurazione stereo (assi paralleli);
b) configurazione multi-immagini convergenti.
2.1.2 ABERRAZIONI OTTICHE: DISTORSIONI RADIALE E TANGENZIALE
Il modello della camera oscura non è utilizzabile nella pratica della fotogrammetria
soprattutto perchè richiede tempi di esposizione alla luce tali da richiedere l’uso di un
treppiede anche con forte illuminazione diurna oltre a problemi di luce parassita che
limita la definizione delle immagini. L’aggiunta di un sistema di lenti (figura 2.1.3),
comunemente denominato obbiettivo, risolve tale problema e rende il modello della
camera oscura molto più simile alle moderne fotocamere. Il centro della prospettiva O’
diviene qui l’intersezione dell’asse ottico (retta FF’) con il secondo piano principale
interno. Mentre la distanza principale c è individuata dalla distanza a’, variabile in
funzione della distanza dall’oggetto secondo l’equazione (2.2) per permettere il
focheggiamento dell’immagine sul piano focale (per oggetti posti a distanza a infinita a’
è uguale alla focale dell’obbiettivo f ).
Il modello ottico d’immagine per sistemi di lenti sottili è quindi illustrato in figura 2.1.3
dove sotto particolari ipotesi [Selvini e Guzzetti, 2000] vale la legge del costruttore di
lenti:
1 1 1
+ =
a′ a f ′
Dove
a:
coniugata oggetto
a’:
coniugata immagine ≈ distanza principale c
- 40 -
(2.2)
Capitolo 2
Modellazione 3D fotogrammetrica: definizioni
f, f’:
lunghezza focale interna ed esterna
z, z’:
distanza focale oggetto e distanza focale immagine
H1, H2:
piani principali esterno e interno
Figura 2.1.3 – Costruzione geometrica per un sistema di lenti sottili.
Le camere fotografiche sono apparecchi il cui funzionamento è quindi molto simile a
quello descritto a proposito della camera oscura con l’unica differenza sostanziale che il
centro della prospettiva non è costituito dal baricentro del foro, ma da un punto virtuale
posizionato all’interno di un gruppo ottico di lenti; il diametro del foro non è qui costante,
ma può variare mediante un apparato meccanico, denominato diaframma, permettendo
così di controllare la quantità di luce che raggiunge il quadro di proiezione. Il dispositivo
fotosensibile (trasduttore), atto alla acquisizione (e registrazione per le camere
analogiche) dell’immagine sul quadro di proiezione, può essere costituito dalla più
tradizionale pellicola fotografica o dai più moderni sensori digitali.
I principi secondo i quali i raggi luminosi vengono rifratti dall’obbiettivo e formano
l’immagine, sono quelli dell’ottica geometrica (Gaussiana) che prevedono però ipotesi
fortemente limitative che si discostano molto dalla realtà [Selvini e Guzzetti, 2000]. I
raggi luminosi infatti, sono considerati in tale modello monocromatici, provenienti da una
sorgente puntiforme e poco inclinati rispetto all’asse ottico dell’obiettivo. Da queste
considerazioni si può ben capire come tale modello sia puramente teorico non
verificandosi praticamente mai
le condizioni descritte. Sono molto comuni infatti
obiettivi con angoli di campo superiori ai 120° sia in fotografia che in fotogrammetria, e
nelle applicazioni comuni quasi mai si è interessati a oggetti che individuano sorgenti
luminose puntiformi (a parte in astronomia e astrofotografia).
- 41 -
Capitolo 2
Modellazione 3D fotogrammetrica: definizioni
Le leggi di Snellius permettono di individuare la posizione di un punto sull’immagine
nota la posizione nello spazio oggetto; per le motivazioni sopra descritte, e a causa di
difetti costruttivi degli obiettivi, l’immagine formata presenta forma e posizione differenti
da quelle teoriche. Tali imperfezioni nella formazione dell’immagine vengono
denominate “aberrazioni”, esse possono essere di tipo geometrico e di tipo cromatico.
Mentre in fotografia generalmente si è interessati soprattutto alla correzione del secondo
tipo (piccole variazioni di forma sono inavvertibili all’occhio umano), in fotogrammetria
si guarda soprattutto alle aberrazioni geometriche. La correzione di tali distorsioni
(tabella 2.2.A da Ray S., 1972) può avvenire a priori, attraverso un’attenta progettazione
di schemi ottici dedicati e alla selezione di cristalli particolari, o a posteriori attraverso
una correzione geometrica dell’immagine.
Tabella 2.2.A – Principali aberrazioni delle lenti.
Matematicamente, il centro della prospettiva O’ è definito come il punto attraverso il
quale passano tutti i raggi ottici. Per un sistema di lenti è necessario però definire due
centri della prospettiva: uno interno e uno esterno rispettivamente intersezioni dell’asse
ottico con la pupilla d’entrata EP e la pupilla d’uscita EP’ (Fig. 2.1.4). Nel caso ideale
l’angolo di incidenza τ è uguale a quello d’uscita τ’ e la distanza principale c è pari alla
coniugata immagine a’ Poiché in generale la pupilla d’entrata e quella d’uscita non
coincidono con i piani principali gli angoli τ, τ’ rispettivamente di entrata e uscita dei
raggi ottici sono diversi tra loro (Fig. 2.1.3). Questo effetto, radialmente simmetrico
- 42 -
Capitolo 2
Modellazione 3D fotogrammetrica: definizioni
rispetto al punto H’ denominato PPA (Punto principale di Autocollimazione) è definito
dalla seguente relazione:
∆r ′ = r ′ − c ⋅ tan τ
(2.3)
Da cui si evince che la distorsione radiale ∆r’ (in inglese radial distortion) è funzione
non solo della distanza del punto immagine P’ da H’ (PPA) ma anche della distanza
principale c.
Figura 2.1.4 – Distanza principale c e distorsione radiale ∆r’.
In generale tutti gli obbiettivi fotografici distorcono anche se l’uso di particolari lenti e
schemi ottici (simmetrici) può ridurre notevolmente il valore della distorsione radiale
(anche inferiore a 4 micron). Gli obbiettivi che distorcono di meno sono quelli
denominati normali con un angolo di campo di circa 55-60°, simile a quello dell’occhio
umano. Obbiettivi con angoli di campo maggiori o inferiori a quello degli obbiettivi
normali sono denominati rispettivamente obbiettivi grandangolari e teleobbiettivi (in
gergo anche denominati più semplicemente tele). Le immagini registrate con questi
obbiettivi (Fig. 2.1.5) sono caratterizzate da distorsioni tipicamente negative (denominate
anche a barilotto) per gli obbiettivi grandangolari e positive per i teleobbiettivi
(distorsioni a cuscino).
- 43 -
Capitolo 2
Modellazione 3D fotogrammetrica: definizioni
Figura 2.1.5 – Deformazioni che subisce un reticolo a maglia quadrata nel caso di distorsioni
radiali simmetriche ∆r’ positive (teleobbiettivi) e negative (obbiettivi grandangolari).
Esistono ulteriori aberrazioni geometriche dovute invece al disallineamento costruttivo
delle lenti che provocano una distorsione asimmetrica dell’immagine. Questo tipo di
aberrazioni sono note come distorsioni tangenziali (in inglese decentering distortion) e
sono in genere, per un buon obbiettivo, di un ordine di grandezza più piccole delle
distorsioni radiali.
2.1.3 ORIENTAMENTO INTERNO
Una fotocamera può essere modellata come un sistema spaziale che consta di un area
piana di immagine (pellicola fotografica o sensore digitale) e di un obbiettivo con il suo
centro prospettico O’. I parametri di orientamento interno di una fotocamera consentono
di ricostruire il fascio di raggi proiettivi a partire da un sistema di riferimento piano
M’x’y’ di coordinate immagine dove M’ è denominato centro fiduciale o FC, in genere il
centro dell’immagine per fotocamere standard. E’ possibile quindi a partire da tale
sistema, noti i parametri di orientamento interno, definire una terna cartesiana O’x’y’z’ di
coordinate fotocamera fondamentale per la determinazione delle relazioni analitiche che
intercorrono tra spazio oggetto e spazio immagine. Questa terna è incentrata in O’, piano
x’y’ parallelo a quello immagine e asse z’, coincidente con l’asse ottico, ortogonale ad
esso e rivolto verso l’immagine negativa (Fig. 2.1.6). L’intersezione dell’asse ottico (z’)
con il piano immagine è un punto H’ (H’ ≈ M’) denominato punto principale di
autocollimazione (o anche PPA). In totale i parametri di orientamento interno sono quindi
tre:
- 44 -
Capitolo 2
•
Modellazione 3D fotogrammetrica: definizioni
punto principale H’ (o PPA): nadir del centro della prospettiva
di coordinate x0, y0 nel sistema M’x’y’
•
distanza principale c
Figura 2.1.6 – Sistemi di riferimento di coordinate immagine (sinistra)
e di coordinate fotocamera (destra).
Per le fotocamere analogiche metriche il sistema di riferimento immagine è individuato
dalle marche fiduciali (contrassegni visibili sull’immagine sovrimposti nell’istante di
scatto), attraverso le quali passano gli assi x’ e y’. Nelle immagini digitali, matrici di
pixel, le coordinate immagine vengono misurate in un sistema di tipo matriciale e sono
indicate in genere con le lettere u,v (oppure i,j) dove u indica il numero di colonna e v
quello di riga. E’ possibile quindi che, in molti software di fotogrammetria digitale, il
sistema di riferimento abbia l’origine posto in alto a sinistra dell’immagine, asse
delle ascisse concorde all’asse x’ e asse delle ordinate discorde a y’ con le
ordinate crescenti verso il basso. Le coordinate di H’ sono quindi, in questi casi
riferite, a tale sistema. Per uniformità e standardizzazione delle relazioni
analitiche si preferisce in genere riportare tutte le misurazioni al sistema M’x’y’
(Fig. 2.1.7).
I parametri di orientamento interno non consentono da soli di modellare il sistema
fotocamera dal momento che la presenza dell’obbiettivo introduce degli errori sistematici
rilevanti dovuti alle distorsioni radiali e tangenziali, introdotte nel paragrafo precedente.
Nelle fotocamere metriche gli obbiettivi sono progettati con particolari lenti e schemi
ottici in modo da limitare al minimo le distorsioni. Per tale motivo per alcune
applicazioni gli errori commessi trascurando le distorsioni possono essere irrilevanti
(secondo la (2.2) per
dx’ = ∆r’MAX
= 5 micron, m = 10000 allora
- 45 -
dX ≈ 5
Capitolo 2
Modellazione 3D fotogrammetrica: definizioni
centimetri). Nelle fotocamere amatoriali invece, progettate per la fotografia artistica e
ricreativa, le distorsioni possono raggiungere valori tali da non poter essere trascurati.
Figura 2.1.7 – Sistemi di riferimento di coordinate immagine per fotocamere metriche (in alto)
e per fotocamere digitali (in basso).
Una fotocamera amatoriale, di basso costo, può produrre distorsioni anche
maggiori di 200 micron (secondo la (2.2) per dx’ = ∆r’MAX = 200 micron, m =
10000 allora dX ≈ 2 metri)! Se si considera che gli errori sistematici dovuti alle
distorsioni radiale e tangenziale sono solo alcune delle fonti di errore nella
misura fotogrammetrica, e che questi si combinano e aumentano secondo la legge
- 46 -
Capitolo 2
Modellazione 3D fotogrammetrica: definizioni
di propagazione degli errori diviene difficile trovare applicazioni d’interesse
metrologico senza la conoscenza di una relazione analitica che modelli le
distorsioni (soprattutto se si usano fotocamere amatoriali).
Se questi parametri sono noti è possibile definire un vettore x’ di posizione nel
sistema di riferimento fotocamera O’x’y’z’:
 x′   x′P − x0′ − ∆x′ 
x′ =  y ′ =  yP′ − y0′ − ∆y′ 
 z ′  

−c
(2.4)
Dove
xP′ , y′P
coordinate immagine misurate di P′
x0′ , y0′
coordinate immagine del punto principale H′
∆x′, ∆y ′
parametri di correzione per le distorsioni
I termini ∆x′, ∆y ′ contengono i parametri di distorsione radiale e tangenziale:
′ + ∆xtan
′
∆x′ = ∆xradial
′ + ∆ytan
′
∆y ′ = ∆yradial
La distorsione radiale ∆r ′ è in genere modellata con due differenti serie
polinomiali che danno luogo rispettivamente a due curve di distorsione radiale
denominate rispettivamente sbilanciata e bilanciata.
Per camere non metriche la formula più comune per ∆r ′ è quella sbilanciata:
∆r ′ = k1 ⋅ r ′3 + k2 ⋅ r ′5 + k3 ⋅ r ′7
(2.5)
Per camere metriche è invece quella bilanciata:
∆r ′ = A0 ⋅ r ′ + A1 ⋅ r ′3 + A2 ⋅ r ′5 + A3 ⋅ r ′7
- 47 -
(2.6)
Capitolo 2
Modellazione 3D fotogrammetrica: definizioni
Dove
r′ =
( x′P − x0′ ) + ( y′P − y0′ )
2
2
raggio immagine, distanza dal punto principale H’
La distorsione radiale ∆r ′ va scomposta secondo i due assi x’ e y’:
∆r ′
r′
∆r ′
= y′ ⋅
r′
′
∆xradial
= x′ ⋅
′
∆yradial
(2.7)
Le distorsioni tangenziali sono invece modellate con i seguenti polinomi (Brown,
1971):
′ = P1 ⋅ (r ′2 + 2 x′2 ) + 2 P2 ⋅ x′y′
∆xtan
∆y′tan = P2 ⋅ (r ′2 + 2 y′2 ) + 2 P1 ⋅ x′y′
(2.8)
I parametri di orientamento interno e quelli di distorsione radiale sono
determinati mediante la procedura della calibrazione della fotocamera (paragrafi
2.2 e 2.4).
- 48 -
Capitolo 2
Modellazione 3D fotogrammetrica: definizioni
2.1.4 ORIENTAMENTO ESTERNO
L’orientamento esterno consiste di sei parametri, tre traslazioni e tre rotazioni,
che rappresentano i gradi di libertà del sistema di coordinate fotocamera O’x’y’z’
e descrivono quindi la sua posizione spaziale e l’orientamento rispetto al sistema
di coordinate oggetto globale OXYZ. Questi parametri rappresentati in (Fig.
2.1.8) sono rispettivamente:
 X O' 
XO' =  YO ' 
 ZO ' 
posizione del centro di presa O’ in OXYZ
Le tre rotazioni sono invece indicate generalmente con le lettere ω , ϕ , κ che
rappresentano gli angoli che gli assi del sistema di coordinate immagine formano con il
sistema di coordinate oggetto. Nel caso standard la trasformazione avviene tramite tre
successive rotazioni orarie attorno agli assi del sistema fotocamera: ω è l’angolo di cui
l’asse x′ deve ruotare per portare l’asse y′ nel piano OXY, ϕ è l’angolo di cui l’asse y′
deve ruotare per portare l’asse x′ nel piano OXY e κ è l’angolo di cui l’asse z′ deve
ruotare per portare l’asse x′ nel piano OXZ.
La matrice risultante è il prodotto delle tre singole matrici di rotazione moltiplicate in
ordine inverso:
R = Rκ Rϕ Rω
0
0 
1

Rω =  0 cos ω − sin ω 
 0 sin ω cos ω 
 cos ϕ 0 sin ϕ 
Rϕ =  0
1
0 
 − sin ϕ 0 cos ϕ 
 cos κ
Rκ =  sin κ
 0
− sin κ
cos κ
0
0
0 
1 
E quindi:
cos ϕ cos κ

R = cos ω sin κ + sin ω sin ϕ cos κ
sin ω sin κ − cos ω sin ϕ cos κ
− cos ϕ sin κ
cos ω cos k − sin ω sin ϕ sin κ
sin ω cos κ + cos ω sin ϕ sin κ
- 49 -

− sin ω cos ϕ  (2.9)

cos ω cos ϕ 
sin ϕ
Capitolo 2
Modellazione 3D fotogrammetrica: definizioni
Figura 2.1.8 – Parametri di orientamento esterno tra sistemi di riferimento oggetto e immagine.
2.1.5 EQUAZIONI DI COLLINEARITÀ
La figura 2.1.8 mostra la geometria della proiezione di un punto P su un fotogramma di
cui le coordinate spaziali possono essere derivate come componenti di un vettore X
somma seconda le seguenti relazioni:
X = XO′ + X*
(2.10)
In cui il vettore X* esprime la condizione secondo la quale centro della prospettiva O′,
punto immagine P′ e punto oggetto P sono allineati e giacciono su un'unica retta
denominata retta di collinearità. Le equazioni dei punti appartenenti ad una retta di
collinearità, noti i parametri di orientamento esterno e interno, sono espressi dalla
seguente relazione:
X = XO′ + λ∙R∙x′
 X   X O' 
 r11
 Y  =  Y  + λ r
   O' 
 21
 Z   ZO ' 
 r31
- 50 -
r12
r22
r32
r13   x′ 
r23   y ′
r33   z ′ 
(2.11)
Capitolo 2
Modellazione 3D fotogrammetrica: definizioni
Dove λ è un valore incognito che varia per ogni punto oggetto. Se è disponibile soltanto
una immagine è allora possibile definire solo la direzione O′P ma non la posizione
spaziale del punto P. Noti i parametri di orientamento interno (interior orientation IO) ed
esterno (exterior orientation EO) le (2.11) costituiscono tre equazioni in quattro
incognite. Le coordinate 3D del punto P possono essere determinate soltanto se tale
direzione interseca un altro elemento geometricamente noto come per esempio un’altra
retta di collinearità (sistema iperdeterminato di sei equazioni in cinque incognite) o un
modello di superficie nello spazio (nota la coordinata Z di P le incognite divengono
X,Y,λ). Il processo di determinazione delle coordinate 3D dei punti Pi in fotogrammetria è
denominato restituzione (plotting in inglese).
Invertendo le (2.11) e introducendo le coordinate del PPA e i termini correttivi per le
distorsioni radiali e tangenziali secondo le (2.4) si ottiene:
x′ − x′0 − ∆x′=
1 −1
R ( X − XO' )
λ
 x′P − x0′ − ∆x′ 
 r11
 y ′ − y ′ − ∆y ′  = 1  r
0
 P
 λ  12


 r13
−c
r21
r22
r23
r31   X − X O ' 
r32   Y − YO ' 
r33   Z − ZO ' 
(2.12)
Portando al secondo membro delle (2.12) i termini correttivi delle distorsioni radiali e le
coordinate del PPA, dividendo prima e seconda equazione per la terza si ottiene:
xP′ = x0′ − c ⋅
r11 ( X − X O ' ) + r21 (Y − YO ' ) + r23 (Z − ZO ' )
+ ∆x′
r13 ( X − X O ' ) + r23 (Y − YO ' ) + r33 (Z − Z O ' )
r ( X − X O ' ) + r22 (Y − YO ' ) + r32 (Z − Z O ' )
y ′P = y0′ − c ⋅ 12
+ ∆y ′
r13 ( X − X O ' ) + r23 (Y − YO ' ) + r33 ( Z − Z O ' )
(2.13)
Che costituiscono le equazioni di collinearità, al centro della maggior parte dei processi
fotogrammetrici.
- 51 -
Capitolo 2
Orientamento e calibrazione di singole immagini
2.2 ORIENTAMENTO E CALIBRAZIONE DI SINGOLE IMMAGINI
L’orientamento di una singola immagine in fotogrammetria indica l’insieme di processi
mediante i quali si determinano i parametri di orientamento esterno (EO). Poiché la
misura diretta tramite distanze e angoli dei parametri di EO non è materialmente fattibile,
la procedura di orientamento avviene in maniera indiretta mediante metodi analitici che
richiedono la conoscenza di un minimo numero di punti Pi di cui sono note le coordinate
3D. Le comuni procedure di calcolo possono essere suddivise in due gruppi:
1. Calcolo dei parametri di orientamento esterno basato sulle equazioni di
collinearità mediante intersezione spaziale inversa (space resection): fornisce
una soluzione non lineare con un minimo di tre punti di cui sono note le
coordinate 3D. Richiede parametri approssimati per le incognite.
2. Calcolo dei parametri di orientamento esterno basato su relazioni di proiettività
mediante la trasformazione lineare diretta (DLT, Direct Linear Transformation):
fornisce una soluzione lineare con un minimo di sei punti di cui sono note le
coordinate 3D. Ha il vantaggio di non richiedere approssimazioni iniziali per le
incognite.
2.2.1 SPACE RESECTION
La procedura di intersezione spaziale inversa richiede un numero n (con n ≥ 3) di punti
di riferimento (control point, o punti fotografici d’appoggio PFA) non allineati e noti
nelle tre coordinate spaziali oltre a un’approssimazione iniziale delle incognite. Le
equazioni di collinearità (2.13) devono
essere linearizzate in un intorno dei valori
approssimati delle incognite. Ogni punto misurato nel sistema di coordinate fotocamera
[x′i
y′i –c], e noto nelle coordinate spaziali [Xi
Yi
Zi] fornisce due equazioni di
osservazione. Se il numero di punti di riferimento è maggiore di tre il sistema di
equazioni è iperdeterminato e va risolto con metodo ai minimi quadrati lineari (least
square method, LSM) dove le osservazioni sono le coordinate immagine di tali punti e le
incognite i sei parametri di orientamento esterno. E’ inoltre possibile considerare i
parametri di orientamento interno e quelli addizionali come ulteriori incognite
nell’applicazione del metodo analitico della space resection, tipicamente da un minimo di
tre parametri quali x0, y0, c a un massimo di cinque parametri se si aggiungono anche le
distorsioni radiali x0, y0, c, k1, k2, richiedendo quindi in totale un numero di control point
- 52 -
Capitolo 2
Orientamento e calibrazione di singole immagini
rispettivamente di 5 e 6 che devono essere però distribuiti nello spazio allontanandosi
dalla configurazione piana altrimenti il sistema di equazioni diviene singolare.
Il modello funzionale delle equazioni di collinearità per la space resection è il seguente:
x′Pi + ν xi′ = F ( X O ' , YO ' , ZO ' , ω , ϕ , κ , x0′ , c, ∆x′, X i , Yi , Zi )
y ′Pi + ν yi′ = F ( X O ' , YO ' , ZO ' , ω , ϕ , κ , y0′ , c, ∆y ′, X i , Yi , Zi )
(2.14)
Il metodo prevede le seguenti osservazioni:
− Control point:
punti oggetto Pi noti nelle tre coordinate Xi, Yi, Zi e visibili
sull’immagine in x′Pi , y ′Pi
Dove le seguenti incognite sono determinate iterativamente come funzioni delle
osservazioni:
• parametri di orientamento esterno della singola
X O ' , YO ' , Z O ' , ω , ϕ , κ
camera (orientamento interno noto):
• parametri di orientamento esterno e interno della
X O ' , YO ' , ZO ' , ω , ϕ , κ , x0′ , c, ∆x′
singola camera (orientamento interno non noto):
I valori approssimati delle incognite nelle equazioni (2.14) possono essere stimati oppure
ricavati con metodi lineari della geometria proiettiva descritti nel successivo paragrafo.
Per i parametri di orientamento interno generalmente è sufficiente conoscere almeno la
focale e le dimensioni fisiche del sensore per le immagini digitali, x0′ , y0′ , ∆x′ possono
essere posti nulli inizialmente.
2.2.2 TRASFORMAZIONE LINEARE DIRETTA (DLT)
La DLT [Abdel-Aziz e Karara, 1971; Marzan e Karara, 1975; Young-Hoo Kwon, 1998]
fornisce una soluzione lineare diretta per i parametri di orientamento esterno senza
richiedere valori approssimati delle incognite e la definizione di un sistema di coordinate
fotocamera. Fornisce i parametri di orientamento esterno e interno della fotocamera e
nelle versioni modificate anche i parametri di distorsione radiale e tangenziale. Può essere
- 53 -
Capitolo 2
Orientamento e calibrazione di singole immagini
per tale motivo molto utile per l’orientamento di immagini di cui non è noto
l’orientamento interno come è per esempio il caso di foto storiche o cartoline.
La DLT può essere fatta derivare dalle equazioni di collinearità (2.13) nella loro forma
classica attraverso semplici passaggi. Utilizzando immagini digitali o scansioni di
immagini analogiche, è necessario introdurre dei fattori di scala che considerino c
differente nelle direzioni in x′ e in y′ così da rispettare il rapporto tra le dimensioni dei
pixels [Young-Hoo Kwon, 1998]:
xP′ − x0′ → λx ( x′P − x0′ )
y ′P − y0′ → λ y ( y P′ − y0′ )
xP′ − x0′ = −
c r11 ( X − X O ' ) + r21 (Y − YO ' ) + r31 ( Z − ZO ' )
λx r13 ( X − X O ' ) + r23 (Y − YO ' ) + r33 ( Z − ZO ' )
c r12 ( X − X O ' ) + r22 (Y − YO ' ) + r32 ( Z − ZO ' )
y ′P − y0′ = −
λ y r13 ( X − X O ' ) + r23 (Y − YO ' ) + r33 (Z − Z O ' )
(2.15)
da cui attraverso alcuni passaggi si giunge a:
xP′ =
L1 X + L2Y + L3 Z + L4
L9 X + L10Y + L11Z + 1
L X + L6Y + L7 Z + L8
y ′P = 5
L9 X + L10Y + L11 Z + 1
dove:
x0′ r31 − cx r11
D
x′ r − c r
L2 = 0 32 x 12
D
x′ r − c r
L3 = 0 33 x 31
D
(c r − x r ) X + (cx r21 − x0′ r23 )YO ' + (cx r31 − x0′ r33 ) Z O '
L4 = x 11 0 13 O '
D
y′ r − c r
L5 = 0 13 y 12
D
′
y r −c r
L6 = 0 23 y 22
D
L1 =
- 54 -
(2.16)
Capitolo 2
Orientamento e calibrazione di singole immagini
L7 =
L8 =
y0′ r33 − c y r32
D
(c y r12 − y0′ r13 ) X O ' + (c y r22 − y0′ r23 )YO ' + (c y r32 − y0′ r33 )Z O '
D
r
L9 = 13
D
r
L10 = 23
D
r
L11 = 33
D
D = −( X O ' r13 + YO ' r23 + Z O ' r33 )
cx =
c
λx
cy =
c
λy
che rappresentano gli undici parametri della DLT 3-D standard.
Volendo considerare anche la distorsione dell’obbiettivo le (2.16) diventano:
xP′ − ∆x′ =
L1 X + L2Y + L3 Z + L4
L9 X + L10Y + L11 Z + 1
L X + L6Y + L7 Z + L8
y ′P − ∆y′ = 5
L9 X + L10Y + L11 Z + 1
(2.17)
dove ∆x′, ∆y ′ sono le componenti delle distorsioni lungo gli assi del sistema di coordinate
immagine; questi possono essere espressi come somma delle distorsioni radiali e
tangenziali:
(
(
)
)
2
∆x′ = ( x′P − x0′ ) L12r ′2 + L13r ′4 + L14r ′6 + L15  r ′2 + 2 ( x′P + x0′ )  + L16 ( x′P − x0′ )( y′P − y0′ )


(2.18)
2
4
6
2
2


′ − y0′ ) L12r ′ + L13r ′ + L14r ′ + L15 ( x′P − x0′ ) ( y ′P − y0′ ) + L16 r ′ + 2( y P
′ − y0′ )
∆y′ = ( y P


- 55 -
Capitolo 2
Orientamento e calibrazione di singole immagini
I termini L12 , L13 , L14 nelle (2.18) rappresentano i coefficienti k1 , k2 , k3 della distorsione
radiale espressi nella (2.5) nel paragrafo relativo alle distorsioni delle lenti; i parametri
L15 , L16 rappresentano i coefficienti P1, P2 della distorsione tangenziale.
Il calcolo dell’orientamento esterno e interno della camera con DLT standard, avviene
riordinando le (2.17):
1
1
xP′ = ( L1 X + L2Y + L3 Z + L4 − L9 xP′ X − L10 xP′ Y − L11 xP′ Z ) + ∆x′
D
D
1
1
y P′ = ( L5 X + L6Y + L7 Z + L8 − L9 y′P X − L10 yP′ Y − L11 y P′ Z ) + ∆y ′
D
D
(2.18)
D = L9 X + L10Y + L11Z + 1
Dove
Le (2.17), con l’aggiunta delle distorsioni radiali e tangenziali divengono:
1  xP′  1  X
=
D  y P′  D  0
( xP′ − x0′ ) r ′
2
D
Y
0
Z
0
1
0
( xP′ − x0′ ) r ′
4
0
Z
0 − xP′ X
1 − yP′ X
0
X
0
Y
D
( xP′ − x0′ ) r ′
6
− x′PY
− yP′ Y
− x′P Z
− y′P Z
D  r ′ + 2 ( xP′ − x0′ )  D


2
2
( y P′ − y0′ ) r ′2 D ( y P′ − y0′ ) r ′4 D ( y P′ − y0′ ) r ′6 D ( xP′ − x0′ )( yP′ − y0′ ) D
 L1 
 
( xP′ − x0′ )( yP′ − y0′ ) D   L2 
 M 
2

r ′2 + 2 ( y′P − y0′ ) D   L 
  15 
 L16 
(
(2.19)
)
Le equazioni (2.19) riscritte per un numero sufficiente di punti doppi secondo il bilancio
n equazioni ≥ n incognite permettono di determinare i coefficienti Li . Poiché il termine
D è funzione dei parametri ricercati bisogna eseguire più iterazioni partendo da valori
approssimati o ponendo inizialmente D=1. La DLT richiede un minimo numero di punti
di riferimento pari a sei per quella standard e otto per quella estesa. La configurazione
geometrica dei punti noti deve discostarsi da quella del piano altrimenti il sistema diviene
singolare.
L’estrazione dei parametri di orientamento interno ed esterno dai termini Li per la DLT
a 11 parametri può essere effettuata secondo il seguente algoritmo (Luhmann et al, 2006):
- 56 -
Capitolo 2
Orientamento e calibrazione multi-immagine
U=
x0′ = U 2 ( L1 L9 + L2 L10 + L3 L11 )
y0′ = U 2 ( L5 L9 + L6 L10 + L7 L11 )
−1
2
2
L29 + L10
+ L11
:
coordinate del PPA
(
) :
U 2 ( L25 + L26 + L27 ) − y0′2
cx = U 2 L12 + L22 + L32 − x0′2
cy =
distanza principale (diverse scale in x′ e in y′)
Elementi della matrice di rotazione R:
r11 =
r21 =
r31 =
U ( x0′ L9 − L1 )
cx
U ( x0′ L10 − L2 )
cx
U ( x0′ L11 − L3 )
cx
r12 =
r22 =
r32 =
U ( y0′ L9 − L5 )
cy
r13 = UL9
U ( y0′ L10 − L6 )
cy
U ( y0′ L11 − L7 )
r23 = UL10
r33 = UL11
cy
Coordinate del centro della prospettiva O′:
 X O' 
 L1
 Y  = − L
 O' 
 5
 Z O ' 
 L9
2.3
L2
L6
L10
L3 
L7 
L11 
−1
 L4 
L 
 8
 1 
ORIENTAMENTO DI STEREO−COPPIE DI IMMAGINI
Una coppia di immagini sulle quali è visibile parzialmente o interamente l’oggetto da
misurare si definisce stereo-coppia. La geometria di presa più comune per questo tipo di
immagini è quella ad assi paralleli che simula la visione stereoscopica naturale
dell’uomo. Immagini scattate con questa geometria (o che si discosti poco da essa)
- 57 -
Capitolo 2
Orientamento e calibrazione multi-immagine
possono essere facilmente osservate con dispositivi atti alla foto-interpretazione e alla
misura in stereoscopia quali lo stereoscopio e i fotorestitutori (digitali e analitici). Stereocoppie formate
da immagini molto convergenti non possono essere osservate in
stereoscopia.
Una stereo-coppia, di cui si conoscono gli orientamenti esterni delle due immagini
rispetto a un sistema di riferimento globale (per esempio cartografico) o relativo a una
delle due camere, costituisce la configurazione minima per la misura di punti oggetto in
3D. La zona dello spazio oggetto ricoperta da una o più stereo-coppie di immagini
orientate si definisce modello fotogrammetrico. L’orientamento analitico di una stereocoppia può avvenire in due modi diversi:
1. Singole immagini: le immagini sono orientate singolarmente con uno dei
due metodi illustrati nel paragrafo (2.2). Sono quindi necessari alcuni punti
(non necessariamente in comune) di cui siano note le coordinate 3D.
2. Congiunto: le immagini sono orientate mediante relazioni analitiche che le
legano tra loro. Il metodo più usato, soprattutto in passato, è quello
denominato orientamento relativo che non richiede punti di coordinate note
ma almeno la conoscenza di una distanza tra due punti oggetto visibili sul
modello fotogrammetrico per poterlo dimensionare. Il secondo metodo
denominato bundle adjustment consente l’orientamento simultaneo di n
immagini che si basa sulla risoluzione di un unico sistema di equazioni
equazioni di collinearità e vincoli aggiuntivi (minimi vincoli, ipervincolato,
rete libera). Il bundle adjustment è un metodo molto flessibile, utilizzato
oggi nella maggior parte dei software di fotogrammetria digitale.
2.3.1 GEOMETRIA EPIPOLARE
In una stereo-coppia il piano che passa per i due centri della prospettiva e un punto
oggetto Pi è denominato piano epipolare. Tale piano interseca le due immagini secondo
due rette k′, k″ denominate rette epipolari. Se la stereo-coppia è convergente allora le
rette epipolari sono convergenti (Fig. 2.3.9); se invece la stereo-coppia è ad assi paralleli
le rette epipolari sono tutte parallele tra loro nella direzione della base b di presa (Fig.
2.3.10). Osservando le figure 2.3.9 e 2.3.10, in una stereo-coppia orientata ogni punto
oggetto Pi si proietta sulle due immagini della coppia rispettivamente in Pi′, Pi′′ e i raggi
ottici r′,r′′ passanti per questi giacciano sul piano epipolare di Pi. Un’altra proprietà
- 58 -
Capitolo 2
Orientamento e calibrazione multi-immagine
importante della geometria epipolare riguarda le rette epipolari: collimato per esempio un
punto P′i sull’immagine di sinistra, il punto omologo P″i deve giacere sulla retta epipolare
k″.
Figura 2.3.9 – Geometria epipolare per una stereo-coppia ad assi convergenti.
Figura 2.3.10 – Geometria epipolare per una stereo-coppia ad assi paralleli.
Questa proprietà della geometria epipolare è di notevole ausilio nella fase di ricerca dei
punti omologhi nella fase di restituzione e image-matching (si veda paragrafo 2.5).
- 59 -
Capitolo 2
Orientamento e calibrazione multi-immagine
2.3.2 ORIENTAMENTO RELATIVO
Nel paragrafo 2.1.4 è stato definito l’orientamento esterno come l’insieme dei sei
parametri che stabiliscono i gradi di libertà del sistema fotocamera rispetto a un sistema
di riferimento globale. L’orientamento relativo di una stereo-coppia è una procedura che
consente di ricavare gli orientamenti esterni delle due immagini rispetto a un sistema di
riferimento relativo a una di esse oppure comune a entrambe. Poiché la fotogrammetria è
una tecnica che consente di effettuare misure 3D mediante il principio dell’intersezione in
avanti, il modello fotogrammetrico definito in una stereo coppia, possiede una scala che
dipende direttamente e linearmente dalla base di presa b. Se quindi alla base di presa
viene associato il valore reale, ovvero la distanza tra i due centri di presa negli istanti di
scatto, il modello fotogrammetrico ha scala 1:1 (per esempio è il caso dell’orientamento
di una stereo-coppia con il metodo della space resection dove la base è nota perché sono
note le coordinate dei due centri di presa). I gradi di libertà di una stereo-coppia nello
spazio sono in totale 12 rispetto al sistema di riferimento globale (6 per ogni camera). Se
il sistema di riferimento globale viene sostituito da uno relativo a una delle due camere
allora i gradi di libertà divengono in totale 6. Se poi si trascura inizialmente il parametro
di scala del modello i gradi di libertà divengono 5.
L’orientamento relativo consiste quindi nell’individuare 5 parametri, rotazioni e/o
traslazioni, che consentano di fissare i gradi di libertà delle due immagini di una stereocoppia, fissato un sistema di riferimento arbitrario. Gli orientamenti relativi sono di due
tipi:
1. asimmetrico
2. simmetrico
Nel primo caso il sistema di riferimento relativo è definito con l’origine nel centro di
presa della prima camera e ha assi paralleli a quelli del sistema fotocamera.
L’orientamento relativo consiste nel trovare due traslazioni (alla componente bx viene
attribuito un valore arbitrario, in genere quello unitario) e tre rotazioni della seconda
camera rispetto alla prima (Fig. 2.3.11a). Nel secondo caso il sistema è invece fissato con
l’origine in una delle due immagini (generalmente quella di sinistra), ha asse x passante
per il centro della prospettiva della seconda camera e asse y ortogonale all’asse ottico
della prima fotocamera in modo che risulti per questa fissata una rotazione (ω1 = 0).
L’orientamento relativo consiste nel trovare due rotazioni per la prima fotocamera e tre
per la seconda dato
b = 1 (Fig. 2.3.11b).
- 60 -
Capitolo 2
Orientamento e calibrazione multi-immagine
Figura 2.3.11 – Sistemi di riferimento di coordinate immagine (sinistra)
e di coordinate fotocamera (destra).
La soluzione analitica dell’orientamento relativo si basa sulla geometria epipolare
descritta nel paragrafo precedente. Quando una stereo-coppia è orientata i raggi ottici ri′,
ri″ giacciono nel piano definito dal triangolo O′ Pi O″ altrimenti questi formano un
tetraedro con la base b il cui volume è definito dal seguente prodotto misto:
V= ( b × r′ ) ⋅ r′′
(2.20)
La ricerca dei cinque parametri di orientamento relativo avviene mettendo a sistema
cinque equazioni (2.20) ponendo la condizione V=0. Nella pratica questo si riduce a
riconoscere cinque punti omologhi sulle due immagini (senza che sia necessario
conoscerne le coordinate oggetto) e misurarne le coordinate immagine. L’equazione
(2.20) deve essere linearizzata nell’intorno dei valori approssimati delle incognite.
2.4 ORIENTAMENTO E CALIBRAZIONE MULTI-IMMAGINE: BUNDLE ADJUSTMENT
L’orientamento simultaneo di più immagini in fotogrammetria prende il nome di bundle
adjustment (triangolazione aerea a stelle proiettive), un metodo analitico che si basa sulle
equazioni di collinearità. Questo metodo consente di determinare contemporaneamente
gli orientamenti esterni di tutte le immagini del modello fotogrammetrico attraverso un
sistema sovradeterminato di equazioni di collinearità linearizzate nell’intorno di valori
approssimati delle incognite e quindi risolto con il metodo di compensazione ai minimi
quadrati lineari (Least Square Method, LSM). Il metodo consente di includere tra le
incognite i parametri di orientamento interno insieme alle distorsioni. In tal caso
- 61 -
Capitolo 2
Orientamento e calibrazione multi-immagine
orientamento interno e distorsioni assumono il nome di parametri addizionali (Additional
Parameters, APs) mentre il metodo del bundle adjustment prende il nome di self
calibration (autocalibrazione).
In questo metodo le osservazioni da utilizzare nella compensazione sono costituite
principalmente dalle coordinate dei punti omologhi sulle immagini a cui sono associati
fasci di raggi (stelle proiettive) per ciascuna immagine. In aggiunta un minimo di almeno
tre control point visibili sul modello fotogrammetrico sono necessari per eliminare il
difetto di rango del sistema di equazioni.
Il metodo consiste nel traslare e ruotare i fasci di raggi ottici, partendo dalle posizioni
approssimate, in modo che tra di loro i raggi omologhi si intersechino al meglio e passino
il più possibile per i control point (PFA).
Il metodo prevede quindi le seguenti osservazioni:
− Control point:
Punti oggetto Pi noti nelle tre coordinate Xi, Yi, Zi e visibili su j
immagini in x′P , y ′P , con j ≥ 1
ij
ij
(se j=1 il punto non appartiene al modello fotogrammetrico)
− Tie point:
Punti oggetto Pi di coordinate non note, visibili su j immagini in
x′Pij , y ′Pij , con j ≥ 2
Considerando nuovamente il modello funzionale (2.14), nel caso di bundle adjustment
generalizzato questo diviene:
xP′ij +ν xi′ = F ( X O'j , YO ' j , Z O ' j , ω j , ϕ j , κ j , x0′ k , ck , ∆xk′ , X i , Yi , Z i )
y ′Pij + ν yi′ = F ( X O ' j , YO ' j , Z O ' j , ω j , ϕ j , κ j , y0′ k , ck , ∆yk′ , X i , Yi , Z i )
(2.21)
Dove:
i:
indice del punto Pi
j:
indice dell’immagine
k:
indice della camera
Nelle (2.21) k indica la possibilità di usare diverse camera oppure la stessa con un
differente sistema di lenti o ancora stessa camera e obbiettivo ma con impostazioni di
messa a fuoco o focale differenti (obbiettivi zoom).
- 62 -
Capitolo 2
Orientamento e calibrazione multi-immagine
Nel metodo del bundle adjustment le seguenti incognite sono determinate iterativamente
come funzioni delle osservazioni:
• parametri di orientamento esterno delle immagini
e coordinate oggetto dei Tie Point
X O'j , YO ' j , Z O ' j , ω j , ϕ j , κ j ,
X i , Yi , Z i
(orientamento interno noto con k =1, approccio
denominato block invariant)
• parametri di orientamento esterno e interno delle
X O'j , YO ' j , Z O ' j , ω j , ϕ j , κ j ,
immagini, coordinate oggetto dei Tie Point
x0′ , c, ∆x′,
(orientamento interno non noto con k =1,
X i , Yi , Z i
approccio denominato block invariant):
• parametri di orientamento esterno e interno delle
X O'j , YO ' j , Z O ' j , ω j , ϕ j , κ j ,
immagini, coordinate oggetto dei Tie Point
x0′ k , ck , ∆xk′ ,
(orientamenti interni non noti con k = n,
X i , Yi , Z i
approccio denominato frame invariant):
Per quanto concerne la conoscenza di valori approssimati delle incognite nelle
equazioni (2.21) vale quanto detto nel paragrafo 2.2.1 per la space resection. La stima
delle coordinate oggetto dei tie point può avvenire, in questo caso, orientando
relativamente alcune coppie di immagini e applicando le equazioni di collinearità (2.11)
per intersezione in avanti nei modelli fotogrammetrici relativi. Successivamente le
coordinate devono essere roto-traslate con un trasformazione conforme spaziale
(similarity transformation, Helmert a sette parametri) per riferirle al sistema di
riferimento globale oggetto. Per i parametri di orientamento interno generalmente è
sufficiente conoscere almeno la focale e le dimensioni fisiche del sensore per le immagini
digitali mentre x0′ , y0′ , ∆x′ possono essere posti nulli inizialmente. Un’importante
caratteristica che accomuna il metodo del bundle adjustment e di tutti quelli che usano
una compensazione ai minimi quadrati (space resection, DLT, orientamento relativo) è
dato dalla possibilità di analizzare statisticamente i risultati del calcolo quali per esempio
una stima della precisione teorica, individuazione e eliminazione di possibili errori
grossolani nelle osservazioni ecc..
La configurazione geometrica dell’insieme di immagini e di punti prende il nome di
configurazione della rete (network configuration). Da diversi studi effettuati circa la
- 63 -
Capitolo 2
Orientamento e calibrazione multi-immagine
configurazione della rete risulta che [Remondino e El-Hakim, 2006, Fraser, 2001; Gruen
e Beyer, 2001]:
•
l’accuratezza di una rete aumenta con l’aumentare del rapporto tra la base di
presa b delle stereo-coppie e la distanza di queste dall’oggetto (intersezione tra i
raggi prossima a 90°) e con l’uso di stereo-coppie convergenti piuttosto che ad
assi paralleli;
•
l’accuratezza di una rete aumenta significativamente con il numero di immagini
in cui un punto appare;
•
l’accuratezza aumenta con il numero di punti misurati per immagine. Comunque
l’aumento non è significante se la configurazione geometrica è forte e i punti
sono ben definiti (per esempio da target artificiali) e ben distribuiti sulle
immagini;
•
La risoluzione dell’immagine (numero di pixel e potere risolvente degli
obbiettivi) influenza l’accuratezza nel calcolo delle coordinate oggetto
soprattutto se i punti misurati sulle immagini sono naturali mentre è meno
significante per punti ben definiti da target.
Inoltre da studi effettuati sulla calibrazione con metodo del bundle adjustment (self
calibration) risulta che:
•
la calibrazione di fotocamere è affidabile solo quando la configurazione
geometrica è favorevole, con immagini convergenti che riprendono un numero
notevole di punti spazialmente distribuiti (testfield 3D) e ben definiti da target;
•
l’utilizzo di punti oggetto solo planimetrici (testfield 2D) per la calibrazione è
consentito solo se le immagini sono acquisite a differenti distanze per consentire
una stima più affidabile nel calcolo della distanza principale della camera;
•
almeno due o tre immagini dovrebbero essere acquisite ruotate di 90 gradi per
consentire una stima più affidabile nel calcolo delle coordinate immagine del
PPA.
- 64 -
Capitolo 2
2.5
Texture mapping
CORRISPONDENZE TRA IMMAGINI
Da quanto visto nei paragrafi precedenti la misurazione di oggetti reali con tecniche
fotogrammetriche è riconducibile a un problema di individuazione di corrispondenze
(punti e primitive omologhi) tra immagini che attraversa le fasi di calibrazione,
orientamento e restituzione di punti. L’orientamento e la calibrazione di immagini con il
metodo del bundle adjustment o l’orientamento relativo richiedono un minimo numero di
punti omologhi collimati sulle immagini così come disponendo di una stereo-coppia
orientata è possibile determinare le coordinate 3D di qualsivoglia punto del modello
fotogrammetrico ben riconoscibile sulle due immagini. L’individuazione delle entità
omologhe (generalmente punti) tra due o più immagini può avvenire con le seguenti
modalità:
•
manuale: i punti omologhi sono riconosciuti e collimati sulle immagini sotto la
completa supervisione di un operatore. Se le stereo-coppie sono ad assi paralleli
è possibile effettuare le misure direttamente in stereoscopia (Fig. 2.5.12). Il
metodo è molto dispendioso in termini di tempo ma è molto affidabile.
L’accuratezza nella collimazione di punti con questo metodo su immagini
digitali può raggiungere 1/4–1/6 pixel su target artificiali e 1–1/3 pixel per target
naturali.
Figura 2.5.12 – Sistemi di misura stereoscopica di immagini analitici (a sinistra)
e digitali (a destra).
•
Manuale assistita e semiautomatica: metodi manuali assistito e semiautomatico
sono quelli che usano la geometria epipolare (paragrafo 2.3.1) per la
collimazione di punti che giacciono su entità lineari dell’oggetto, intersecate
perpendicolarmente dalle linee epipolari (Fig. 2.5.13) (accuratezza molto
influenzata dalla definizione del target naturale) oppure quelli che fanno uso di
- 65 -
Capitolo 2
Texture mapping
target artificiali codificati riconosciuti e/o collimati semiautomaticamente.
L’operatore può fornire soltanto un’approssimazione della posizione e
dimensione del target e il software provvede alla collimazione automatica e
all’associazione del codice se il target è codificato. La corrispondenza con le
altre immagini in cui lo stesso target è presente è stabilita quindi dal codice,
altrimenti è l’operatore a riconoscere i target omologhi.
Figura 2.5.13 – Metodi di misura manuale assistita (Photomodeler 5.2.3) con linea epipolare
in rosso sovrimposta all’immagine di destra dopo aver collimato il punto su quella di sinistra.
•
Un altro metodo semiautomatico fa uso di tecniche di correlazione lineare tra le
immagini come la Cross Correlation e il Least Square Matching [Gruen, 1985].
L’operatore collima un punto sulla prima immagine e il software provvede a
individuare l’omologo sulla seconda utilizzando le caratteristiche radiometriche
dell’intorno del punto collimato sulla prima immagine. Il metodo è in assoluto il
più affidabile e meno dispendioso in termini di tempo rispetto a quello
completamente manuale. L’accuratezza nella collimazione dei punti può
raggiungere anche 1/50 pixel.
•
Automatica: è generalmente usata sia per l’individuazione di punti d’interesse
(target codificati e non, punti naturali) e
per la ricostruzione densa della
superficie degli oggetti. Viene effettuata con tecniche di image matching come
- 66 -
Capitolo 2
Texture mapping
la cross-correlation (auto-correlazione lineare), il Least Square Matching,
interest operator e edge detector. L’accuratezza nella collimazione dei punti può
raggiungere anche 1/50 pixel.
Per oggetti reali particolarmente complessi come nel caso di modellazione 3D in
architettura, in cantieristica navale [Menna e Troisi, 2007, Fiani et al., 2008], i metodi
automatici non sono ancora del tutto affidabili a causa della presenza di ostruzioni che
impediscono la visibilità dei punti oggetto nelle immagini. Target naturali o artificiali
potrebbero risultare così parzialmente ostruiti da altri oggetti con conseguenti errori nella
collimazione automatica, difficili da individuare in grandi progetti di modellazione 3D
fotogrammetrica. In questi casi è da preferire un approccio semiautomatico
supervisionato da un operatore.
2.5.1 COLLIMAZIONE SEMIAUTOMATICA DI TARGET CIRCOLARI
I target circolari (FIg. 2.5.11) ben si prestano al riconoscimento automatico e alla
collimazione automatica fotogrammetrica tramite algoritmi di image processing (mentre
non lo sono per la collimazione manuale). L’algoritmo più comune è il centroide locale
che calcola la media pesata dei valori di grigio delle coordinate dei pixel (il baricentro
geometrico del target). Le coordinate del centro M di un target circolare possono essere
individuate con le seguenti relazioni:
n
xM =
∑ ( x ⋅T ⋅ g )
i
i =1
n
∑ (T ⋅ g )
i =1
0
T =
1
0
T =
1
i
i
n
yM =
∑ ( y ⋅T ⋅ g )
i
i =1
i
n
∑ (T ⋅ g )
i =1
i
se g < t
se g ≥ t
target circolari retroriflettenti
se g > t
se g ≤ t
target circolari neri su sfondo chiaro
(2.22)
Dove T è una funzione utilizzata per decidere se un pixel di luminosità g deve o meno
essere utilizzato nel calcolo e dipende quindi da un valore soglia t. Per un target circolare
nero dovranno entrare a far parte del calcolo tutti quelli che avranno una bassa luminosità
dei pixel mentre dovranno essere scartati tutti quelli con un valore di luminosità g>t; per
- 67 -
Capitolo 2
Texture mapping
target circolari retro-riflettenti viceversa. Un operatore in genere seleziona manualmente
un’area che include il target circolare e applicando le (2.22) l’algoritmo determina le
coordinate del centro del target circolare.
Figura 2.5.11 – Alcuni target circolari codificati.
In generale target circolari ben dimensionati (diametro maggiore di 5 pixel) sono
facilmente riconoscibili e collimabili automaticamente. Per applicazioni in cui è richiesta
un’elevata accuratezza nelle misure è necessario inoltre considerare il fattore di
eccentricità. Una circonferenza infatti si proietta su un immagine come una ellisse il cui
centro non corrisponde al centro del target circolare. Il metodo del centroide consente di
determinare il centro dell’ellisse che non corrisponde quindi a quello del target circolare.
L’entità dell’eccentricità dipende tra gli altri fattori dalla dimensione del target,
dall’angolo tra l’asse ottico e il piano del target (è nulla a 90°, max a 60°) dalla scala
immagine, ecc. L’effetto dell’eccentricità è estremamente complesso da analizzare e si
assume che venga compensato dai parametri di orientamento interno ed esterno della
camera durante il calcolo del bundle adjustment.
2.5.2 METODI DI IMAGE MATCHING
I metodi di image matching sono utilizzati per individuare le corrispondenze tra punti
omologhi su due o più immagini utilizzando funzioni di similarità. L’intorno del punto di
riferimento è costituito generalmente da una finestra f rettangolare di pixel di cui il punto
di riferimento ne è il centro. Il punto sulla prima immagine può essere scelto
manualmente da un operatore oppure automaticamente (per esempio campionando
l’immagine con passo regolare, oppure con interest operator).
- 68 -
Capitolo 2
Texture mapping
Un metodo molto comune è quello che usa il coefficiente di cross-correlation. La
procedura calcola una misura di similarità tra una finestra sull’immagine di riferimento
f ( x, y ) (reference window) e altre finestre gi ( x, y ) (search window) sulle restanti
immagini attraverso il calcolo del coefficiente di cross-correlation normalizzato basato
sulle deviazioni standard e la covarianza:
σ fg
ρ fg =
σ f ⋅σ g
:
coefficiente di cross-correlation
(2.23)
Dove
σ fg =
∑ ( f
σf =
σg =
i
−f
)( g − g )
i
n
∑( f
i
−f
)
2
n
∑(g
i
−g
)
covarianza dei livelli di grigio delle due finestre f, g
deviazioni standard delle due finestre f, g
2
n
e
f ,g :
n:
media aritmetica dei livelli di grigio nelle due finestre f, g
numero di pixel nelle due finestre f, g
Nel metodo di cross-correlation la finestra di riferimento f viene fatta scorrere
sull’immagine in cui si vuole trovare il punto omologo memorizzando man mano i
coefficienti di correlazione. Un alto coefficiente di correlazione indica un’elevata
similarità. Il punto con coefficiente di correlazione massimo è considerato il punto
omologo. Per ridurre il tempo di calcolo e evitare inoltre errori grossolani e falsi punti
omologhi è possibile vincolare la ricerca alle linee epipolari come mostrato nel paragrafo
2.3.1.
La figura 2.5.12 mostra un esempio di oggetto misurato con tecniche di image matching
basato sulla cross-correlation. Sull’immagine di destra i punti sono colorati in funzione
del massimo coefficiente di cross-correlation (2.23) calcolato tra più stereo-coppie. La
colorazione in scala di grigi indica in bianco punti con alto valore del coefficiente di
cross-correlation, in nero punti con basso valore del coefficiente di correlazione. Dal
confronto tra l’immagine reale della pala e quella sintetica dei coefficienti di correlazione
- 69 -
Capitolo 2
Texture mapping
è possibile comprendere che, se la finestra f di riferimento include un’area con pixel dai
valori di grigio simili tra loro il coefficiente di cross-correlation risulta molto basso
rendendo di conseguenza
difficile la corretta individuazione delle corrispondenze
immagine.
Figura 2.5.12 – Immagine di un elica modellata con tecniche fotogrammetriche (a sinistra) insieme ai
punti derivanti dal processo di image matching basato sulla cross-correlation. La colorazione in scala di
grigio dei punti è proporzionale al valore del coefficiente di cross correlation (bianco = 1).
Metodi di image matching basati sulla cross-correlation consentono di ottenere
un’accuratezza di 1/10 pixel nella misura di punti omologhi.
Un altro metodo di image matching è quello denominato Least Square Matching
[Gruen, 1985] che impiega una trasformazione geometrica e radiometrica iterativa tra la
reference window f e la search window g al fine di minimizzare la somma dei quadrati
delle differenze tra i pixel delle due immagini. L’assunzione che viene fatta è che
entrambe le finestre f,g siano sufficientemente piccole da corrispondere ad aree piane
dell’oggetto. Sotto queste ipotesi la trasformazione geometrica iterativa tra le due finestre
può essere considerata con buona approssimazione quella affine (trasformazione piana a
sei parametri che comprende due rotazioni, due traslazioni, un parametro di scala e un
parametro che considera la non ortogonalità degli assi). Ai sei parametri geometrici sono
aggiunti uno o due ulteriori parametri radiometrica che vengono stimati con
compensazione ai minimi quadrati lineari utilizzando i valori di luminosità dei pixel delle
due finestre come osservazioni. Il modello matematico non è lineare e deve essere quindi
linearizzato in un intorno dei valori approssimati delle incognite ma ha una grande
ridondanza visto che tutti i pixel nelle finestre di ricerca sono usati come osservazioni per
stimare sei parametri (una finestra di ricerca di 21x21 pixel genera 441 osservazioni per 8
- 70 -
Capitolo 2
Texture mapping
incognite). Come tutti i metodi ai minimi quadrati consente una stima dell’accuratezza
nella misura delle corrispondenze dall’analisi della matrice di varianza-covarianza e la
possibilità di individuare e rimuovere possibili errori grossolani. L’accuratezza ottenibile
con il metodo Least Square Matching può raggiungere anche 1/100 di pixel. Per
minimizzare il tempo computazionale e ridurre la possibilità di errori grossolani è
possibile vincolare il centro della finestra di ricerca g alle linee epipolari [Gruen, 1985;
Baltsavias, 1991].
2.6
TEXTURE MAPPING
Come già ampiamente descritto nel capitolo uno, una volta effettuate le misure 3D,
indipendentemente dalla tecnica utilizzata (fotogrammetria, laser scanning, radar, sonar,
ecc.) il dato spaziale deve essere strutturato. Generalmente da una nuvola di punti (point
cloud) si passa a entità geometrica più o meno complesse come le superfici poligonali o
quelle NURBS. Il modello digitale tridimensionale descrive in questo modo soltanto le
proprietà geometriche dell’oggetto e non quelle qualitative. Il texture mapping consente
di
associare
informazioni
qualitative,
generalmente
fotografiche
al
modello
tridimensionale tramite il modello matematico delle equazioni di collinearità.
Se il modello tridimensionale è generato con tecniche di fotogrammetria digitale (per
esempio image matching), allora le immagini sono già orientate e le posizioni x′P, y′P
immagine dei punti X, Y, Z del modello 3D sono immediate utilizzando le equazioni di
collinearità (2.13). Se il modello è generato con altre tecniche ma si dispone di una o più
immagini è possibile calcolare l’orientamento interno e quello esterno delle immagini
rispetto al sistema di riferimento del modello 3D se sono riconoscibili sul modello e sulle
immagini un numero sufficiente di punti per utilizzare i metodi descritti nei paragrafi
2.2.1 e 2.2.2.
Se il modello 3D è costituito solo da punti è possibile associare ad ognuno di questi un
colore R,G,B; se il modello è strutturato secondo una superficie poligonale è possibile
eseguire una trasformazione prospettica tra piani immagine e piano dei poligoni
(triangoli, quadrilateri, ecc.). Il software di visualizzazione del modello con texture deve
però conoscere le coordinate dei punti oggetto e le rispettive coordinate immagine. Nelle
figura 2.5.13 è mostrato un esempio di texture mapping di punti e di superfici poligonali
generato con il software LAIM sviluppato dal sottoscritto in ambiente MATLAB.
- 71 -
Capitolo 2
Texture mapping
Figura 2.5.13 – Texture mapping di punti ( in alto, porzione non editata) e di superfici poligonali
(in basso, modello editato) di una barca a vela modellata
con tecniche di image matching.
Qualora l’oggetto sia strutturalmente complesso con superfici caratterizzate da
numerose discontinuità, è possibile che alcune sue parti non siano visibili su un'unica
immagine. Se sono disponibili più immagini dello stesso oggetto è possibile voler
scegliere quella in cui l’oggetto sia meglio visibile o non presenti ostruzioni. In tali casi è
necessario effettuare un’analisi di visibilità dell’oggetto sulle n immagini disponibili.
L’uso di numerose immagini comporta in genere problemi radiometrici dovuti alle
differenti condizioni di illuminazione e inclinazione delle superfici rispetto alla camera.
Maggiori dettagli sulle problematiche inerenti il texture mapping sono descritte in [Niem
- 72 -
Capitolo 2
Texture mapping
and Broszio, 1995; Debevec et al., 1996; Pulli et al., 1998; Rocchini et al., 2002;
Beauchesne and Roy, 2003; Kim and Pollefeys, 2004; Remondino and Niederoest, 2004].
- 73 -
Capitolo 3
Sistemi ottici attivi a scansione
Modellazione 3D con sensori ottici attivi
3.1 INTRODUZIONE
74
3.2 SISTEMI OTTICI ATTIVI A SCANSIONE
74
3.3 TECNICHE DI ALLINEAMENTO E REGISTRAZIONE
DI NUVOLE DI PUNTI
85
3.4 IL SISTEMA AIRBORNE LASER SCANNING
89
3.1 INTRODUZIONE
La misura di superfici e la modellazione 3D di oggetti di diverse dimensioni sono oggi
generalmente ottenute con tecniche a scansione tridimensionale mediante sistemi laser
scanning o a proiezione di luce strutturata, comunemente denominati sensori attivi per
distinguerli dai metodi fotogrammetrici che usano sensori passivi. Negli ultimi venti anni
c’è stato un enorme progresso nello sviluppo di digitalizzatori attivi (scanner) per la
misura senza contatto della superficie di oggetti ricevendo una grande attenzione, anche
dai non esperti del settore di rilievo e rappresentazione, nella documentazione e
modellazione tridimensionale. Potenti algoritmi e software per il processamento di dati
spaziali hanno dimostrato che lo studio e l’analisi metrica di oggetti reali è molto più
affidabile utilizzando modelli tridimensionali piuttosto che bidimensionali [Blais, 2004].
Nella loro configurazione standard per il rilievo di oggetti in applicazioni terrestri, tali
sistemi sono molto facili da usare fornendo velocemente e direttamente le coordinate 3D
di una o più nuvole dense di punti che rappresentano l’oggetto d’interesse da uno o più
punti di vista. I sensori attivi sono ciononostante ancora molto costosi e spesso non
consentono di registrare informazioni qualitative perché non dispongono di un sistema di
acquisizione immagine. In tali casi è necessario integrare con un sistema fotografico da
calibrare e orientare per via fotogrammetrica con le procedure descritte nel capitolo 2.
3.2 SISTEMI OTTICI ATTIVI A SCANSIONE
Negli ultimi anni sono stati sviluppati numerosi sistemi ottici attivi a scansione basati su
onde elettromagnetiche. Una descrizione dettagliata e approfondita esula dallo scopo di
questo lavoro, maggiori dettagli sono presenti in [Blais, 2004]. In generale i sistemi attivi
sono suddivisibili in due classi:
- 74 -
Capitolo 3
Sistemi ottici attivi a scansione
1. distanziometrici: effettuano misure 3D attraverso l’analisi di un impulso laser che
campiona con passo regolare la superficie dell’oggetto. Le coordinate polari dei
punti della superficie dell’oggetto sono rilevate in funzione della distanza e di
angoli misurati rispetto al sistema strumentale (Fig. 3.2.1). La distanza può essere
misurata in funzione del tempo di volo (TOF, time of flight ) impiegato da un
impulso laser, emesso dallo strumento, per compiere il tragitto emettitore
strumentale-oggetto-trasduttore strumentale (TOF, Time of Flight) oppure in
funzione della differenza di fase. Sono strumenti generalmente utilizzati per la
misura di oggetti di grandi dimensioni in un range di distanze comprese tra un
metro e qualche chilometro con accuratezza, funzione della distanza, compresa tra
qualche millimetro e alcuni centimetri.
2. triangolatori: effettuano misure 3D secondo il principio dell’intersezione in avanti
semplice o multipla attraverso l’analisi un un singolo punto di luce (1D), una linea
o una banda luminosa (2D) o un’area (2.5D). I sistemi attivi a triangolazione sono
generalmente costituiti da un sensore passivo (fotocamera digitale) e un emettitore
attivo (laser o proiettore di luce strutturata) posti a una distanza nota tra loro
(base). Operano generalmente in un range di distanze dall’oggetto compreso tra
10mm-5m. Basandosi infatti sul principio dell’intersezione in avanti l’accuratezza
delle misure degrada in funzione del quadrato della distanza dall’oggetto per cui
questi strumenti non consentono in genere di rilevare oggetti a una distanza
maggiore 10 m (con una base di 1 m). L’accuratezza nella misura dei punti è
generalmente compresa in un range 10-100 micron.
3.2.1 LASER SCANNER DISTANZIOMETRICI
I laser scanner distanziometrici sono sensori misuratori attivi di tipo opto-elettromeccanico che operano con banda di funzionamento tipicamente nell’infrarosso vicino.
Generalmente le lunghezze limite dell’intervallo della banda vanno dai 1064 nm ai 1540
nm ma non mancano nelle applicazioni di rilevamento batimetrico sensori operanti con
lunghezze d’onda caratteristiche di 530 nm (corrispondenti al Blu-Verde dello spettro del
visibile), data la loro capacità di penetrazione dell’acqua. Insieme alle coordinate 3D dei
punti alcuni strumenti registrano per ogni punto l’intensità con cui il raggio laser ritorna
al trasduttore, funzione delle proprietà fisiche e geometriche dell’oggetto (rugosità della
superficie, materiale di cui è costituito, ecc.) e dell’angolo con cui il raggio colpisce la
- 75 -
Capitolo 3
Sistemi ottici attivi a scansione
superficie. Inizialmente questi strumenti (TOF) furono sviluppati per la generazione di
modelli digitali tridimensionali del terreno nell’ambito di applicazioni cartografiche da
piattaforme aeree (Airborne Laser Scanning) ma il loro utilizzo si sta diffondendo sempre
di più nel settore del rilievo terrestre, dove vengono denominati laser scanner terrestri
(TLS, Terrestrial Laser Scanner), grazie soprattutto alla loro versatilità. I modelli che
misurano la distanza in funzione della differenza di fase sono più accurati e molto più
rapidi (fino a 500KHz) rispetto ai modelli TOF ma risentono molto dell’assorbimento
dell’energia diffusa dalla superficie dell’oggetto e hanno una gittata inferiore. Altri
modelli ancora usano la modulazione di frequenza e l’interferometria nella misura della
distanza tra lo strumento e l’oggetto, sono i più accurati ma in assoluto anche i più
costosi. I laser distanziometrici sono strumenti monoscopici, ovvero che consentono di
effettuare misure 3D da un solo punto di stazione strumentale e per tale motivo subiscono
in minore entità le problematiche dovute alle ostruzioni presenti con oggetti dalle
superfici strutturalmente complesse. Altre tecniche che si basano sulla triangolazione
(fotogrammetria, sistemi a scansione per triangolazione) richiedono infatti che l’oggetto
sia visibile da almeno due punti di vista differenti con problemi di ostruzioni ben
maggiori ( si pensi al caso di rilievo fotogrammetrico aereo di centri storici per i quali le
strade, molto strette sono spesso visibili su una sola immagine a causa dall’effetto
prospettico degli edifici).
Figura 3.2.1 – Sequenza di immagini raffiguranti un impulso laser nel percorso scanner-oggetto-scanner
in un laser scanner distanziometrico.
- 76 -
Capitolo 3
Sistemi ottici attivi a scansione
I laser scanner distanziometrici rilevano le coordinate tridimensionali cartesiane
x*, y*, z * rispetto al sistema strumentale O*x*y*z* a partire da misure angolari e di
distanza. Osservando la figura 3.2.2 si ha:
x* = ri spe ⋅ sin(ζ ) ⋅ cos(a )
y * = ri spe ⋅ sin(ζ ) ⋅ sin(a)
z = ri
*
spe
(3.1)
⋅ cos(ζ )
Che in forma matriciale diviene:
las
ri * = Rspe
⋅ ri spe
i
(3.2)
Dove:
ri spe :
è la distanza tra il centro strumentale (lo specchio rotante) e il punto;
a:
angolo orizzontale strumentale;
ζ :
angolo verticale strumentale
Figura 3.2.2 – Sistema di riferimento strumentale e grandezze misurate ( ri
spe
, a, ζ )
La misura della distanza negli strumenti che utilizzano il principio del tempo di volo
(TOF) avviene in funzione del tempo ∆t impiegato dall’impulso laser per percorrere alla
velocità della luce il percorso emettitore-oggetto-trasduttore, pari quindi a due volte la
distanza tra l’oggetto e lo strumento. La misura della distanza avviene quindi in funzione
della misura del tempo secondo la seguente relazione:
O* P* = ri spe =
c ⋅ ∆t
2
(3.3)
- 77 -
Capitolo 3
Sistemi ottici attivi a scansione
Oppure, per gli scanner che utilizzano il principio della differenza di fase ∆ϕ , la
seguente relazione:
O* P* = ri spe = n ⋅
λ ∆ϕ λ
+
⋅
2 2π 2
(3.4)
Dove
n:
ambiguità di fase;
λ:
lunghezza d’onda;
∆ϕ :
differenza di fase;
Sono stati effettuati negli ultimi anni diversi test di laser scanner distanziometrici
terrestri [Johansson, 2002, Lichti et. al., 2000, 2002, Balzani et. al., 2001] al fine di
studiarne le caratteristiche di accuratezza e affidabilità. Uno dei test più completi è quello
eseguito all’ Institute for Spatial Information and Surveying Technology di Mainz
(Germania) [Boehler et. al., 2003]. Dai test si evince che le specifiche di accuratezza
dichiarate dalle case produttrici dei laser scanner non sono veritiere o comunque non sono
esaustive. Molti di questi strumenti sono costruiti o assemblati in piccole serie (dato il
loro costo) e ne consegue che ognuno differisce dagli altri. Ogni nuvola di punti misurata
da un laser scanner contiene un numero considerevole di errori grossolani che non
consente di fornire un prodotto finale dall’affidabilità garantita. Nei test sono stati messi a
confronto diversi laser scanner di cui sono state analizzate alcune caratteristiche
strumentali e problematiche fondamentali:
1. accuratezza angolare : l’impulso laser è deviato da un piccolo dispositivo
rotante (specchio o prisma) che lo direziona (in genere l’angolo ζ in figura
3.2.1) verso l’oggetto. Il secondo angolo (in genere a in figura 3.2.1),
perpendicolare al primo, può essere fatto variare utilizzando un asse meccanico
rotante (per esempio testa rotante negli scanner panoramici) o un altro
dispositivo ottico rotante. Le letture di questi angoli sono usate per calcolare le
coordinate 3D dei punti secondo la (3.1). Ogni errore causato da tali dispositivi
angolari si ripercuote come errore perpendicolare alla direzione di propagazione
dell’impulso laser. L’errore può essere individuato confrontando le distanze
ricavate dalla nuvola di punti dello scanner con distanze note tra oggetti (per
esempio sfere) posti a uguali distanze dallo scanner e misurate con tecniche di
rilievo più accurate.
- 78 -
Capitolo 3
Sistemi ottici attivi a scansione
2. Accuratezza nella misura della distanza: gli errori nella misura della distanza
sono la somma di un errore di scala (funzione della distanza) e di un valore
costante denominato errore zero. Gli errori nella misura di distanze non possono
essere individuati con misura diretta se il centro strumentale dello scanner non è
in qualche modo rilevabile (come accade molti scanner). In tali casi nel test
l’accuratezza nella misura della distanza è stata analizzata come differenza di
distanze tra target planimetrici e volumetrici (cilindri e sfere) misurati con
tecniche di rilievo più accurate. L’errore zero influenza la misura delle distanze
tra due punti che sono collocati alla stessa distanza dallo scanner. La distanza tra
questi due punti, misurata indirettamente con lo scanner, subisce l’influenza
dell’errore zero che diviene nullo quando i due punti sono nella stessa direzione
dallo scanner, massimo (il doppio) quando sono a 180° rispetto allo scanner,
uguale all’errore zero quando questi sono a 60° rispetto allo scanner. Ciò vuol
dire che la misura dell’errore zero può essere ottenuta come differenza tra la
distanza misurata, mediante la nuvola di punti, tra due target posti a 60° tra loro,
e la distanza nota da altre tecniche più accurate. Poiché gli errori sistematici
variano in funzione della riflettività del materiale, non è possibile determinare un
fattore di correzione universale per l’errore zero. Motivo principale per cui non è
possibile ottenere una calibrazione generale per i laser scanner.
Un altro parametro importante nella misura della distanza è la rumorosità
(errori grossolani e precisione) di cui si può avere una stima effettuando la
scansione di un oggetto piano e calcolando il piano approssimante ai minimi
quadrati lineari la nuvola di punti. La deviazione standard ottenuta dalle
statistiche del procedimento ai minimi quadrati fornisce una stima della
rumorosità nella misura della distanza.
3. Risoluzione: il termine risoluzione assume talvolta un significato ambiguo. Dal
punto di vista dell’utente la risoluzione descrive “l’abilità” di individuare piccoli
caratteristiche e dettagli dell’oggetto. Da un punto di vista tecnico due specifiche
tecniche dei laser scanner determinano questa “abilità”, il più piccolo
incremento angolare tra due successivi punti e la dimensione dell’impronta
dell’impulso laser sull’oggetto, funzione della divergenza del raggio laser (a sua
volta funzione della messa a fuoco) delle lenti espressa in mrad. . Nel test la
risoluzione è stata studiata costruendo un particolare target mostrato in figura
- 79 -
Capitolo 3
Sistemi ottici attivi a scansione
3.2.3 insieme ad alcune sezioni delle nuvole di punti misurate con gli scanner
testati.
Target di dimensioni
(300x300x50) mm
Pannello anteriore con fessure
che si restringono verso il
centro.
Larghezza max fessure: 30 mm
Figura 3.2.3 – Test di risoluzione degli scanner
4. Effetto sui bordi: anche quando il raggio laser è messo a fuoco sull’oggetto
(alcuni laser scanner dispongono di un sistema ottico con messa a fuoco
automatica), l’impronta laser (spot) ha una certa dimensione. Quando l’impronta
colpisce il bordo di un oggetto, una sua parte sarà riflessa dalla superficie
delimitata dal bordo e la restante parte sarà riflessa da superfici adiacenti a
distanza differente o non riflessa affatto. L’effetto risultante è un errore sia sulla
distanza misurata dallo scanner (da pochi millimetri ad alcune decimetri) sia sul
poszionamento del punto. Gli oggetti appaiono rappresentati nel sistema
strumentale più larghi di quello che sono nella realtà perché il punto è registrato
nella posizione angolare del centro del raggio anche se l’oggetto è colpito
soltanto dalla parte periferica dell’impronta. Minore è la dimensione
- 80 -
Capitolo 3
Sistemi ottici attivi a scansione
dell’impronta laser (sistemi con messa a fuoco automatica), minore è l’effetto di
bordo.
5. Influenza della riflettività della superficie: i laser scanner sono legati al segnale
che torna indietro al trasduttore dalla superficie dell’oggetto. La potenza del
segnale è influenzato tra gli altri fattori dalla distanza, condizioni atmosferiche,
angolo di incidenza e dal potere riflettente della superficie (albedo). Superfici di
colore bianco sono altamente riflettenti, superfici nere assorbono notevolmente
l’energia. L’effetto delle superfici di diverso colore è funzione delle
caratteristiche spettrali del raggio laser (lunghezza d’onda del verde, rosso,
infrarosso). E’ stato osservato durante i test che superfici di diverso colore
comportano errori sistematici nella misura della distanza in alcuni casi anche
diverse volte la deviazione standard dichiarata dai costruttori, alcuni di questi in
zone di passaggio tra superfici di colore differente.
6. Condizioni ambientali: temperatura, condizioni atmosferiche (pressione,
umidità) e radiazione luminosa (luce del sole, lampade) in generale influiscono
sulla misura della distanza degradandone l’accuratezza.
3.2.2 SISTEMI OTTICI 3D A TRIANGOLAZIONE
I sistemi ottici attivi a triangolazione funzionano secondo il principio dell’intersezione
in avanti semplice o multipla e sono costituiti, nelle configurazioni più comuni, da un
emettitore attivo di onde luminose, tipicamente a impulsi laser o a proiezione di luce
strutturata e da uno o più sensori passivi (CCD o CMOS) posti ad una distanza nota
(base). Questi sistemi hanno un funzionamento molto simile a quello fotogrammetrico
con la differenza che una fotocamera è sostituita da un emettitore di luce(Fig. 3.2.4).
Figura 3.2.4 –Scansione di oggetti con luce strutturata (sinistra) e linea laser (destra).
- 81 -
Capitolo 3
Sistemi ottici attivi a scansione
Osservando la figura 3.2.5, nel caso semplificato di un oggetto nel piano Oxz
strumentale e impulso luminoso puntiforme, le coordinate 3D di un punto P sono date
dalle seguenti relazioni:
z=
D ⋅ s′′
p + s′′ ⋅ tan α
x = z ⋅ tan α
y=0
(3.5)
Dove
D:
distanza tra emettitore e base;
α:
angolo orizzontale di direzione del raggio luminoso;
s″:
distanza principale dell’obbiettivo;
p:
posizione della proiezione del punto sul sensore digitale.
Figura 3.2.5 – Schema di rilevamento per gli scanner triangolatori.
Gli scanner triangolatori che usano un emettitore laser sono generalmente di tre tipi a
seconda che il raggio laser illumini l’oggetto per punti, profili o aree (Fig. 3.2.6). Una
classificazione dettagliata di sistemi a scansione per triangolazione è descritta in [Blais,
2004]. L’errore σ z nella misura della profondità z è ottenuta differenziando la (3.5) in
funzione dell’errore nell’individuazione della posizione del centroide dello spot laser
σ p secondo la seguente relazione:
z2
σz =
σp
s ′′ ⋅ D
- 82 -
(3.6)
Capitolo 3
Sistemi ottici attivi a scansione
Da cui si evince che l’errore nella misura della profondità aumenta con il quadrato della
distanza e diminuisce aumentando la distanza principale dell’obbiettivo e la base di presa
D. La risoluzione dei laser scanner (abilità nel distinguere caratteristiche degli oggetti
molto prossime tra loro) così come l’accuratezza nella misura della profondità z sono
molto variabili in funzione delle caratteristiche strumentali. Il range operativo di distanze
per questi strumenti è tipicamente compreso tra qualche millimetro e alcuni metri a causa
dei limiti imposti dalla (3.6) sulla distanza e considerato anche che la base di presa D è
fissa per costruzione. La risoluzione in xy dei sistemi ottici laser basati sulla
triangolazione è limitata dalla diffrazione della luce laser. Anche nelle migliori
condizioni di emissione (punto singolo) minore è il diametro dello spot, maggiore è
l’effetto di divergenza prodotto dalla diffrazione. La diffrazione impone inoltre dei limiti
anche nella direzione z: aumentando la potenza del laser aumentano gli effetti di
interferenza, noti come effetto speckle, che limitano il potere risolvente del sensore (Fig.
3.2.7). L’effetto speckle, a causa del quale non è quindi possibile diminuire oltre una
certa soglia la dimensione dell’impronta laser sull’oggetto, genera una distribuzione
disomogenea dell’intensità luminosa nell’impronta laser che introduce degli errori nella
determinazione del centroide sul sensore digitale (si veda a proposito il paragrafo 2.5.1
del capitolo 2).
La risoluzione nel piano Oxy è in genere limitata dall’effetto ottico di interferenza
denominato effetto speckle a causa del quale non è possibile diminuire oltre una certa
soglia la dimensione dell’impronta laser sull’oggetto..
Figura 3.2.6 – Tipologie di laser scanner triangolatori.
Figura 3.2.7 –
Effetto speckle di uno spot laser verde
Questo tipo di sistemi fornisce risoluzione laterale in xy tipicamente di 50 micron e
un’accuratezza nella direzione della profondità a partire da 10 micron.
- 83 -
Capitolo 3
Sistemi ottici attivi a scansione
Tra le diverse fonti di errore che influenzano le misure di un sistema laser a
triangolazione le più importanti sono [Blais et al., 2005]:
§
capacità di penetrazione nella superficie del raggio laser: raramente studiato
questo effetto causa la diffusione di parte del segnale a diversa profondità a
causa delle caratteristiche del materiale (Fig. 3.2.8, sinistra). Uno studio di tale
effetto su superfici di marmo è presentato in [Godin et al., 2001].
§
Range artifacts: sono errori nella misura delle coordinate z e vengono generati
quando lo spot laser illumina un bordo tra due superfici(Fig.3.2.8, centro) a
diversa profondità (per esempio uno scalino) o zone con colorazione differente
(per esempio dal bianco al nero) (Fig.3.2.8, destra). In tali casi l’impronta del
laser subisce delle deformazioni che causano errori nella determinazione del
centroide.
Figura 3.2.8 – Errori che influenzano le misure di un sistema laser a triangolazione.
Ulteriori errori che influenzano i sistemi a scansione per triangolazione sono quelli
introdotti dagli errori di tipo meccanico (per esempio la rotazione degli specchi) e quelli
causati dalle condizioni ambientali (temperatura, umidità), entrambi elencati nel
paragrafo precedente. I sistemi ottici a scansione per triangolazione sono in genere
utilizzati per oggetti di piccole dimensioni, nel settore dei beni culturali, in modellazione
meccanica, per la prototipazione, ecc..
I sistemi a triangolazione rispetto a quelli
distanziometrici risentono molto dell’effetto dovuto a ostruzioni e ombre subite dal
raggio emesso o da quello diffuso dalla superficie dell’oggetto (Figura 3.2.9).
- 84 -
Capitolo 3
Tecniche di allineamento e registrazione di nuvole di punti
Figura 3.2.9 – Zone in ombra nei sistemi
a triangolazione.
3.3 TECNICHE DI ALLINEAMENTO E REGISTRAZIONE DI NUVOLE DI PUNTI
I laser scanner terrestri (distanziometrici e triangolatori) forniscono come risultato della
sessione di scansione una nuvola di punti noti nelle tre coordinate spaziali. Alcuni
scanner possono fornire insieme al dato spaziale anche informazioni radiometriche
sull’oggetto come l’intensità di risposta del raggio laser e/o il colore (per i sistemi che
integrano una fotocamera). I sistemi a scansione sono in genere molto semplici da
utilizzare, bisogna impostare alcuni parametri strumentali e posizionare lo strumento in
modo che “guardi” l’oggetto (entro le distanze consentite dalle caratteristiche
strumentali). In generale, anche per oggetti semplici, una sola scansione difficilmente
fornisce sufficienti informazioni metriche per una corretta e completa modellazione per
cui sono necessarie più sessioni di scansione con lo strumento che “guarda” l’oggetto del
rilievo da più punti di stazione. In presenza di oggetti molto complessi (statue, interni di
edifici) o molto estesi (per esempio vasti siti archeologici) il numero di scansioni (di
conseguenza quello dei punti rilevati), può divenire davvero molto cospicuo. Ogni
sessione di scansione genera una nuvola di punti riferita al sistema di riferimento
(reference system, RS) strumentale nel punto di stazione con orientamento in genere non
noto se non con approssimazione e ha quindi sei gradi di libertà nello spazio. L’unione
delle scansioni in un unico RS richiede una rototraslazione a sei parametri per ogni
nuvola di punti. Includendo anche il parametro di scala la trasformazione è la (2.11) del
capitolo precedente, nota come trasformazione di Helmert (similarity transformation):
- 85 -
Capitolo 3
Tecniche di allineamento e registrazione di nuvole di punti
 X   X O* 
 r11
 Y  =  Y  + λ r
   O* 
 21
 Z   ZO* 
 r31
r12
r22
r32
r13   x* 
 
r23   y * 
r33   z * 
(3.7)
Dove
[X
Y
 x*
y*
 X O*
Z]
T
z * 
YO*
T
:
coordinate della nuvola di punti nel RS globale;
:
coordinate della nuvola di punti nel RS strumentale;
T
Z O*  :
coordinate del centro strumentale nel RS globale;
λ
:
fattore di scala;
rij
:
elementi della matrice di rotazione (si veda il paragrafo 2.1.4)
. L’operazione è molto simile a quella fotogrammetrica di orientamento relativo o
assoluto esterno delle fotocamere. In generale due procedure sono utilizzate per l’unione
delle nuvole di punti:
1. registrazione con reference point: necessita di almeno tre punti di riferimento di
cui siano note le coordinate nel RS globale e che siano ben riconoscibili sulla
nuvola di punti. Le coordinate di questi punti “doppi” (noti in entrambi i RS,
strumentale
e
globale)
sono
inserite
come
osservazioni
nelle
(3.7)
opportunamente linearizzate in un intorno dei valori approssimati delle incognite
oppure utilizzando altri modelli matematici come i quaternioni [Luhmann, 2006]
o metodi procutiani [Crosilla 1999, 2000, 2001]. La determinazione delle
coordinate dei punti di riferimento può avvenire con metodi topografici o
fotogrammetrici [Guidi et al., 2005; Fiani et al., 2008]. La misurazione delle
coordinate dei punti di riferimento sulla nuvola di punti viene in genere
effettuata con metodi di best fit nel caso di target volumetrici (coni, piramidi,
sfere) o con tecniche derivate dall’image processing come il centroide nel caso
di target fotogrammetrici piani ma necessita di informazioni aggiuntive
radiometriche per il riconoscimento dei target piani [Guidi et al., 2005; Fiani et
al., 2008]. Le nuvole di punti, con il metodo della registrazione con reference
point, sono orientate singolarmente rispetto al RS globale per cui non è richiesta
alcuna sovrapposizione tra le scansioni adiacenti.
2. allineamento relativo tra nuvole di punti: le nuvole di punti sono orientate a
coppie o globalmente. Il RS di una nuvola viene considerato fisso (quindi
- 86 -
Capitolo 3
Tecniche di allineamento e registrazione di nuvole di punti
globale) e tutte le altre (mobili) vengono orientate rispetto ad esso. E’ necessario
che vi sia una certa percentuale di sovrapposizione tra le nuvole di punti ovvero
che parti dell’oggetto siano scansionate almeno due volte consentendo di
determinare dei criteri geometrici di similarità tra le nuvole di punti. Un metodo
è quello che fa uso, come nella registrazione, di almeno tre punti “doppi” (o
punti omologhi), noti nel RS della nuvola di punti fissa e in quella mobile
misurati mediante tecniche di best fit di target volumetrici oppure con il
centroide. Altri metodi automatici mirano invece all’individuazione dei rispettivi
punti omologhi nella zona di sovrapposizione tra le nuvole di punti o ancora
muovono iterativamente la nuvola di punti mobile, a partire da un
approssimazione iniziale dei sei parametri di rototraslazione, allo scopo di
minimizzare una funzione obiettivo. Il procedimento in questi casi diviene
molto più simile a quello di image matching accennato nel capitolo 2 e prende il
nome di surface-matching.
Il metodo della registrazione con reference point è consigliabile qualora le superfici
degli oggetti rilevati siano “lisce” (carene di navi, scocche di automobili, fusoliere di
aeroplani) poiché in questi casi gli algoritmi di surface-matching non garantiscono
l’affidabilità dei risultati [Guidi et al., 2005; Fiani et al., 2008]. La registrazione mediante
target diviene anche necessaria quando l’oggetto, per le sue caratteristiche geometriche,
non consente di essere rilevato con sovrapposizione sufficiente tra le scansioni (per
esempio parti simmetriche di una carena). In tutti gli altri casi altri casi i metodi
automatici o di allineamento relativo tra coppie divengono più convenienti (è richiesto
solo il rilievo laser) e sono oggi in pratica quelli più utilizzati.
3.3.1 METODI DI ALLINEAMENTO SURFACE-MATCHING
Lo studio di metodi che consentissero di registrare automaticamente una superficie (o
una curva) nota in un RS, su superfici omologhe in un altro RS è un problema ben noto
alla Computer Vision già nei primi anni ’80 del XX secolo. Le richieste giungevano
sopratutto dall’industria automobilistica e aeronautica per il controllo di qualità e in
ambito di progettazione per consentire il confronto tra superfici NURBS e nuvole di punti
(misurate ad esempio con CMM) e fu così che le prime dimostrazioni di surfacematching furono fatte proprio in ambito automobilistico.
- 87 -
Capitolo 3
Tecniche di allineamento e registrazione di nuvole di punti
Il metodo oggi più diffuso per l’allineamento di superfici è quello che utilizza
l’algoritmo denominato Iterative Closest Point (ICP) [Besl & McKay, 1992] oggi
implementato nella quasi totalità di software commerciali. L’algoritmo originario
funziona su coppie di nuvole di punti, nuvola di punti (mobile) e superficie matematica,
superfici parametriche o polilinea o ancora qualsiasi altra forma che consenta di
determinare per ogni punto della nuvola “mobile” il punto più vicino (closest point).
L’algoritmo parte da un set approssimato di rotazioni e traslazioni che l’utente deve
fornire (in genere collimando un numero minimo di punti omologhi) e applica in modo
iterativo una roto-traslazione rigida nello spazio alla nuvola di punti mobile, affinché si
sovrapponga nel miglior modo possibile all’altra nuvola, considerata fissa. Il metodo è un
cosiddetto punto-punto, che si contrappone al metodo punto-piano sviluppato da Chen e
Medioni [Chen & Medioni, 1992]. In entrambi i metodi adottati, la registrazione avviene
tramite la ricerca del minimo di una funzione obiettivo.
Nel primo metodo (metodo punto-punto) questa funzione è data dalla somma dei
quadrati delle distanze dei punti corrispondenti delle nuvole. I punti corrispondenti si
definiscono come la coppia formata da un punto di una nuvola e quello più vicino
appartenente alla nuvola opposta. Nel secondo metodo (punto-piano), pur rimanendo la
stessa struttura della funzione obiettivo, sono da minimizzare però le distanze tra i punti
di una nuvola ed i piani di best-fit passanti per i punti dell’altra.
Un’alternativa a questo metodo è rappresentato dal 3D Least Square Matching, che
rappresenta un’evoluzione nella tridimensionalità del metodo del Least Square Image
Matching [Grün, 1985]; per dettagli vedere in riferimento bibliografico [Akca & Grün,
2004]. In generale questo metodo stima i parametri della trasformazione spaziale fra due
o più patches tridimensionali minimizzando la distanza euclidea fra le superfici con
metodo ai minimi quadrati lineari. Questa formulazione dà l’opportunità di cercare la
corrispondenza fra superfici orientate in modo arbitrario. Un’equazione alle osservazioni
viene scritta per ogni elemento, per esempio per ogni punto del patch 3D selezionato e di
cui si vuol trovare il corrispondente. La relazione geometrica tra i patches coniugati è
definita da una trasformazione 3D spaziale a 7 parametri; i parametri incogniti di questa
trasformazione sono trattati come quantità stocastiche, utilizzando pesi appositi.
- 88 -
Capitolo 3
Il sistema Airborne Laser Scanning
3.4 IL SISTEMA AIRBORNE LASER SCANNING
La tecnica del laser scanning nel settore del telerilevamento del territorio è molto
recente, ma le sue prime applicazioni vanno fatte risalire agli anni ’70 con il sistema APR
(Airborne Profile Recorder). L’apparato opto-elettronico [De Joinville et al., 2003] era
costituito da un laser ad impulsi ( o un distanziometro radar) con il quale si effettuavano
registrazioni di quote secondo sezioni del terreno. Il sistema laser ad impulsi inviava
segnali in direzione nadirale con cui
strumentale;
otteneva la distanza degli oggetti dal centro
la georeferenziazione plano-altimetrica delle quote avveniva tramite
l’utilizzo integrato dei sistemi di navigazione dell’aereo (“navigazione a vista” e altimetro
barometrico) le cui attendibilità sul posizionamento erano di scarsa qualità.
La precisione offerta dalle misure risultava quindi scadente e le applicazioni assai
limitate, dato che, per ottenere un modello del terreno sufficientemente denso di quote,
occorrevano diverse strisciate di volo.
Negli ultimi anni, la tecnica del laser scanning, detta anche LIDAR (Light Detection
And Ranging) ha conosciuto importanti sviluppavi nel settore del telerilevamento del
territorio; ciò è dovuto principalmente ad importanti conoscenze maturate nell’ambito di
due fondamentali tecnologie: i sistemi elettro-meccanici, che hanno migliorato la
precisione nella determinazione della posizione dei punti (rispetto allo strumento) e i
sistemi di posizionamento globali (GPS, GLONASS) insieme con i sistemi inerziali INS
(INertial System), che hanno migliorato la loro georeferenziazione. Negli scanner
aerotrasportati infatti, detti anche ALS (Airborne Laser Scanning), la posizione e l’assetto
del centro strumentale, ovvero l’origine del sistema (Oxyz )* , è continuamente variabile
nel tempo, e la sua conoscenza è indispensabile per l’utilizzo dei dati spaziali rilevati,
altrimenti inservibili.
Il sistema, trasportato su aereo o elicottero (e schematizzato in figura 3.4.10), è
costituito dalle seguenti parti:
• Telemetro laser o LRF (Laser Range Finder): l’apparato emette impulsi ad
altissima frequenza (fino a 83 kHz) e della durata di pochi nanosecondi; questi,
riflessi dal terreno, ritornano allo strumento che valuta così le distanze, in
funzione del tempo di volo;
- 89 -
Capitolo 3
Il sistema Airborne Laser Scanning
• Ricevitore GPS (o GLONASS) differenziale in modalità cinematica, a bordo del
velivolo, associato alla stazione di riferimento a terra; permette la
determinazione delle coordinate del centro strumentale;
• Sistema di navigazione inerziale INS (Inertial Navigation System oggi anche
IMU: Inertial Measurement Unit) è costituito da tre accelerometri e tre giroscopi
che valutano i parametri (ϕ , ω , κ ) dell’assetto del velivolo;
• Camera fotografica digitale con asse ottico nadirale e con campo di vista più
ampio rispetto a quello dello scanner; talvolta è presente una seconda camera (o
telecamera) con asse ottico rivolto a 45° in avanti. É d’ausilio nella fase di post
processamento per la classificazione semiautomatica dei punti (evitando la fase
di ricognizione a terra) o utilizzata per la generazione di ortofoto digitali,
immagini solide ecc..
Figura 3.4.10 – Il sistema airborne laser scanning
- 90 -
Capitolo 3
Il sistema Airborne Laser Scanning
A differenza dei laser scanner terrestri in cui lo strumento, fisso nella posizione O* ,
rileva i tre parametri ri spe , ζ , a, i laser scanner aerotrasportati (con specchio rotante
attorno ad un asse) valutano soltanto la distanza ri spe e l’angolo di rotazione dello
specchio. Il pattern di distribuzione dei punti a terra è una combinazione dei moti dello
specchio e dell’aeromobile; se non fosse nota per ogni istante di ritorno degli impulsi, la
posizione e l’assetto dello strumento i punti rilevati sarebbero posizionati sempre nel
piano (Oyz )* ; si veda la figura 3.4.11.
Figura 3.4.11 – In assenza di trasporto delle
coordinate strumentali, i punti rilevati si dispongono
tutti nel piano (Oyz )*
Al fine di ottimizzare la densità e l’omogeneità dei punti 3-D al suolo sono state messe
a punto dalle varie case costruttrici tecnologie differenti che permettono diverse tipologie
di scansione del terreno. Le principali sono le seguenti [De Joinville et al., 2003]:
I.
Specchio oscillante: l’emettitore invia gli impulsi su uno specchio che oscilla
(ruota) intorno ad un asse concorde con quello di volo. La sequenza di punti
rilevati avviene secondo linee a “zig-zag“ (linee parallele) intersecanti l’asse
della strisciata di volo. È il sistema più utilizzato dalle case costruttrici (Optech e
LHS), si veda la figura 3.4.12 ;
- 91 -
Capitolo 3
II.
Il sistema Airborne Laser Scanning
Fasci di fibre: è il sistema adottato dalla casa tedesca TopoSys; si presenta sotto
la forma di un pennello di fibre ottiche (centoventotto, attualmente) nelle quali
gli impulsi laser sono distribuiti ad elevatissima frequenza (83 kHz) da un
motore rotativo. Questo sistema performante, presenta malgrado tutto,
l’inconveniente d’avere una ripartizione dei punti più densi nel senso della
traiettoria di volo che in quella perpendicolare (circa 20 cm a 1000 m per 1.2 m
perpendicolarmente alla traccia); si veda la figura 3.4.12;
Figura 3.4.12 – Principio dello specchio oscillante (sinistra) e del fascio di fibre
destra (©TopoSys).
Due tecniche sono attualmente in fase di sperimentazione dall’università di Stuttgart,
esse mirano ad ottenere una ripartizione più omogenea al suolo:
III.
Specchio rotante ad asse inclinato: lo specchio ruota attorno ad un asse
leggermente inclinato, generando una deviazione del fascio e delle tracce al
suolo ellittiche. Questo principio, chiamato ScaLARS, sembra migliorare
notevolmente l’omogeneità della ripartizione di punti al suolo.
IV.
Poligoni in rotazione: questo sistema, combinando diversi specchi in rotazione
attorno ad un asse, produce linee parallele. Usa lo stesso principio dello specchio
oscillante ma senza ritorno.
La ripartizione dei punti a terra consegue direttamente dalla combinazione di quattro
fattori: frequenza degli impulsi, velocità della piattaforma, velocità angolare dello
- 92 -
Capitolo 3
Il sistema Airborne Laser Scanning
specchio (per i modelli che ne sono dotati, che sono i più diffusi) e sua escursione
angolare massima.
I quattro parametri sono correlati tra loro, ed è molto difficile stimare i loro valori
osservando un campione di dati, poiché una distribuzione tipica di punti potrebbe
scaturire da diverse configurazioni dei parametri. Per fare un esempio, consideriamo la
distribuzione di punti in figure 3.4.12: lo stesso campione si sarebbe potuto ottenere con
le seguenti configurazioni:
1. Frequenza elevata, velocità dell’aeromobile elevata (ad una quota di volo bassa),
velocità angolare dello specchio elevata e sua escursione angolare massima
grande (elevato angolo di campo).
2. Frequenza bassa, velocità dell’aeromobile bassa (ad una quota di volo elevata),
velocità angolare dello specchio bassa e sua escursione angolare massima di
piccola entità (angolo totale di campo, piccolo);
La situazione è del tutto analoga a quella che si ha in fotogrammetria con la scala del
fotogramma (si veda a tal proposito il capitolo dedicato alla fotogrammetria) : unendo
una bassa quota di volo ed una focale di tipo grandangolare si ottiene la stessa scala
fotogramma ottenibile con una quota relativa di volo più elevata e una focale di tipo
normale. Quello che varia tra le due configurazioni è la geometria di presa: nel primo
caso “assomiglia” di più a una proiezione ortografica, nel secondo la proiezione
prospettica prevale; di conseguenza nel primo caso il numero di occlusioni dovute alla
geometria di presa è inferiore rispetto al secondo, e sarebbe preferibile nelle zone
fittamente edificate o nelle aree boschive, ma subisce le problematiche dovute alla più
elevata quota di volo ( rifrazione, spesa elevata di carburante) con una conseguente
minore risoluzione e attendibilità sulle misure.
Le analogie con la fotogrammetria sono ancora tantissime ma esulano dagli scopi di
questo lavoro, per cui si rimanda ai testi specifici in bibliografia. Ritornando ai parametri
suddetti, l’ esempio posto è del tutto teorico, dal momento che molti di essi non sono
modificabili ma imposti dal costruttore e variabili da modello a modello; ciò che
generalmente è possibile modificare (oltre alla evidente velocità dell’aeromobile) è
l’angolo totale di campo, seppure ad intervalli specifici (si veda la tabella 3.4.A) .
- 93 -
Capitolo 3
Il sistema Airborne Laser Scanning
Parametri Tecnici
Frequenza degli impulsi
Tipicamente da 50 a 100 kHz, fino a 200 kHz
Angolo di scansione
Tipicamente da 10° a 45°, 75° al massimo
Frequenza di scansione
Qualche centinaio di linee per secondo
Numero di eco registrate
per impulso emesso
Fino a 5, in ambiente boschivo
Frequenza
di
acquisizione delle misure
GPS/INS
GPS: da 1 a 50 Hz, INS: 50- 200 Hz
Divergenza
laser
Dell’ ordine dei 0.5 mrad corrispondenti a circa 50 cm al suolo
per una quota relativa di 1000m
del
fascio
Parametri di volo
Altezza di volo
Da 100 fino a 3000 m, al massimo 6000m
Vettore
Elicottero o aereo
Densità
punti
Larghezza
banda
dei
di
2
Da 0.1 a 25 punti per m .
Circa 580 m per un angolo di scansione di ± 20° e un’ altezza di volo di 800
m 2400 m per un angolo di scansione di 45° e un’ altezza di volo di 3000 m
Tabella 3.4.A - Parametri tecnici e di volo dei sistemi ALS
Una peculiarità tipica dei laser scanner aerotrasportati, è la possibilità di acquisire
informazioni aggiuntive quali:
• Eco multiple: relativamente ad uno stesso impulso inviato, le onde elettromagnetiche
possono essere parzialmente riflesse (è il caso di corpi come le foglie o gli spigoli
degli edifici); una parte di esse ritorna al trasduttore e una parte continua il tragitto
iniziale (Fig. 3.4.13). Si ottengono così delle risposte multiple (generalmente due) che
forniscono importanti informazioni ausiliarie di notevole aiuto per la classificazione
geometrica dei punti nella fase di post-processing;
- 94 -
Capitolo 3
Il sistema Airborne Laser Scanning
Figura 3.4.13 – Principio delle eco multiple (sinistra) ed esempio di prime eco sulle foglie degli alberi in
una zona rurale rilevata con ALS (destra, software LAIM).
• Radiometria: gli scanner più recenti permettono di registrare l’intensità di risposta
con cui il segnale giunge allo strumento (Fig. 3.4.14). È strettamente legata al tipo di
materiale, alla sua distanza e all’angolo con cui il raggio laser incide sulla superficie.
È anch’esso di notevole importanza per la fase di post processamento fornendo
ulteriori indizi circa i corpi rilevati.
Figura 3.4.14 – Esempio di dati ALS con colorazione dei punti in funzione dell’intensità radiometrica
della risposta laser (destra). A sinistra gli stessi punti colorati in funzione della quota.
- 95 -
Capitolo 3
Il sistema Airborne Laser Scanning
3.4.1 I SISTEMI GPS-INS
Nei laser scanner aerotrasportati, la posizione del centro di presa strumentale O* e i
versori degli assi della terna (Oxyz )* sono funzioni del tempo (le direzioni da essi
individuati mutano continuamente), a causa del moto della piattaforma. In assenza di
informazioni relative alla posizione e all’assetto del centro strumentale l’intero set di
dati rilevati si disporrebbe, come già accennato in precedenza, su una retta.
La georeferenziazione dei dati avviene così attraverso l’utilizzo integrato dei sistemi
di posizionamento (GPS in modalità differenziale cinematico) e inerziale (INS o anche
IMU). A differenza del rilevamento fotogrammetrico, costituito dalle fasi di
“orientamento delle immagini” e di “restituzione dei punti”, il rilevamento laser fa
riferimento ad un’unica fase di “georeferenziazione dei dati”. In figura 3.4.14 è
illustrato lo schema geometrico del rilievo di un generico punto oggetto i incognito (in
rosso), distinguendo le grandezze misurate con gli strumenti di navigazione (in blu),
con il sensore laser (in Magenta) e mediante procedure di calibrazione (in verde).
Figura 3.4.14 - La georeferenziazione diretta dei punti rilevati nei sistemi ALS.
map
La posizione incognita ri si può considerare come il vettore risultante delle tre
trasformazioni sotto-indicate [Crosilla et al., 2005]:
- 96 -
Capitolo 3
Il sistema Airborne Laser Scanning
map
map
, rgps
1. Roto-traslazione Rins
/ ins dal map-frame all’INS-frame (detto anche
map
body frame): il vettore di traslazione istantanea rgps
/ ins è calcolato mediante
l’integrazione delle misure GPS cinematiche con le misure accelerometriche
inerziali (INS) tipicamente ottenute mediante sofisticati algoritmi tipo filtro di
Kalman. Gli angoli d’assetto sono invece misurati mediante giroscopi
vert
inerziali e sono introdotti nella matrice di rotazione istantanea Rins
; questa
map
local
premoltiplicata per le matrici Rlocal
e Rvert
, note ad ogni istante, fornisce la
matrice
map
map
local
vert
Rins
= Rlocal
⋅ Rvert
⋅ Rins
.
Si
effettua
così
la
cosiddetta
”georeferenziazione diretta” di un sensore, fissato rigidamente al vettore,
sulla base delle sole misure di navigazione. Il sistema inerziale permette di
determinare la posizione e l’assetto dell’aeromobile con una frequenza
generalmente di 100 Hz (fino a 500 Hz). Il GPS acquisisce con una frequenza
tipica di 1 Hz (fino a 50 Hz) consentendo di annullare la deriva nel
posizionamento mediante gli accelerometri, crescente nel tempo.
ins
2. Roto-traslazione Rlas
, rlasins dall’ INS-frame al Laser-frame: il vettore di
ins
fra il centro del sistema inerziale e
traslazione (eccentricità) costante alas
quello laser va accuratamente misurato in modo diretto (se ciò è possibile)
oppure determinato in fase di calibrazione del sistema, così come gli angoli di
rotazione fra i due sistemi introdotti nella matrice. L’influenza di questi
parametri diventa non trascurabile nei rilievi ad alta densità e può dar luogo
ad errori di tipo sistematico lungo la traiettoria descritta dall’aeromobile.
3. Traslazione ri* dal LASER-frame al punto oggetto i: questo valore istantaneo
è ottenuto dalla proiezione del vettore misurato del laser ri spe per la matrice
las
Rspe
della rotazione dello specchio. La georeferenziazione dei dati laser può
essere come una combinazione delle tre trasformazioni 3D map-frame INSframe Laser-frame punto oggetto, riassunte da:
map
map
ins
las
spe
ins
ri map = rgps
+ alas
]
/ ins + Rins ⋅ [ Rlas ⋅ Rspei ⋅ ri
- 97 -
(3.8)
Capitolo 3
Il sistema Airborne Laser Scanning
da cui si evince che il posizionamento dipenda dalla combinazione di sei grandezze
vettoriali, quattro delle quali variabili istantaneamente. Quest’ultime sono misurate
con frequenze assai diverse: dell’ordine di alcuni Hz per il GPS, dei 500 Hz per l’INS
e delle centinaia di kHz per il laser. Si dovrà allora procedere per interpolazione
temporale dei dati GPS e INS con l’introduzione di ulteriori e inevitabili errori (dovuti
per esempio all’asincronia degli orologi).
La precisione offerta dalle misure, combinazione degli errori suddetti e di ulteriori a
carattere geometrico, permette comunque di soddisfare esigenze cartografiche anche a
grande scala, rimanendo sempre al di sotto dell’ errore di graficismo.
- 98 -
Capitolo 4
Sperimentazione
Modellazione del territorio: il software LAIM
4.1 INTRODUZIONE
99
4.2 UN TIPICO FLUSSO DI ELABORAZIONE PER LA GENERAZIONE
DI MODELLI TRIDIMENSIONALI DEL TERRENO
CON IL SOFTWARE LAIM
101
4.3 PROBLEMATICHE INERENTI LA SELEZIONE DEI PUNTI SEME:
CONFRONTO LAIM – TERRASCAN
4.4 IL TEST ISPRS DELL’ALGORITMO PBTIN
115
116
4.5 UN ESEMPIO DI UTILIZZO DEL SOFTWARE LAIM PER LA
MODELLAZIONE DI UNA FRANA DA DATI
LASER SCANNING TERRESTRE
129
4.1 INTRODUZIONE
La modellazione 3D del territorio mira alla generazione di modelli digitali di superficie,
del terreno o degli edifici per scopi cartografici o come strumento di supporto e analisi in
altre discipline (geotecnica, ingegneria delle telecomunicazioni, protezione civile, documentazione, ecc). L’analisi spaziale (paragrafo 1.2.7 capitolo 1) con cui è possibile ottenere mappe delle pendenze per il rischio idrogeologico o per l’agricoltura, sistemi informativi geografici, controllo di abusivismi edilizi e escavazioni, ecc. è sicuramente uno dei
prodotti di maggiore interesse in questo campo. In questo contesto i modelli digitali del
terreno DTM (modelli della superficie del terreno nudo, senza manufatti e oggetti antropici) risultano di fondamentale importanza perché costituiscono il dato strutturale di base
per quasi tutte le successive elaborazioni (ortofoto, ortofoto di precisione, building modelling, ecc.) [Ackermann et al., 2007].
La modellazione 3D del territorio riguarda in genere ampie zone di territorio (anche più
di 10000 km2) con livelli di dettaglio e densità di campionamento spesso considerevoli
(anche più di 25 punti per metro quadrato). E’ evidente che il modo più produttivo per
generare modelli 3D per lo studio del territorio è quello di rilevarne le forme dall’alto. La
fotogrammetria è storicamente la più antica tecnica di telerilevamento (nel 1858 il fotografo francese F.Tournachon, soprannominato Nadar, effettuò le prime riprese aeree della
città di Parigi a bordo di una mongolfiera, Fig. 4.1.1) e costituisce ancora oggi la più
completa fonte metrica e semantica per la documentazione del territorio. L’avvento dei
- 99 -
Capitolo 4
Sperimentazione
sensori digitali ha sicuramente velocizzato l’intero processo fotogrammetrico, che soffriva di notevoli rallentamenti necessari per lo sviluppo e la stampa delle pellicole fotografiche. E’ bene sottolineare che comunque il costo dei sistemi fotogrammetrici digitali nel
caso aereo (e quello dei software ) rimane oggi ancora molto elevato e proibitivo per molte aziende per cui una conversione totale alle nuove tecnologie richiede comunque ancora
molto tempo.
Figura 4.1.1 – Il telerilevamento del territorio. Dagli albori della fotogrammetria aerea (sinistra) nel XIX
sec., alle camere analogiche del XX sec., sino ai moderni sistemi ALS.
Alla fotogrammetria si è affiancata da poco più di dieci anni la tecnica del laser scanning aerotrasportato (ALS) che ha il grande vantaggio di fornire in tempi molto più rapidi, nuvole di punti del terreno come diretto risultato del rilievo in contrapposizione alla
fotogrammetria che richiede maggiori tempi di elaborazione per orientare e processare le
immagini.
I moderni sistemi ALS campionano il terreno con frequenze anche di 200kHz (un milione di punti ogni cinque secondi) da cui risulta evidente la necessità di un’attenta fase di
post-processing, in assoluto la più lunga e onerosa, (anche il 60-80% dell’intero flusso di
lavoro) per l’individuazione degli errori grossolani (outliers) nelle misure, le procedure di
allineamento delle strisciate, la definizione delle varie classi dei punti e l’estrazione di
forme. L’utilizzo delle immagini, grazie al loro contenuto qualitativo e descrittivo, rimane comunque indispensabile in tale contesto, apportando un contributo fondamentale per
la corretta elaborazione dei dati o per una loro verifica.
In questo contesto nasce il software LAIM (LAser IMmagini), sviluppato in proprio in
ambiente MATLAB (MathWorks, Versione 7.0.0, Release 14 + Image Processing Toolbox), nell’ambito di una ricerca di interesse nazionale1 allo scopo di automatizzare il processo di generazione di modelli tridimensionali da dati laser scanning aereo. Con il passa1
"Elaborazione di dati Laser Scanning per la costruzione di modelli tridimensionali" inquadrata nell'ambito del
progetto nazionale COFIN' 04 coordinata dal Prof. C.Monti.
- 100 -
Capitolo 4
Sperimentazione
re del tempo e il progredire della ricerca, nel software sono state inserite nuove funzioni e
nuove strategie e metodologie risolutive. Gli algoritmi in esso implementati sono stati ottimizzati e poi testati mediante confronti con software commerciali o effettuando test internazionali standardizzati. LAIM è un software molto versatile che integra funzioni di
elaborazione e analisi spaziale e funzioni fotogrammetriche e consente di gestire dati metrici di provenienza anche molto eterogenea (database cartografici DXF, fotogrammetria,
SRTM Shuttle Radar Topography Mission, DSM). Sebbene nasca per dati ALS il software è stato utilizzato anche su dati laser scanning terrestri e su modelli digitali di superficie
da fotogrammetria aerea con risultati molto interessanti.
In questo capitolo viene mostrato il flusso di lavoro per la generazione di modelli digitali del terreno a partire da nuvole di punti generate con tecniche ALS o fotogrammetriche,
dall’apertura di file tridimensionali di punti nel caso particolare di dati ALS con impulsi a
eco multipla, alla rimozione di errori grossolani, alla classificazione e il riconoscimento
di edifici. Man mano le varie fasi del flusso di lavoro vengono illustrate in concomitanza
con le metodologie risolutive implementate negli algoritmi di LAIM mostrando anche ulteriori confronti con software commerciali e algoritmi prodotti da altri enti e istituzioni di
ricerca.
4.2 UN TIPICO FLUSSO DI ELABORAZIONE PER LA GENERAZIONE DI MODELLI TRIDIMENSIONALI DEL TERRENO CON IL SOFTWARE LAIM
LAIM è stato implementato in linguaggio MATLAB 7.0.0 utilizzando alcune funzioni
aggiuntive presenti nel modulo “Image Processing Toolbox”; per poterlo eseguire è necessario quindi disporre di questo pacchetto. LAIM è dotato di interfaccia grafica creata
tramite il tool GUIDE (acronimo di Graphical User Interface Development Environment,
ovvero Ambiente di Sviluppo per l’Interfaccia Grafica per l’Utente) allo scopo di rendere
più semplice l’inserimento dei numerosi parametri di input. La necessità di implementare
metodologie risolutive con algoritmi talvolta anche molto articolati ci ha indirizzato verso
la scelta del linguaggio MATLAB, sicuramente uno dei più potenti e versatili ambienti
di calcolo e programmazione, noto in tutto il mondo nell’ambito della ricerca operativa
oramai da molti anni.. La tipica sintassi per notazione vettoriale e le numerose funzioni
presenti al suo interno, semplificano notevolmente la programmazione, permettendo di
concentrarsi soprattutto sull’aspetto teorico-applicativo degli algoritmi.
Sono state previste quindi funzioni di sfoltimento e/o selezione di sottoinsiemi dei
database di punti, garantendo comunque la validità applicativa degli algoritmi.
- 101 -
Capitolo 4
Sperimentazione
Sono stati progettati e implementati algoritmi per la separazione delle eco (First e Last),
per l’individuazione degli errori grossolani (Low-point, Aerial-point), per la classificazione dei punti appartenenti e non al terreno
LAIM è un software modulare che consta di circa cento funzioni sviluppate e implementate in proprio. Attualmente la versione più recente di LAIM è la 2.9; le sue funzioni
più importanti sono:
•
separazione automatica delle eco;
•
individuazione degli errori grossolani (outliers);
•
classificazione binaria dei punti terreno-oggetti;
•
filtri di classificazione basati sulla radiometria, quota relativa e assoluta;
•
tool di visualizzazioni surf, mesh e TIN di superfici con colorazioni delle facce
proporzionali all’intensità di risposta o alla quota.
•
generazione di ortofoto 3D (TIN e Grid) partendo sia da ortofoto 2D che da immagini provenienti da camere metriche o amatoriali.
•
texture mapping delle mesh tridimensionali (equazioni di collinearità);
•
scrittura di file WRML;
•
allineamento e georeferenziazione di strisciate (analisi procustiana, Helmert).
•
sovrapposizione delle classi di punti sulle immagini
•
orientamento immagini con DLT.
4.2.1 IMPORTAZIONE DEI DATI E SEPARAZIONE DELLE ECO
Nel capitolo tre (paragrafo 3.4) sono state mostrate alcune peculiarità tipiche degli scanner aerei come la possibilità di registrare eco multiple (anche più di cinque eco con opportune impostazioni strumentali e se la potenza del segnale retro-diffuso lo consente).
L’importanza di queste informazioni aggiuntive è fondamentale in zone rurali dove consentono di creare una mappatura diretta della vegetazione, ma anche in presenza di elementi antropici, e quindi soprattutto nei centri urbani (Fig. 4.2.4 ), dal momento che il
raggio laser subisce parziali diffusioni in presenza di bordi (paragrafo 3.2.1) fornendo informazioni sulle zone perimetrali degli oggetti. In generale i dati laser scanning aereo sono configurati come un database relazionale di punti con un numero minimo di campi pari alle tre coordinate spaziali dei punti P(X, Y, Z) fino a un massimo di otto informazioni
(ID_Numerico, X, Y, Z, Intensità,R,G,B, Tempo_Acquisizione). L’informazione aggiuntiva sulla tipologia di eco registrata è generalmente memorizzata nel campo ID_Numerico.
- 102 -
Capitolo 4
Sperimentazione
Un tipico esempio di file ASCII di dati ALS è riportato nella figura 4.2.2 dove viene indicato anche un semplice algoritmo per la separazione automatica delle eco.
Figura 4.2.2 – Un tipico esempio di dati laser aereo con formattazione ID_Numerico, X, Y, Z, Intensità (sinistra) e algoritmo di individuazione delle eco (destra).
L’interfaccia principale di LAIM 2.9 è visibile in figura 4.2.3.
Figura 4.2.3 – Interfaccia principale di LAIM.
Dopo aver scelto il tipo di formattazione dei file l’algoritmo mostrato in figura 4.2.2
individua e separa automaticamente le eco multiple e provvede alla separazione dei punti
nelle rispettive classi (Figura 4.2.4).
- 103 -
Capitolo 4
Sperimentazione
Figura 4.2.4 – Punti corrispondenti alle prime eco in dati laser di città. Sono ben
visibili i contorni degli edifici causati dall’effetto di bordo (paragrafo 3.2.1).
4.2.2 FILTRAGGIO
Con il termine filtraggio, nell’ambito dei dati ALS, si intende generalmente l’insieme
di operazioni che consente in prima istanza la rimozione degli errori grossolani e successivamente l’individuazione dei punti appartenenti al terreno separandoli da quelli a esso
sovrastanti (edifici, vegetazione, automobili, muretti bassi) (Fig.4.2.5).
Figura 4.2.5 – Schema esemplificativo della separazione degli oggetti dal terreno nudo
Il filtraggio manuale benché in genere non praticabile data l’enorme mole di dati, è comunque possibile per zone poco estese. Il filtraggio manuale impiega il processo cognitivo umano per individuare gli errori grossolani (in genere riconoscibili perché a quota sensibilmente più alta o più bassa) e distinguere i punti rilevati sugli oggetti da quelli appartenenti al terreno nudo. I dati ALS in genere non posseggono informazioni semantiche
- 104 -
Capitolo 4
Sperimentazione
(fatta eccezione per l’intensità radiometrica della risposta) e perciò l’unico mezzo possibile per la classificazione dei punti ground-objects (terreno-oggetti) diviene l’altezza dei
punti.
Il processo cognitivo umano è in grado di riconoscere i differenti tipi di terreno (montuoso, urbano, pianeggiante, ecc.) soprattutto se insieme ai dati spaziali si integrano delle
immagini. Il filtraggio manuale diviene ancora più affidabile se l’osservazione avviene in
stereoscopia sovrapponendo i punti alle immagini generalmente provenienti da sensori integrativi del sistema ALS. Nella pratica la mole di dati rende impraticabile la classificazione manuale ed è per questo che negli ultimi anni sono stati proposti vari e validi algoritmi di classificazione dei punti appartenenti al terreno che utilizzano procedure statistico-geometriche partendo da alcune supposizioni sull’andamento del terreno nudo.
Alcune di queste prevedono l’utilizzo dei dati originali (irregolarmente spaziati), altri
invece necessitano di dati grigliati ottenuti previa interpolazione. Tra gli algoritmi che
operano direttamente sulle nuvole di punti originali si ricordano quelli di Sohn, Vosselman and Sithole, Pfeifer & Briese, Axelsson e Roggero che restituiscono i punti classificati come terreno nello stesso formato di input. Un report dettagliato sulle caratteristiche
di questi algoritmi è presente in [Sithole et al., 2004].
Alcuni algoritmi sfruttano per il filtraggio informazioni aggiuntive come le risposte
multiple e l’intensità dell’eco di risposta [Brovelli, 2002].
Tra le caratteristiche che differenziano i vari algoritmi c’è inoltre da ricordare quella
concernente il tipo di processo implementato che influenza la velocità di esecuzione: si
distinguono le soluzioni che prevedono un processo iterativo [Sohn et al.,2002, Roggero,
2001, Axelsson, 2001] da quelle che avvengono con un numero limitato di passi [Brovelli et al.,2006, Sithole et al., 2003]. In molti casi i filtri implementati possono operare soltanto dopo aver eliminato gli outlier, ovvero gli errori grossolani dovuti ad un’errata misura della distanza (Fig. 4.2.6) conseguente ad esempio a multiriflessioni o a oggetti interposti (fili elettrici, volatili, ecc).
- 105 -
Capitolo 4
Sperimentazione
Figura 4.2.6 – Esempi di outlier. Aerial-Point (sinistra), Low-point (destra)
Il software LAIM implementa diverse funzioni per la rimozione degli outlier basate su
criteri statistici (confronto con superfici di riferimento come il piano locale ai minimi
quadrati, paraboloide locale, ecc) o geometrici locali (differenze relative con i punti circostanti). Gli outlier non vengono eliminati dal database iniziale ma semplicemente spostati in classi specifiche (Low-point, Aerial-point).
4.2.2.1 PRISMATIC BUFFERED TIN (PBTIN)
L’algoritmo PBTIN ideato e implementato in proprio nel software LAIM [Menna, Troisi, 2005, 2007], è un nuovo algoritmo di filtraggio per la generazione di DTM che può essere visto come una variante di quello di Axelsson [Axelsson 1999, 2000, 2001] che qui
di seguito si richiama brevemente.
Nell’algoritmo di Axelsson viene generato un TIN (Triangular Irregular Network basato sul criterio di Delaunay) a partire da un set di punti (seed-points) di cui si suppone certa l’appartenenza al terreno nudo e progressivamente densificato nelle successive iterazioni man mano che nuovi punti della nuvola laser vengono aggiunti ad esso.
I punti seme (seed-points) sono selezionati automaticamente come punti di quota minima all’interno di celle la cui dimensione è scelta in accordo con la massima dimensione
delle strutture, in genere edifici (Fig. 4.2.7). Per questo algoritmo e per tutti quelli che utilizzano TIN generati su punti di quota minima locale è necessaria una rimozione preventiva dei low-points almeno per quanto riguarda la fase di selezione dei punti seme iniziali.
- 106 -
Capitolo 4
Sperimentazione
Figura 4.2.7 – Selezione automatica dei punti seme per gli algoritmi iterativi di TIN. A sinistra un esempio
di selezione corretta, a destra una selezione errata causata da una sottostima della massima dimensione degli edifici (maglia quadrata sottodimensionata)
Nell’algoritmo di Axelsson, in ciascuna iterazione e all’interno di ogni triangolo, viene
esaminato un punto per volta; il punto P in esame rappresenta il vertice del tetraedro formato con il triangolo del TIN (triangolo di base) di appartenenza (Fig. 4.2.8); il punto è
aggiunto alla classe dei punti del terreno se:
1.
gli angoli che gli spigoli del tetraedro formano con il triangolo di base;
2.
l’altezza del tetraedro (distanza dalla faccia del triangolo di base);
3.
le pendenze delle tre facce oblique;
sono al di sotto di predeterminate soglie.
Alla fine di ogni iterazione il TIN viene ricostruito utilizzando i nuovi punti aggiunti alla classe terreno e nuove soglie vengono derivate statisticamente: i valori mediani delle
distribuzioni di frequenze delle distanze dal triangolo di base e degli angoli relativi alla
precedente iterazione determinano le nuove soglie. L’algoritmo, implementato nel software commerciale Terrascan della Terrasolid produce risultati generalmente di ottima
qualità; vi sono però dei casi in cui potrebbe avere problemi, come in presenza di aree rurali con terrazzamenti coperti da vegetazione. L’algoritmo verifica le soglie indipendentemente dalla distanza dei punti dai nodi del triangolo con il rischio che i punti appartenenti agli alberi siano classificati come classe terreno. In figura 4.2.9 è rappresentato uno
dei triangoli del TIN in una zona a terrazzamenti e due generici punti P, Q la cui proiezione planimetrica ricade al suo interno. Il punto P sarà sicuramente scartato se l’altezza
del tetraedro e gli angoli formati dagli spigoli con il triangolo di base sono superiori ai
valori soglia; il punto Q invece, rappresentato in rosso sarà probabilmente aggiunto alla
classe dei punti del terreno dal momento che i rispettivi angoli e distanza sono molto
prossimi a zero (tetraedro schiacciato). Questo accade perché il triangolo di base interseca
- 107 -
Capitolo 4
Sperimentazione
la chioma dell’albero e i punti non sono soggetti a criteri di classificazione che tengano
conto della distanza dai nodi.
Figura 4.2.8 – Schema geometrico del filtro di
Figura 4.2.9 – Possibile errore di classificazione della
Axelsson
classe objects nel filtro di Axelsson.
Nell’algoritmo di Axelsson le soglie relative agli angoli degli spigoli e alla distanza dalla faccia danno luogo ad un tetraedro o tronco di tetraedro limite all’interno del quale tutti
i punti sono classificati come terreno (Fig. 4.2.10): l’unione di ogni punto interno con i
vertici del triangolo di base genera tetraedri le cui altezze e angoli risultano inferiori alle
suddette soglie.
I punti nella zona più vicina ai tre nodi sono, a pari densità, in quantità minore rispetto
ai punti più prossimi al centro del triangolo di base; inoltre il terzo parametro di pendenza
massima fa preferire punti più prossimi alle zone centrali del tetraedro limite dal momento che l’unione di punti vicini ai nodi genera facce con pendenze elevate: ciò si traduce
nel fatto che ad ogni iterazione saranno aggiunti molti più punti nelle zone centrali dei
triangoli che in quelle vicine ai seed-point.
Figura 4.2.10 – Tronco di tetraedro limite
dell’algoritmo di Axelsson all’interno del quale
i punti sono classificati come terreno
- 108 -
Capitolo 4
Sperimentazione
La opinione dello scrivente è che le zone centrali del triangolo di base, quando queste
sono poste oltre una certa distanza dai punti seme, debbano essere escluse dall’analisi dei
criteri di classificazione. Nelle vicinanze dei punti seme, le quote dei punti rilevati sono
molto prossime tra loro, seguendo il naturale andamento del terreno; nelle zone centrali
dei triangoli, oltre una certa distanza, la morfologia risulta ancora non nota: la densificazione dovrebbe quindi avvenire seguendo un principio di “region growing”.
Il criterio utilizzato per l’individuazione dei punti appartenenti al terreno parte dal presupposto che nell’intorno dei punti seme, anche in questo caso selezionati con il criterio
di quota minima, il terreno subisca variazioni di quota (positive e negative) contenute in
un range scelto dall’utente; possibili oggetti come alberi, automobili, muretti, case ecc.
interrompono la continuità della superficie ideale del terreno provocando brusche variazioni di quota.
L’algoritmo PBTIN opera in maniera analoga a quello di Axelsson basandosi sulla densificazione iterativa di TIN a partire da punti seme scelti con il criterio di quota minima
locale (MBW, Maximum Building Width) ma al contrario dell’algoritmo originario analizza soltanto le zone più vicine ai punti seme.
La densificazione avviene quindi come una espansione attorno ai punti seme, in modo
analogo agli algoritmi di “region growing”. Affinché un punto sia classificato come appartenente al terreno è necessario che siano verificate contemporaneamente tre condizioni
nell’ambito del triangolo di appartenenza, relativamente a valori soglia definiti dall’utente
(Fig. 4.2.11):
1.
la distanza sulla faccia del triangolo di base dal punto seme più vicino;
2.
la distanza dalla faccia del triangolo di base;
3.
la pendenza del triangolo di base.
L’algoritmo, il cui schema geometrico è illustrato nella figura 4.2.11, classifica come terreno tutti i punti racchiusi dai tre prismi rossi.
- 109 -
Capitolo 4
Sperimentazione
Figura 4.2.11 – Schema geometrico dell’algoritmo PBTIN
e parametri di filtraggio
A ogni iterazione i punti da classificare sono indicizzati in funzione dell’appartenenza al
triangolo planimetrico del TIN costruito tra i punti ground classificati nella precedente iterazione; per ogni triangolo vengono individuati i punti al di sotto delle soglie e aggiunti
alla classe dei punti ground per la costruzione del nuovo TIN.
La densificazione termina quando non si aggiungono più punti o quando tra due iterazioni successive il numero di punti ground classificati è inferiore a una percentuale impostata dall’utente.
L’individuazione dei low-points è una fase molto importante negli algoritmi iterativi di
TIN e risulta necessaria se si vogliono selezionare i punti seme utilizzando la procedura
automatica. La selezione automatica dei punti seme utilizza il criterio del punto di quota
minima all’interno di partizioni regolari le cui dimensioni, scelte dall’utente, sono da stabilire in funzione della massima larghezza degli edifici. In presenza di low-points
l’algoritmo di selezione automatica sceglie tali punti come punti-seme con conseguenti
- 110 -
Capitolo 4
Sperimentazione
errori di costruzione del TIN iniziale che non rappresenta così una corretta approssimazione del terreno nudo.
La procedura, utilizzata anche da altri autori nei loro algoritmi [Axelsson, 2000; Brovelli et al, 2002], prevede la rimozione dei low-points prima del filtraggio. In LAIM il filtraggio di questi outliers avviene su un set di candidati low-points che possono essere individuati a priori attraverso l’analisi dei residui in quota da superfici (piano, paraboloide,
ecc.) approssimanti localmente la nuvola dei punti, oppure durante la fase di selezione automatica dei punti seme. In quest’ultimo caso tutti i punti seme sono considerati candidati
low-points e vengono successivamente analizzati e classificati con il seguente criterio.
I low-points sono individuati attraverso un’analisi delle quote dei punti in un intorno
circolare planimetrico del candidato low-point: se esso risulta essere il più basso tra tutti i
punti interni, con una differenza che supera un determinato valore, allora può essere considerato un outlier e spostato in un’apposita classe.
In presenza di low-point multipli, l’algoritmo descritto fallisce poiché in un intorno circolare del candidato capitano altri punti con quota simile; il problema è risolvibile se si
dispone di una stima a priori della numerosità n di low-point presenti nell’intorno circolare (in genere è sufficiente sovrastimare n, tipicamente n=5 è sufficiente).
La differenza tra i due metodi di individuazione esposti è che nel primo caso si riesce ad
avere una rimozione completa dei low-points e quindi un set di dati esente da outliers,
mentre nel secondo caso si ottiene un set di punti di certa appartenenza al terreno. Il secondo metodo risulta più veloce da applicare ma necessita in genere di successive iterazioni per ripristinare i punti seme nelle celle triangolari in cui erano stati individuati come
low-points.
Una procedura di eliminazione temporanea dei low-point dal set di dati da filtrare fa uso
della procedura di selezione automatica dei punti seme supponendo presenze di low-point
multipli; con i punti seme si costruisce un primo TIN e si considerano low-point tutti i
punti al di sotto di una certa distanza dalle sue facce (Fig. 4.2.11). Una volta rimossi tali
punti si reitera la scelta dei punti seme diminuendo la supposta numerosità dei low-point.
La scelta dei punti seme iniziali è una fase importante di questo algoritmo: più numerosi
sono i punti seme e più accuratamente verrà riprodotto il terreno nudo, particolarmente in
presenza di morfologie complesse.
La scelta del parametro MBW determina la densità di campionamento dei punti seme
sul set di punti da filtrare, per cui risulta evidente che in presenza di zone urbane con
- 111 -
Capitolo 4
Sperimentazione
strutture di dimensioni molto differenti, essa sia vincolata alla larghezza della massima
struttura a discapito di una buona approssimazione iniziale del terreno.
In figura 4.2.11 viene riportato un esempio di dati laser del test ISPRS 2003 (maggiori
dettagli nel paragrafo 4.4) in cui si manifesta la contemporanea presenza di edifici di dimensione ordinaria e di una stazione ferroviaria dall’ingombro planimetrico considerevole che vincola la scelta della MBW a valori elevati affinché nessun punto seme ricada sulla sua copertura [Menna et al., 2006]. In questo sito vi sono edifici il cui cortile interno
non viene classificato come ground per il limite apposto alla distanza piana e per la mancanza locale di punti seme. Una procedura di densificazione dei punti seme iniziali, che
risolve in genere tale problema (figura 3), può essere riassunta nei seguenti passi:
1. selezione automatica dei punti seme supponendo low-points multipli e MBW
adatta all’intera area;
2. costruzione di un TIN con i punti seme trovati;
3. spostamento in una classe temporanea di tutti i punti al di sopra delle facce del
TIN oltre una certa distanza verticale (in genere 5 metri in zone pianeggianti);
4. nuova selezione dei punti seme con MBW ridotta.
In questo flusso di operazioni la selezione automatica dei punti seme con low-points
multipli è un passo comune anche alla procedura di eliminazione dei low-points e serve a
garantire un set di punti seme di certa appartenenza al terreno nudo; le due procedure, che
fanno uso entrambe del TIN dei punti seme, possono essere quindi applicate in maniera
sequenziale e automatizzata. A meno di casi particolari in cui il terreno risulti morfologicamente complesso, tutti gli edifici saranno temporaneamente assenti dalla classe da filtrare. Reintroducendo in quest’ultima i punti della classe temporanea, si potrà iniziare il
filtraggio Ground partendo da un set di punti seme più numeroso e meglio distribuito.
Applicando tale procedura all’esempio suddetto è stato possibile apporre un numero notevole di punti seme senza il rischio che fossero posizionati sugli edifici.
- 112 -
Capitolo 4
Sperimentazione
Figura 4.2.11 – Confronto tra due classificazioni effettuate con e senza procedura di densificazione dei
punti seme iniziali su un edificio con cortile interno.
I primi due parametri soglia possono essere intesi in differenti modi che danno luogo a
diverse strategie, illustrate in figura 4.2.12, da applicare nelle varie tipologie di terreno e
di densità di dati:
1. strategia I, distanza sul piano del triangolo di base dal punto seme più vicino, distanza normale dalla faccia;
2. strategia II, distanza planimetrica dal punto seme più vicino, distanza verticale
dalla faccia del triangolo di base;
3. strategia III, distanza planimetrica dal punto seme più vicino, distanza normale
adattiva amplificata di un fattore proporzionale alla secante della pendenza del
triangolo di base.
Le tre strategie si equivalgono in zone pianeggianti, mentre mostrano differenze sempre
più marcate man mano che la pendenza del terreno aumenta, com’è possibile vedere in
figura 4.2.12, dove sono mostrati, per ogni strategia, i parametri soglia su due possibili
inclinazioni del triangolo di base, rappresentato in sezione: nei riquadri a sinistra il trian- 113 -
Capitolo 4
Sperimentazione
golo di base è caratterizzato da una pendenza non elevata che rende simili le tre strategie,
nei riquadri di destra invece è possibile notare come all’aumentare della pendenza il numero dei punti che saranno classificati come terreno è differente per le tre strategie.
Figura 4.2.12 – Rappresentazione dei parametri soglia su due differenti inclinazioni
di un generico triangolo di base per le tre strategie.
- 114 -
Capitolo 4
Sperimentazione
4.3 PROBLEMATICHE INERENTI LA SELEZIONE DEI PUNTI SEME:
CONFRONTO LAIM – TERRASCAN
Negli algoritmi di classificazione dei punti ground-object, che si basano sulla densificazione iterativa di TIN, il risultato finale è molto influenzato dalla selezione dei punti
seme iniziali, come già mostrato nel paragrafo precedente. In [Menna e Troisi, 2005,
2006] sono state evidenziate alcune problematiche inerenti la selezione automatica dei
punti seme in presenza di falsi low-point. In un confronto effettuato con il sofware commerciale Terrascan della Terrasolid [Menna, Troisi, 2005] è stato mostrato come la selezione automatica dei punti seme non sempre risulti opportuna. In linea di massima
l’eliminazione dei low-points tramite filtro dedicato permette di individuare correttamente in automatico i punti seme, ma vi sono alcuni casi in cui questa fallisce, In figura
4.2.13 è rappresentato un modello TIN di una porzione di dati laser di città in una zona in
cui è stato aperto un cantiere. E’ visibile lungo il perimetro un fossato profondo
all’incirca sei metri. I punti rilevati mostrano una configurazione tipica dei low-point anche se in realtà si tratta di punti fisici realmente esistenti; la loro eliminazione
dall’insieme dei punti seme (seed-points) si rende comunque necessaria pena l’inevitabile
scelta di alcuni di questi come punti seme in quanto a quota inferiore rispetto ai circostanti. E’ necessario quindi, in alcuni casi, verificare ed eventualmente rimuovere manualmente i punti seme iniziali erroneamente selezionati, operazione non consentita nel software commerciale Terrascan.
Figura 4.3.13 – Zona del cantiere con le aree del fossato evidenziate in verde in cui la selezione
automatica dei punti seme conduce a risultati errati.
In LAIM sono state così implementate diverse funzioni di selezione automatica e manuale dei punti seme iniziali anche avvalendosi di immagini o modelli TIN con texture
mapping (ortofoto 3D). Nel caso in esame i punti seme selezionati nel fossato sono stati
spostati dalla classe dei punti seme iniziali.
- 115 -
Capitolo 4
Sperimentazione
Il risultato delle classificazioni ground-objects dell’area urbana, in cui è presente il cantiere sopracitato, con i software commerciale Terrascan e sperimentale LAIM sono mostrati numericamente nella tabella 4.3.A e graficamente nella figura 4.3.14 e 4.3.15 (particolare del cantiere).
Densità di 0.3 punti/m2
LAIM (strategia 1)
TERRASCAN
Parametri di filtraggio
Max building size
30
Max building size
30
d-piana
15
Iteration angle
85
d-normale
0.25
Iteration distance
0.25
Pendenza max
85
Pendenza max
85
Risultati classificazione
Low-points
43
Low-points
31
Ground
34248
Ground
33063
Objects
72872
Objects
74069
Tabella 4.3.A - Confronto LAIM – Terrascan su un set di dati ALS di città.
Figura 4.3.14 – Classificazione dei punti
Figura 4.3.15 - Classificazione dei punti in
in LAIM: in blu i punti ground, in bianco i
Terrascan: in blu i punti ground, in bianco i
punti objects, in giallo i punti seme.
punti objects.
4.4 IL TEST ISPRS DELL’ALGORITMO PBTIN
Nel 2003 il Working Group III/3 "3D Reconstruction from Airborne Laser Scanner and
InSAR Data" della commissione III ISPRS, ha effettuato uno studio allo scopo di valutare
le prestazioni dei vari algoritmi di filtraggio, sviluppati dai vari enti di ricerca internazionali o implementati nei software commerciali, in zone dalle caratteristiche disomogenee
ed individuare quindi delle linee guida per le future ricerche.
I siti forniti per il test da FOTONOR AS erano in totale otto rilevati con sistema ALS
(Airborne Laser Scanning) della Optech e comprendenti la zona urbana del centro di
Stoccarda e quella rurale di Vaihingen/Enz. Alla fine dei test in accordo con i risultati dei
- 116 -
Capitolo 4
Sperimentazione
filtraggi conseguiti dai vari partecipanti sono stati estratti quindici campioni di dati laser
su particolari zone in cui gli algoritmi hanno commesso errori caratteristici della tipologia
degli oggetti e della morfologia rilevati: strutture antropiche come ponti, edifici complessi, rampe, vegetazione, buchi nella copertura, presenza di punti erroneamente determinati.
Per ogni campione di riferimento è stata eseguita una classificazione manuale dei punti in
Bare Earth – Object (terreno – oggetti) con metodi fotogrammetrici; grazie a questi set di
dati è stato possibile effettuare una valutazione qualitativa e quantitativa degli errori commessi dagli algoritmi.
La valutazione della bontà dei risultati di una classificazione è avvenuta attraverso il
confronto tra i dati di riferimento e quelli dei filtraggi dei partecipanti. Ogni partecipante
ha scelto parametri di filtraggio univoci per ogni sito fornendo poi i risultati delle classificazioni a un gruppo di ricerca ISPRS che ha provveduto a calcolare le statistiche sugli
errori in base ai dati di riferimento in loro possesso.
Le statistiche prevedevano tre tipologie di errori definiti in maniera assoluta e relativa:
•
errori di tipo I: terreno nudo (Bare Earth-BE) classificato come oggetto;
•
errori di tipo II: oggetti (Objects-Obj) classificati come terreno nudo;
•
errore totale: somma degli errori di tipo I e II.
I risultati sono stati presentati sottoforma di tabelle delle quali se ne mostra una versione
semplificata in tab. 1.
FILTERED
BE
SITE XX
Obj
Unused: u
%
BE
a
b
a+b
a +b
f =
%
t
Obj
c
d
c+d
g=
REFERENCE
h=
a+c
b+d
a+c
%
t
i=
Type I
b
a+b
c+d
%
t
Type II
c
c+d
Total
b+c
t
t = a+b+c+d
b+d
%
t
Tabella 4.4.B
Le quantità presenti in tabella rappresentano:
a, numero di punti del terreno classificati correttamente;
b, numero di errori di primo tipo;
- 117 -
Capitolo 4
Sperimentazione
c, numero di errori di secondo tipo;
d, numero di punti appartenenti ad oggetti classificati correttamente;
t = a + b + c + d,
numero totale di punti del campione di riferimento
classificato manualmente;
a+c, numero di punti classificati come terreno dall’algoritmo;
b+d, numero di punti classificati come oggetti dall’algoritmo;
a+c
%
t
, percentuale di punti classificati come terreno dall’algoritmo rispetto
h=
al totale;
i=
b+d
%
t
, percentuale di punti classificati come oggetti dall’algoritmo rispetto
al totale;
a+b, totale corretto di punti appartenenti al terreno;
c+d, totale corretto di punti appartenenti ad oggetti;
f =
a +b
%
t
, percentuale di punti del terreno rispetto al totale;
g=
c+d
%
t
, percentuale di punti appartenenti ad oggetti rispetto al totale;
u, numero di punti non classificati dall’algoritmo;
b
a + b , percentuale di errori di primo tipo rispetto al totale corretto di
punti del terreno;
c
c + d , percentuale di errori di secondo tipo rispetto al totale corretto di
punti appartenenti ad oggetti;
b+c
t , percentuale di punti errati (primo e secondo tipo) rispetto al totale dei punti.
Il test si proponeva inoltre di determinare la dipendenza degli algoritmi dalla densità del
rilievo e perciò, per alcuni siti, è stato valutato il filtraggio anche su dati sfoltiti di un fattore due e quattro.
La valutazione della bontà dei filtraggi da parte dei partecipanti è avvenuta soltanto attraverso un’analisi visiva dei risultati dal momento che non era nota la verità a terra sui
siti di riferimento e a causa della mancanza di informazioni aggiuntive quali fotogrammi,
DTM ecc. delle zone rilevate. Tale analisi era in grado di evidenziare particolarmente gli
- 118 -
Capitolo 4
Sperimentazione
errori di secondo tipo che i partecipanti al test hanno conseguentemente cercato di contenere.
Gli errori di secondo tipo, dovuti ad oggetti erroneamente classificati come terreno, si
presentano visivamente come una serie di punti ad esso sovrastanti; gli errori di primo tipo, dovuti a parti di terreno riconosciute come oggetti dall’algoritmo, si presentano invece come una mancanza di dati nella generazione del DTM che mostra un effetto smussato (per tale motivo chiamati anche errori di omissione).
Da esperienze di classificazione manuale degli errori si è notato che, a parità di entità
degli errori (intesi come differenza di quota tra il DTM errato e quello corretto nella posizione planimetrica del punto errato), risulta molto più agevole riconoscere e correggere
gli errori di secondo tipo rispetto a quelli di primo, soprattutto se si hanno a disposizione
strumenti di grafica 3D avanzati con possibilità di selezione spaziale e snap.
Per questo motivo, la scelta dei partecipanti di minimizzare gli errori di secondo tipo, ha
generato in alcune zone del test notevoli errori di primo tipo in prossimità dei terrazzamenti con conseguente omissione di tali zone nel DTM corrispondente. Il solo algoritmo
che ha mostrato in queste zone un numero minore di errori di primo tipo, pur limitando
quelli di secondo tipo, è stato quello di Axelsson per la sua peculiarità di utilizzare i cosiddetti mirror points [Axelsson, 2000] che però possono produrre errori di secondo tipo
in presenza di ponti.
L’algoritmo PBTIN, utilizzando i dati messi a disposizione dal sito WG3 commission
III ISPRS (http://www.commission3.isprs.org/wg3/), è stato testato eseguendo i filtraggi
di tutti i siti del test e utilizzando parametri di filtraggio e strategie (strategia uno) univoci
all’interno dello stesso sito.
Si riportano di seguito i risultati dei filtraggi sottoforma di grafici e tabelle per
un’analisi simultanea di tipo qualitativo e quantitativo. I colori utilizzati nelle figure sono
attribuiti secondo lo schema riportato in tabella 4.4.C.
Terreno nudo (BE)
Oggetti (Obj)
Errori tipo I
Errori tipo II
Tabella 4.4.C - Colorazione dei punti utilizzati nelle figure
4.4.16
- 119 -
Capitolo 4
Sperimentazione
SITE 11
R
E
F
FILTERED
BE
Obj
BE
18152
3634
Obj
1224
15000
19376
18634
50,98 %
49,02 %
STRATEGY I
Unused: 0
%
57.32
21786
Type I
%
42.68
16224
Type II
%
38010
Total
16.68
7.54
12.78
Figura 4.4.16a
SITE 12
R
E
F
FILTERED
BE
Obj
BE
25918
773
Obj
920
24508
26838
51.49 %
25281
48.51 %
STRATEGY I
Unused: 0
%
51.21
26691
Type I
%
48.79
25428
Type II
%
52119
Total
2.90
3.62
3.25
Figura 4.4.16b
SITE 21
R
E
F
BE
Obj
FILTERED
BE
Obj
10073
12
208
2667
10281
79.33 %
2679
20.67 %
STRATEGY I
Unused: 0
%
77.82
10085
Type I
%
22.18
2874
Type II
%
12960
Total
0.12
7.23
1.70
Figura 4.4.16c
SITE 22
R
E
F
FILTERED
BE
Obj
BE
21567
937
Obj
688
9514
22255
68.05 %
10451
31.96 %
Figura 4.4.16d
- 120 -
STRATEGY I
Unused: 0
%
68.81
22504
Type I
%
31.19
10202
Type II
%
32706
Total
4.16
6.74
4.97
Capitolo 4
Sperimentazione
SITE 23
R
E
F
FILTERED
BE
Obj
BE
12311
912
Obj
640
11232
12951
51.61 %
12144
48,39 %
STRATEGY I
Unused: 0
%
52.69
13223
Type I
%
47.31
11872
Type II
%
25095
Total
6.90
5.39
6.18
Figura 4.4.16e
SITE 24
R
E
F
FILTERED
BE
Obj
BE
5132
302
Obj
217
1841
5349
71.40 %
2143
28.60 %
STRATEGY I
Unused: 0
%
72.53
5434
Type I
%
27.47
2058
Type II
%
7492
Total
5.56
10.54
6.93
Figura 4.4.16f
SITE 31
R
E
F
FILTERED
BE
Obj
BE
15439
117
Obj
285
13021
15724
54.48 %
13138
45.52 %
STRATEGY I
Unused: 0
%
53.90
15556
Type I
%
46.10
13306
Type II
%
28862
Total
0.75
2.14
1.39
Figura 4.4.16g
SITE 41
R
E
F
BE
Obj
FILTERED
BE
Obj
5097
505
137
5492
5234
46.60 %
5997
53.40 %
Figura 4.4.16h
- 121 -
STRATEGY I
Unused: 0
%
49.88
5602
Type I
%
50.12
5629
Type II
%
11231
Total
9.01
2.43
5.72
Capitolo 4
Sperimentazione
SITE 42
R
E
F
FILTERED
BE
Obj
BE
12341
102
Obj
761
29266
13102
30.85 %
29368
69.15 %
STRATEGY I
Unused: 0
%
29.30
12443
Type I
%
70.70
30027
Type II
%
42470
Total
0.82
2.53
2.03
Figura 4.4.16i
SITE 51
R
E
F
FILTERED
BE
Obj
BE
13875
75
Obj
397
3498
14272
79.98 %
3573
20.02 %
STRATEGY I
Unused: 0
%
78.17
13950
Type I
%
21.83
3895
Type II
%
17845
Total
0.54
10.19
2.64
Figura 4.4.16l
SITE 52
R
E
F
FILTERED
BE
Obj
BE
19467
645
Obj
270
2092
19737
87.82 %
2737
12.18 %
STRATEGY I
Unused: 0
%
89.49
20112
Type I
%
10.51
2362
Type II
%
22474
Total
3.21
11.43
4.07
Figura 4.4.16m
SITE 53
R
E
F
BE
Obj
FILTERED
BE
Obj
30275
2714
140
1249
30415
88.47 %
3963
11.53 %
Figura 4.4.16n
- 122 -
STRATEGY I
Unused: 0
%
95.96
32989
Type I
%
4.04
1389
Type II
%
34378
Total
8.23
10.08
8.30
Capitolo 4
Sperimentazione
SITE 54
R
E
F
FILTERED
BE
Obj
BE
3937
46
Obj
262
4363
4199
48.78 %
4409
51.22 %
STRATEGY I
Unused: 0
%
46.27
3983
Type I
%
53.73
4625
Type II
%
8608
Total
1.15
5.66
3.58
Figura 4.4.16o
SITE 61
R
E
F
BE
Obj
FILTERED
BE
Obj
33372
482
67
1139
33439
95.38 %
1621
4.62 %
STRATEGY I
Unused: 0
%
96.56
33854
Type I
%
3.44
1206
Type II
%
3560
Total
1.42
5.56
1.57
Figura 4.4.16p
SITE 71
R
E
F
BE
Obj
FILTERED
BE
Obj
13693
182
136
1634
13829
88.39 %
1816
11.61 %
STRATEGY I
Unused: 0
%
88.69
13875
Type I
%
11.31
1770
Type II
%
15645
Total
1.31
7.68
2.03
Figura 4.4.16q
I risultati evidenziati nelle figure 4.4.16 sono stati ottenuti utilizzando sempre la strategia uno sui dati originali. Viene mostrato di seguito il confronto delle statistiche sugli errori rispettivamente di primo tipo, secondo tipo e totale tra i risultati dei filtraggi del test
ISPRS eseguiti con l’algoritmo di Axelsson (risultati ufficiali) e quelli ottenuti con
l’algoritmo PBTIN.
I tre grafici mostrati nelle figure 4.4.17(a-c) mettono a confronto l’andamento dei due
algoritmi sopra citati nelle aree sottocampione dei siti del test. I grafici evidenziano un
andamento medio molto simile tra gli algoritmi con differenze più sostenute tra le zone
- 123 -
Capitolo 4
Sperimentazione
urbane (siti 1-4) e quelle rurali (5-7) dove nel primo caso l’algoritmo di Axelsson dimostra vantaggi nella classificazione delle zone prossime ai terrazzamenti.
Dai valori medi degli errori dei test si evidenzia comunque un lieve vantaggio
dell’algoritmo PBTIN su tutte le tipologie di errori rispetto a quello di Axelsson che molto spesso commette errori di secondo tipo in presenza di ponti.
ERRORI TIPO I
%
30
25
20
15
10
5
0
11
12
21
22
23
24
31
41
42
Axelsson
51
52
53
54
61
71
SITO
PBTIN
Figura 4.4.17a
ERRORI TIPO II
20
%
15
10
5
0
11
12
21
22
23
24
31
41
Axelsson
42
51
52
53
54
61
PBTIN
71
SITO
Figura 4.4.17b
ERRORE TOTALE
%
15
10
5
0
11
12
21
22
23
24
31
41
Axelsson
Figura 4.4.17c
- 124 -
42
51
PBTIN
52
53
54
61
71
SITO
Capitolo 4
Sperimentazione
Nelle figure 4.4.18(a-d) vengono mostrati i risultati dei filtraggi ottenuti sul sito 1
con densità ridotte rispettivamente di un fattore 2 per i dati denominati red1 e di un
fattore 4 per i dati denominati red2.
SITE 11 red 1
R
E
F
FILTERED
BE
Obj
BE
3846
1861
Obj
145
4060
3991
40.26 %
5921
59.74 %
STRATEGY I
Unused: 0
%
57.58
5707
Type I
%
42.42
4205
Type II
%
9912
Total
32.61
3.45
20.24
Figura 4.4.18a
SITE 12 red 1
R
E
F
BE
Obj
FILTERED
BE
Obj
6417
463
159
6479
6576
48.65 %
6942
51.35 %
STRATEGY I
Unused: 0
%
50.90
6880
Type I
%
49.10
6638
Type II
%
13518
Total
6.73
2.40
4.60
Figura 4.4.18ab
SITE 11 red 2
R
E
F
FILTERED
BE
Obj
BE
899
511
Obj
87
984
986
39.74
%
1495
Figura 4.4.18c
- 125 -
60.26 %
STRATEGY I
Unused: 0
%
56.84
1410
Type I
%
43.17
1071
Type II
%
2481
Total
36.25
8.12
24.10
Capitolo 4
Sperimentazione
SITE 12 red 2
R
E
F
FILTERED
BE
Obj
BE
1519
163
Obj
48
1654
1567
46.31
%
1817
STRATEGY I
Unused: 0
%
49.70
1682
Type I
%
50.30
1702
Type II
%
3384
Total
9.69
2.82
6.24
53.69 %
Figura 4.4.18d
Le figure 4.4.19(a-b) mostrano l’andamento degli errori commessi dall’algoritmo
PBTIN sui siti 11 e 12 del test in funzione della densità dei punti ridotta dagli organizzatori del test di un fattore rispettivamente di due e quattro rispetto ai dati originali. Il grafico mostra come il numero di errori di primo tipo tende a crescere notevolmente al diminuire della densità dei punti mentre quelli di secondo tipo non ne soffrono particolarmente; di conseguenza l’errore totale aumenta solo per l’effetto dell’aumento degli errori di
primo tipo.
%
40
35
30
Errori Tipo I
25
20
Errori Tipo II
15
10
5
0
Errore Totale
Orig
Red 1
Red 2
Sito 11
Figura 4.4.19a
12
%
10
Errori Tipo I
8
Errori Tipo II
6
4
Errore Totale
2
0
Orig
Red 1
Sito 12
Figura 4.4.19b
- 126 -
Red 2
Capitolo 4
Sperimentazione
Su alcuni siti è stato eseguito il test anche con le strategie due e tre; si mostrano qui di
seguito i risultati più significativi dei filtraggi utilizzando la strategia tre sul sito 5.
L’intero sito è caratterizzato da una morfologia molto eterogenea con zone contraddistinte da forti pendenze data la presenza di una cava a ridosso di una collina e da zone edificate su terreno pressoché pianeggiante.
L’applicazione della strategia tre sul sito in questione con parametri di filtraggio identici
a quelli utilizzati con la strategia uno ha apportato notevoli vantaggi nell’individuazione
dei punti del terreno in prossimità dei terrazzamenti della cava del campione 53 (figura
4.4.20a) ma ha, allo stesso tempo, provocato un numero notevole di errori di secondo tipo
nella zona edificata del campione 54 (Fig. 4.4.20b).
Questo suggerisce la possibilità di ottenere ulteriori miglioramenti nei filtraggi di zone
morfologicamente eterogenee se le differenti strategie vengono applicate localmente e in
maniera adattiva a seconda delle caratteristiche del terreno. È auspicabile quindi
l’individuazione di una procedura di riconoscimento delle caratteristiche morfologiche in
maniera automatica o semiautomatica facendo uso ad esempio di criteri di segmentazione.
SITE 53
R
E
F
FILTERED
BE
Obj
BE
31969
1021
Obj
246
1143
32215
93.71 %
2164
6.29 %
Figura 4.4.20a
- 127 -
STRATEGY III
Unused: 0
%
95.96
32990
Type I
%
4.04
1389
Type II
%
34379
Total
3.09
17.71
3.69
Capitolo 4
Sperimentazione
SITE 54
R
E
F
FILTERED
BE
Obj
BE
3941
42
Obj
574
4051
4515
52.45 %
4093
47.55 %
Figura 4.4.20b
- 128 -
STRATEGY III
Unused: 0
%
46.27
3983
Type I
%
53.73
4625
Type II
%
8608
Total
1.05
12.41
7.16
Capitolo 4
Sperimentazione
4.5 UN ESEMPIO DI UTILIZZO DEL SOFTWARE LAIM PER LA
MODELLAZIONE DI UNA FRANA DA DATI LASER SCANNING TERRESTRE
Sono state effettuate alcune applicazioni ad un rilievo laser terrestre sulla frana che ai
primi di Marzo del 2005, ha colpito il comune di Nocera Inferiore (SA) in seguito ad un
lungo periodo di piogge intense (Fig. 4.5.21). L’evento, particolarmente grave, ha provocato tre vittime e la precauzionale evacuazione di alcune case poste nella zona immediatamente a valle della montagna da cui è avvenuto il distacco del materiale piroclastico. Il
fenomeno analogo a quello avvenuto sulle montagne di Sarno e Bracigliano non rappresenta un caso isolato ma fa parte di una serie di eventi franosi che continuamente interessano l’intera area della valle del Sarno.
Figura 4.5.21 – Foto aerea della frana di Nocera Inferiore nel Marzo 2005.
- 129 -
Capitolo 4
Sperimentazione
Il rilievo si proponeva di studiare le metodologie di progettazione ed analisi delle scansioni con sistemi TLS in zone particolarmente a rischio idrogeologico e sviluppo prevalentemente verticale come pareti rocciose, fronti di cave, frane, ecc. La frana di Nocera
Inferiore ben si presta a questo tipo di sperimentazione a causa della forte pendenza che
interessa localmente la montagna.
Per poter effettuare delle scansioni dell’intero corpo frana, dalla zona a valle fino alla
nicchia di distacco, è necessario poter usufruire di una strumentazione TLS a grande portata; in tal modo è possibile sia limitare il numero di stazioni di scansione, sia rilevare le
zone più distanti come la nicchia di distacco. Il laser scanner utilizzato per il rilievo è
l’Optec ILRIS-3D, mostrato nelle figure 4.5.22.
Figura 4.5.22 – Laser scanner terrestre utilizzato per la sperimentazione.
Sono state effettuate due campagne di rilievo rispettivamente nei mesi di Marzo (poco
dopo l’evento) e Maggio; nell’ultima campagna sono stati effettuati anche i rilievi di appoggio di una coppia di fotogrammi di un volo in scala 1:13000 del 1997 con la quale è
stato costruito un DSM per autocorrelazione tramite il software commerciale SOCET
SET V5.0.
Sono stati processati in questo esempio applicativo, soltanto i dati relativi alla scansione
di Maggio. A causa della grande estensione della frana è stato scelto un punto di stazione
posto a circa cinquecento metri dalla nicchia di distacco, al fine di limitare il numero di
scansioni necessarie all’intera copertura, certi di poter sfruttare la grande portata dello
strumento. La presenza di oggetti interposti, e la forte inclinazione dell’asse y del sistema
- 130 -
Capitolo 4
Sperimentazione
di coordinate strumentali rispetto alla direzione orizzontale (al fine di rilevare la parte alta
della frana), hanno determinato nel set di dati rilevato, una serie di zone caratterizzate da
assenza di punti. È stato applicato con LAIM il filtro Ground selezionando i punti seme
in modalità manuale sulla zona di deposito del materiale piroclastico (figura 4.5.23). Il
filtraggio è avvenuto su un sottoinsieme sfoltito di circa duecentomila punti (l’originale è
costituito da più di cinque milioni) inserendo i parametri visibili nella figura 4.5.24 (le
coordinate visibili sono nel sistema strumentale).
Figura 4.5.23- Selezione dei punti seme in modalità manuale
In figura 4.5.24 è visibile un particolare del modello TIN dei triangoli di base a filtraggio completato mentre una visualizzazione grafica delle classi individuate è presentata
nelle figure 4.5.25(a,b,c).
- 131 -
Capitolo 4
Sperimentazione
Figura 4.5.24- Particolare del modello TIN dei triangoli di base a filtraggio Ground completato
Figura 4.5.25- Alcune finestre di visualizzazione della classificazione. In bianco objects, in blu ground.
- 132 -
Capitolo 4
Sperimentazione
Figura 4.5.26- Particolare di un albero filtrato e separato correttamente dal filtro Ground di LAIM
Il set di punti rilevati è stato successivamente georeferenziato utilizzando le coordinate
doppie (nel sistema strumentale e nel sistema WGS-84) dei quattro bersagli ben riconoscibili sul modello digitale (Fig. 4.5.27). Utilizzando poi l’orientamento esterno calcolato
con il software SOCET SET, è stato possibile con LAIM sovrapporre i punti rilevati
sull’immagine utilizzata per creare il DSM da image-matching. Il risultato è mostrato nelle figura 4.5.28. Infine, è stata creato il texture mapping della zona di Nocera Inferiore,
sovrapponendo un’ortofoto ad un DTM ottenuto importando il file disegno della cartografia numerica in scala 1:5000 del comune (Fig.4.5.29).
- 133 -
Capitolo 4
Sperimentazione
Figura 4.5.27- Sistemazione dei bersagli utilizzati per georeferenziare le scansioni laser
Figura 4.5.28- Utilizzando il comando Visualizza punti su un’immagine di LAIM, è stato possibile sovrapporre i punti rilevati con laser scanner, su uno dei fotogrammi utilizzati per generare il DSM con il
software SOCET SET.
- 134 -
Capitolo 4
Sperimentazione
Figura 4.5.29- Texture mapping della zona di Nocera Inferiore creato con LAIM.
- 135 -
Capitolo 5
Sperimentazione
Modellazione 3D inversa nel settore dei beni culturali
5.1 INTRODUZIONE
136
5.2 MODELLAZIONE MULTI-SCALA DEL FORO DI POMPEI
140
5.3 MISURAZIONE E RICOSTRUZIONE DI SUPERFICI 3D CON TECNICHE
FOTOGRAMMETRICHE
148
5.1 INTRODUZIONE
Oggigiorno la misurazione di superfici e la modellazione 3D inversa di oggetti sono
generalmente ottenute con metodi fotogrammetrici (capitolo 2) o con sistemi ottici attivi
(laser scanner o proiettori a luce strutturata, descritti nel capitolo 3) in funzione delle
caratteristiche della superficie, accuratezza richiesta, dimensioni dell’oggetto e sua
locazione, costi, ecc.. I sensori attivi [Blais, 2004] sono divenuti negli ultimi anni molto
popolari, anche tra i non esperti del settore e nonostante i costi d’acquisizione della
strumentazione e dei software molto elevati, perché semplici da utilizzare e perché
forniscono direttamente e rapidamente i dati 3D richiesti. L’alternativa ai sensori attivi è
rappresentata dalla fotogrammetria digitale, che d’altra parte richiede un background
matematico per un corretto utilizzo delle relazioni analitiche per la trasformazione di
misure piane sulle immagini in coordinate tridimensionali dei punti. Le tecniche imagebased per la modellazione tridimensionale (principalmente fotogrammetriche o di
computer vision) [Remondino, El-Hakim, 2006] sono in genere preferite in caso di
oggetti perduti, monumenti e architetture con forme geometriche regolari, costi limitati
per l’esecuzione dell’intero progetto di modellazione e soprattutto nel caso vi siano
restrizioni sul tempo disponibile per il rilievo sul campo (siti archeologici aperti al
pubblico). I progressi conseguiti nel campo dell’elettronica hanno notevolmente
incrementato le potenzialità offerte dalle moderne fotocamere digitali (oramai sono molto
comuni sensori oltre i 10-12 mega pixel) diminuendo contemporaneamente il costo per
l’acquisto (una fotocamera reflex digitale e obbiettivo adatti a scopi fotogrammetrici
possono costare anche meno di 2000€). Inoltre il grande vantaggio della tecnica
fotogrammetrica digitale è che un unico sistema fotografico può essere utilizzato per
oggetti di dimensioni differenti e a differenti distanze se opportunamente calibrato, con
evidenti vantaggi in termini di costi in confronto ai sistemi ottici a scansione. La
modellazione 3D image-based però generalmente necessita di alcune interazioni
- 136 -
Capitolo 5
Sperimentazione
dell’utente durante l’intero flusso di modellazione limitandone, in alcuni casi,
l’attuazione ai soli esperti del settore.
Sono nate diverse discussioni negli ultimi anni su quale tecnica o quale approccio è
migliore e in quale situazione. Infatti la modellazione 3D image-based richiede una certa
esperienza nell’acquisizione, elaborazione dei dati e ancora oggi un minimo di
interazione manuale mentre i metodi range-based richiedono un budget iniziale sostenuto
e tempi per l’elaborazione dei dati molto oneroso, talvolta non consentiti in alcuni
progetti di modellazione. Inoltre un deficit reale della maggior parte dei sensori ottici
attivi è l’indisponibilità di informazioni qualitative e semantiche che richiede
l’acquisizione separata di immagini digitali da orientare poi separatamente (e quindi con
integrazione fotogrammetrica). Remondino et al. [2008] hanno mostrato che in molte
applicazioni terrestri, le tecniche fotogrammetrica e con sensori attivi consentono di
ottenere risultati molto simili sia in termini di accuratezza che descrittivi, ma con costi e
tempi nettamente inferiori. Infatti le tecniche di image-matching sono in grado oggi di
fornire il dato metrico necessario alla generazione di modelli digitali densi di superficie
con elevati livelli di affidabilità e accuratezza. Utilizzando algoritmi avanzati, possono
essere ottenute nuvole di punti dense di oggetti complessi o di superfici dalle forme lisce
e non definibili matematicamente (free-form surface) in modalità quasi totalmente
automatica. E’ quindi possibile affermare che con il giusto algoritmo modellatore non vi
sono differenze, nelle più comuni applicazioni terrestri, tra tecniche image-based e rangebased sia in termini di accuratezza che di livello di dettaglio. Ciononostante il modo
ottimale in termini di costi, accuratezza, affidabilità e tempi di acquisizione ed
elaborazione, per ottenere un modello 3D di strutture architettoniche o siti archeologici
complessi, che rispettino il livello di dettaglio richiesto, consiste nell’integrare e
combinare tecniche image-based e range-based.
In questo capitolo sono mostrati alcuni esempi applicativi di modellazione 3D inversa
nel settore dei beni culturali utilizzando approcci multi-scala e multi-tecnica con i quali è
possibile documentare oggetti di diverse dimensioni, da vasti siti archeologici come
quello del foro di Pompei, sino a reperti di piccolissime dimensioni come quelle di una
moneta, su oggetti dalle forme semplici come i basamenti di statue e alcune opere
murarie o su oggetti dalla forma complessa o ricca di particolari e dettagli come fregi,
statue e bassorilievi. Sono inoltre riportati alcuni importanti confronti comparativi tra
software commerciali e di ricerca per l’image-matching in ambito dei beni culturali
- 137 -
Capitolo 5
Sperimentazione
attraverso lo studio e l’analisi di casi reali. Vengono inoltre analizzate le accuratezze
raggiungibili con tecniche low-cost quali la fotogrammetria digitale con fotocamere
amatoriali nella misura di modelli digitali densi di superficie DDSM, attraverso il
confronto dimensionale con modelli digitali ottenuti con strumentazione e tecniche più
accurate (nei casi specifici).
5.1.1 GLI STANDARD NELLA DOCUMENTAZIONE DIGITALE E
NELLA MODELLAZIONE 3D INVERSA DEI BENI CULTURALI
Negli ultimi anni le discipline del rilievo, rappresentazione e visualizzazione stanno
conoscendo un periodo di innovazione e ottimizzazione tecnologica notevoli che ne
hanno ulteriormente esteso il campo di utilizzo. Le attuali tecniche e metodologie di
rilievo impiegate nel campo dei beni culturali sono senz’altro in grado di soddisfare i
principi di standardizzazione e oggettività nella documentazione. L’avvento di queste
nuove tecnologie, sempre in rapida e continua evoluzione, sta apportando indubbi
vantaggi soprattutto in termini di rapidità e costi ma solleva interrogativi circa la
standardizzazione dei prodotti e la loro utilizzazione da parte degli utenti finali. L’utilizzo
di strumenti di rilievo automatici, se da una parte facilita la fase di acquisizione del dato
durante la campagna di rilievi, dall’altra può condurre a una difficile gestione dello
stesso soprattutto se eseguito da operatori non esperti, data l’enorme mole di informazioni
acquisite.
“It is essential that the principles guiding the preservation and restoration of ancient
buildings should be agreed and be laid down on an international basis, with each country
being responsible for applying the plan within the framework of its own culture and
traditions” [The Venice Charter, 1964].
Questa frase, che risale a più di quaranta anni fa, riassume il principio al quale le
istituzioni che sovrintendono alla conservazione e al restauro dei beni culturali
dovrebbero ispirarsi. La necessità di terminologie e metodologie chiare, razionali e
standardizzate è tuttora ancora evidente.
L’assenza di direttive e procedure comuni a livello internazionale ha condotto in molti
casi
a
documentazioni
frammentate
e
spesso
disomogenee
perché
all’interpretazione soggettiva e all’esperienza degli operatori addetti ai lavori.
- 138 -
affidate
Capitolo 5
Sperimentazione
Inoltre “… preservation of the digital heritage requires sustained efforts on the part of
governments, creators, publishers, relevant industries and heritage institutions. In the
face of the current digital divide, it is necessary to reinforce international cooperation
and solidarity to enable all countries to ensure creation, dissemination, preservation and
continued accessibility of their digital heritage” [UNESCO Charter on the Preservation
of the Digital Heritage, 2003]. La conservazione e la divulgazione dei beni culturali
richiede quindi grandi sforzi da parte delle istituzioni di governo competenti, e non solo,
al fine di cooperare a livello internazionale per rendere possibile l’accesso delle nuove
forme di documentazione digitale a tutti i potenziali utilizzatori. Da un punto di vista più
tecnico, negli ultimi dieci anni sono stati introdotti sul mercato molti pacchetti software
di modellazione image-based e range-based molto pubblicizzati per la modellazione 3D
inversa nel settore dei beni culturali. La necessità di creare degli standard per la
documentazione 3D sta divenendo sempre più impellente, standard che in altri settori del
rilievo 3D sono già presenti come per esempio la topografia o la metrologia industriale
con CMM. Naturalmente oltre agli standard sono certamente indispensabili ulteriori
confronti comparativi su casi reali allo scopo di mostrare non solo i vantaggi molto
pubblicizzati dalle aziende sviluppatrici di software, ma anche i limiti. In questo contesto
lo standard German VDI/VDE 2634 contiene test e procedure di controllo per definire le
accuratezze ottenibili con sistemi ottici di misura close-range sia attivi che passivi. La
commissione per gli standard E57 della Società Americana per il Testing e i Materiali
(ASTM) sta cercando di definire degli standard per i sistemi di misura 3D per le
applicazioni di rilievo geodetico e topografico, conservazione dei beni culturali,
cantieristica, ecc.. L’Associazione Internazionale per il Pattern Recognition (IAPR) ha
creato la Commissione Tecnica 19– Computer Vision for Cultural Heritage Applications
– con lo scopo di promuovere metodologie innovative nella documentazione dei beni
culturali. Il Centro di Ricerca Nazionale Canadese (NRC) [Beraldin et al., 2007] e il
NIST [Cheok et al., 2006] stanno valutando le performance dei sistemi di misura 3D
(soprattutto scanner) allo scopo di sviluppare dei protocolli per il testing degli strumenti
definendo delle procedure standardizzate. Per quanto concerne degli standard in termini
di visualizzazione e presentazione dei modelli 3D, London Charter [2008;
http://www.londoncharter.org/] sta cercando di definire gli obbiettivi e i principi base
nella conservazione e accessibilità dei beni culturali.
- 139 -
Capitolo 5
Sperimentazione
5.2 MODELLAZIONE MULTI-SCALA DEL FORO DI POMPEI
Recentemente lo scrivente ha avuto modo di partecipare a un progetto di modellazione
3D inversa di vasti e complessi siti archeologici al fine di studiare le problematiche, le
potenzialità e i limiti imposti dalle moderne tecnologie di rilievo e modellazione 3D in
ambito dei beni culturali [Guidi et al., 2008].
La modellazione 3D dell’area archeologica del Foro di Pompei fa parte di un progetto
che mira alla generazione di un database 3D come strumento di supporto agli archeologi
della Sovrintendenza per i Beni Archeologici di Pompei nello studio, nell’analisi e nella
pianificazione di interventi di conservazione e restauro. Inoltre il modello 3D finale sarà
utilizzato anche a scopi divulgativi per fornire al pubblico un mezzo per la comprensione
della complessa struttura stratificata del Foro di Pompei.
L’area archeologica è approssimativamente 150 x 80 m, contiene grandi strutture
murarie di antichi edifici e templi e più di 350 reperti sparsi in tutto il sito (Fig. 5.2.1).
Figura 5.2.1 – (A) Il Foro di Pompei, approssimativamente lungo 150 metri e largo 80 metri, visto in
un’immagine aerea obliqua con l’area del progetto di modellazione sovrapposta con colore rosso.
(B) Alcuni reperti archeologici sparsi in tutta l’area e un bassorilievo particolareggiato (in basso a
destra).
In questo tipo di progetti è richiesta un’attenta fase di pianificazione al fine di valutare
le tecnologie più adatte al rilievo, stimare il tempo necessario all’acquisizione del dato
- 140 -
Capitolo 5
Sperimentazione
metrico, definire dei parametri di qualità, evitare i turisti ecc.. Nel progetto, il tempo
disponibile per eseguire i rilievi sul campo è stato limitato da una serie di fattori che
comprendevano tra gli altri la disponibilità di attrezzature e personale di supporto, accessi
ai siti riservati e costi del progetto.
5.2.1 METODOLOGIE DI MODELLAZIONE 3D MULTI-RISOLUZIONE
I dati multi-risoluzione sono oggi alla base di numerosi database e sistemi digitali di
visualizzazione. Probabilmente gli esempi più noti sono oggi forniti dai software Google
Earth o Microsoft Virtual Earth in cui la risoluzione spazia da alcune centinaia di metri
(sia geometrica che d’immagine) sino ad alcune decine di centimetri (solo risoluzione
d’immagine). L’utente può esplorare i modelli digitale del terreno a bassa risoluzione
quando l’area visualizzata è molto ampia e ottenere, quando necessario, dati ad alta
risoluzione spaziale spesso con collegamenti ad altre informazioni 2D/3D (testo,
immagini, modelli 3D di edifici, ecc.).
Per il rilievo 3D dell’area archeologica del Foro di Pompei è stato utilizzato un
approccio simile, utilizzando immagini aeree per l’esplorazione generale del sito e
immagini terrestri e dati spaziali a risoluzione maggiore per i reperti e per
un’esplorazione più nel dettaglio.
L’approccio multi-risoluzione e l’integrazione di diverse tecniche e metodologie di
modellazione (fotogrammetria, sensori attivi, rilievo topografico, ecc.) forniscono oggi i
migliori risultati in termini di ottimizzazione del prodotto finale. Infatti ciascun livello di
dettaglio (LOD) mostra soltanto l’informazione necessaria ottenuta con la tecnica di
modellazione più opportuna.
Nel progetto di modellazione del Foro di Pompei la motivazione che ha spinto ad
adottare una metodologia integrata è stata duplice:
a)
adattare il livello di informazione associato a ciascun artefatto contenuto
nell’area allo strumento proposto (per esempio modellazione fotogrammetrica
manuale per grandi mura pressoché piane, laser scanning per strutture
murarie irregolari o parzialmente rotte, image-matching fotogrammetrico per
decorazioni piccole e dettagliate);
b)
introdurre un livello di ridondanza utile a ottimizzare l’accuratezza dei
modelli e/o identificare possibili errori nella misurazione degli stessi.
Per la documentazione 3D dell’area archeologica sono stati utilizzati i seguenti dati
(riassunti anche in tabella 5.2.A):
- 141 -
Capitolo 5
Sperimentazione
1. fotografie aeree con scala fotogramma 1:3500 acquisite da un precedente lavoro
cartografico;
2. immagini aeree oblique per scopi di texture mapping;
3. dati laser scanning terrestre acquisiti con due scanner Leica;
4. immagini fotografiche terrestri allo scopo di (i) riempire buchi nella copertura
delle scansioni, (ii) documentare con elevata risoluzione, per mezzo di imagematching, piccoli reperti, (iii) ricostruire semplici strutture murarie.
La risoluzione spaziale spazia da 25cm a pochi millimetri in geometria e da 15 cm a
pochi millimetri per la risoluzione delle immagini. L’utilizzo di immagini oblique
(ottenute con tecnologia Pictometry) è stato dettato dal fatto che le immagini aeree erano
datate 1987 e riprendevano quindi una situazione del Foro differente da quella odierna.
Tabella 5.2.A – Tabella riassuntiva dei dati multi-risoluzione e delle differenti tecniche utilizzate.
5.2.2 ELABORAZIONE DEI DATI
Le tre immagini aeree con scala fotogramma 1:3500 sono state orientate con tecnica
bundle-adjustment utilizzando alcuni control point disponibili dalla rete cartografica
locale. Per la generazione del DSM dell’area degli scavi da immagini aeree è stato
utilizzato il software sperimentale dell’ETH SAT-PP che impiega l’algoritmo di imagematching basato sul principio del LSM, descritto nel paragrafo (2.5.2) [Zhang, 2005;
Remondino et al., 2008]. L’algoritmo ha derivato una nuvola densa di circa 18 milioni di
punti per un’area di 1 x 0,8 km2.
- 142 -
Capitolo 5
Sperimentazione
Figura 5.2.2 – Il DSM di circa 18 milioni di punti dell’area archeologica d’interesse generato da tre foto
aeree mostrato con colorazione dei punti in funzione della quota (in alto sinistra) e in visualizzazione
shaded (in alto a destra). In basso a sinistra e a destra due vedute del texture mapping del Foro di Pompei
(25 cm di risoluzione geometrica).
I dati acquisiti con i laser scanner (circa 1.2 miliardi di punti) sono stati elaborati con il
software Cyclone (Leica Geoystem AG, Switzerland) e Polyworks (Innovmetric,
Canada). L’allineamento delle scansioni (con metodi surface-matching) e l’editing dei
dati (rimozione punti di non interesse, generazione di layer, campionamento e
suddivisione semantica delle diverse strutture) ha richiesto circa 6 mesi di lavoro. Dopo
questa fase di semplificazione e riduzione dei punti nelle zone di sovrapposizione delle
scansioni, 36 milioni di punti sono stati utilizzati per la modellazione delle opere murarie
(14 edifici più un muro di cinta esterno) e per il modello digitale del terreno; 64 milioni di
punti sono stati utilizzati per descrivere sommariamente la geometria dei 377 reperti
archeologici di tutto il foro. In totale quindi circa 100 milioni di punti (Fig.5.2.3) sono
stati perciò utilizzati per descrivere tutte le geometrie del Foro rispetto a circa 1,2 miliardi
di punti iniziali con una riduzione quindi di circa 1:10. Per ridurre il numero di poligoni
nella mesh finale è stato utilizzato il software IMCompress, parte del software Polyworks
- 143 -
Capitolo 5
Sperimentazione
che, basandosi su un processo sequenziale di ottimizzazione, rimuove iterativamente i
vertici della triangolazione, minimizzando la distanza 3D tra il modello con poligoni
ridotti di numero e quello originale. Il processo si ferma quando la massima distanza tra il
nuovo modello poligonale e quello originale eccede una tolleranza imposta dall’utente. In
questo modo il software ha rimosso i vertici ridondanti nelle zone di sovrapposizione
delle scansioni mantenendo però il modello finale quanto più fedele a quello originale.
Figura 5.2.3 – Nuvola di punti finale delle opere murarie del Foro.
Le immagini terrestri, circa 3200, sono state utilizzate per (i) modellare tutte le opere
murarie dell’area del Foro, (ii) ricostruire i 377 reperti e (iii) generare modelli 3D
dettagliati di alcuni ornamenti (fregi, bassorilievi, ecc.). La maggior parte del processo,
applicato a opere murarie ben conservate (sostanzialmente piane) e ai reperti sparsi nel
Foro come colonne, trabeazioni, basamenti, architravi, ecc. è stato ottenuto con il
software di fotogrammetria close-range Photomodeler mentre per la generazione dei
modelli digitali degli ornamenti è stato utilizzato il software SAT-PP dell’ETH di Zurigo
che si basa sul LSM.
- 144 -
Capitolo 5
Sperimentazione
A)
C)
B)
Figura 5.2.4 – Modelli di reperti e opere murarie dalle forme regolari modellati con tecniche di
fotogrammetria digitale (A). Modelli particolareggiati di statue, bassorilievi e fregi, modellati con
tecniche di image-matching (B-C).
5.2.3 INTEGRAZIONE DEI DATI MULTI-TECNICA
Il diagramma di flusso dell’integrazione dei dati a diversa risoluzione e provenienti da
diverse tecniche è mostrato in figura 5.2.5. Per poter integrare e portare i dati spaziali in
un unico sistema di riferimento di coordinate geografico è stato utilizzato un set di punti
di riferimento topografici forniti dalla Sovrintendenza degli Scavi Archeologici di
Pompei integrato da un’ulteriore campagna di rilievi.
- 145 -
Capitolo 5
Sperimentazione
Figura 5.2.5 – Diagramma di flusso di integrazione dei dati multi-risoluzione, rilevati con diverse
tecniche.
La campagna di acquisizione con tecnica laser scanning è stata dapprima utilizzata per
creare una struttura geometrica di riferimento nel quale orientare ciascun modello
fotogrammetrico e per tale motivo le prime due scansioni sono state acquisite da due
punti topografici di coordinate note e tutte le altre scansioni allineate su queste. Il
modello finale è stato così rototraslato (paragrafo 3.3) utilizzando la trasformazione di
Helmert (con fattore di scala fissato all’unità) su punti di riferimento documentati. La
nuvola di punti è stata quindi utilizzata per rototraslare i modelli fotogrammetrici a più
basso LoD e, grazie alla ridondanza dei dati, è servita inoltre per controllare possibili
errori di modellazione.
Tutti i modelli sono stati così allineati in un unico sistema di riferimento, compresi
quelli ad elevata risoluzione, provenienti da tecniche fotogrammetriche di imagematching. Una particolare attenzione è stata prestata per l’ottimizzazione del modello
finale ai fini della visualizzazione. I singoli modelli sono stati selettivamente semplificati
lasciando pochi poligoni in aree pressoché piane e un’elevata risoluzione geometrica solo
nelle aree indicate dal team archeologico del progetto. Il livello di risoluzione immagine
del texture mapping è stato considerato indipendente da quello geometrico in modo da
massimizzare il livello di informazione associato a uno specifico artefatto. In questo
modo una risoluzione geometrica bassa con un elevata risoluzione immagine del texturemapping sono state utilizzate per le mura piatte caratterizzate dallo schema costruttivo
romano
“opus reticulatum”, oppure al contrario sono state utilizzate una bassa
risoluzione immagine accoppiata a un elevata risoluzione geometrica nel caso di reperti o
- 146 -
Capitolo 5
Sperimentazione
opere murarie complesse ma costruite con materiali uniformi o non particolarmente
interessanti.
5.3 MISURAZIONE E RICOSTRUZIONE DI SUPERFICI 3D CON TECNICHE
FOTOGRAMMETRICHE
La misurazione fotogrammetrica della superficie di un oggetto è oggi generalmente
ottenuta stabilendo delle corrispondenze tra primitive geometriche estratte su due o più
immagini (paragrafo 2.5) per mezzo delle quali le primitive sono così convertite in
informazioni 3D attraverso un modello matematico (equazioni di collinearità o modello
proiettivo, paragrafo 2.1.5 e 2.2.2 ). Il problema dell’image-matching è stato studiato per
più di 30 anni ma ciononostante le problematiche esistenti sono ancora molteplici:
completa automazione, ostruzioni, aree con poca texture, strutture ripetitive, oggetti in
movimento (incluse le ombre), artefatti radiometrici (per esempio derivanti dal
processamento delle immagini digitali), oggetti traslucidi, applicabilità a differenti
configurazioni delle camere, ecc.. Nel caso aereo e da satellite i problemi sono limitati e
nella maggior parte già risolti (una prova è il gran numero di software commerciali per la
generazione di DSM) mentre in applicazioni terrestri questi derivano principalmente dalle
caratteristiche tridimensionali dell’oggetto e spesso dalla configurazione delle prese
fotogrammetriche con larghe basi e assi convergenti. Nei comuni software commerciali
questo tipo di configurazioni sono difficilmente accettate.
Vi sono due principali classi di primitive da correlare automaticamente: (1) pattern
d’intensità immagine (Area Based Matching, ABM) per esempio finestre di valori di
grigio nell’intorno del punto d’interesse e (2) features (Features Based Matching, FBM)
per esempio bordi e linee di separazione tra superfici con colorazione differente. In
genere il metodo FBM viene integrato a quello ABM fornendo risultati sensibilmente
migliori rispetto all’utilizzo della sola tecnica ABM (in molti software l’unica a essere
implementata) soprattutto in zone in cui sono presenti molte discontinuità.
Per applicazioni nella documentazione o la generazione di repliche fisiche di beni
culturali come quelli mostrati in figura 5.3.6 è possibile affermare che nella maggior parte
delle situazioni la risoluzione della ricostruzione 3D deve essere circa di 1-2 millimetri
con accuratezze di 0.5 mm o migliori (per esempio nel caso della moneta visibile nella
stessa figura).
- 147 -
Capitolo 5
Sperimentazione
Figura 5.3.6 – Alcuni esempi di oggetti d’interesse nei beni culturali modellati con tecniche di image-matching
durante questa sperimentazione. Texture mapping e visualizzazioni shaded sono state generate con il software
LAIM (capitolo 4).
5.3.1 SOFTWARE COMMERCIALI E DI RICERCA
In questa sperimentazione sono stati messi a confronto due software commerciali (BAE
systems SOCET SET e Topcon PI-3000) e due software di ricerca (SAT-PP e ARC3D)
utilizzando immagini terrestri con assi convergenti [Remondino e Menna, 2008]. Le
principali caratteristiche di questi software sono indicate nelle tabella 5.3.B. ulteriori
lavori di ricerca con questi software sono illustrati in [Zhang et al., 2006: Menna and
Troisi, 2007] e [Kadobayashi et al., 2004; Chandler et al., 2007]. Il software Topcon PI3000, fornito soltanto in modalità demo, non ha consentito l’esportazione dei modelli 3D
e per tale motivo non sono mostrati i risultati numerici dei confronti. Il software funziona
utilizzando la geometria epipolare dopo che le immagini sono state orientate
manualmente. Il software fornisce i modelli digitali 3D sottoforma di TIN da coppie di
immagini, può essere elaborata una sola coppia per volta.
- 148 -
Capitolo 5
Sperimentazione
Altri software commerciali, sviluppati per la generazione di DTM da immagini aeree
(sensori lineari e frame) e da vari tipi di immagini digitali, sono: ERDAS LPS, Z/I
ImageStation, Inpho MATCH-T e SimActive Correlator3D. Recentemente Photomodeler
(software generalmente utilizzato per la modellazione 3D in ambito terrestre) ha rilasciato
un nuovo modulo, chiamato Photomodeler Scanner, che è in grado di generare
ricostruzioni dense di superfici da coppie di immagini (una coppia per volta e con assi
non molto convergenti).
Tabella 5.3.B – Caratteristiche dei software per l’image-maatching testati in questa sperimentazione.
I due software di ricerca sono brevemente descritti nei successivi paragrafi.
5.3.1.1 SAT-PP
Il software per l’image matching dell’Institute of Geodesy and Photogrametry dell’ETH
di Zurigo è stato progettato per effettuare la misurazione di superfici da immagini ad alta
risoluzione provenienti da sensori lineari [Zhang e Gruen, 2004; Zhang, 2005] e
successivamente adattato per elaborare immagini provenienti da immagini aeree o
terrestri con assi convergenti [Remondino e Zhang, 2006; Lambers et al., 2007;
Remondino et al., 2008]. SAT-PP ha un approccio multi-immagine basato sul Least
Square Matching (LSM) con vincoli sulla geometria epipolare [Gruen e Baltsavias, 1988;
Baltsavias, 1991]. Il software utilizza un approccio gerarchico da un basso livello di
dettaglio nella misurazione fino a quello di LoD massimo che risulta essere la
combinazione di diverse primitive immagine (punti d’interesse, edges, punti su un
grigliato regolare), e diversi algoritmi di image-matching (sia cross-correlation che LSM)
con controllo automatico finale sulla qualità del processo.
- 149 -
Capitolo 5
Sperimentazione
5.3.1.2 ARC 3D WEBSERVICE
ARC 3D (homes.esat.kuleuven.be/~visit3d/webservice/v2/) [Vergauwen e Van Gool,
2006] è un gruppo di strumenti software gratuiti che consentono agli utenti registrati al
servizio di caricare una sequenza di immagini digitali (stero-coppie) sul server del sito
internet e ricevere dopo alcune ore il risultato sottoforma di modello 3D. Le immagini
possono essere ricampionate per velocizzare il trasferimento dei file stesso al momento
dell’upload. ARC 3D effettua la ricostruzione su una rete di computer e in funzione delle
caratteristiche delle immagini quali dimensione, numero e qualità un tipico lavoro
richiede dai 15 minuti alle 2-3 ore. Se la ricostruzione è avvenuta con successo, il sistema
invia una notifica mediante e-mail consentendo quindi il download dei dati. Il sistema è
totalmente automatico e richiede almeno 5-6 immagini non molto convergenti. Inoltre la
scena inquadrata nelle immagini non deve essere piana altrimenti il processo di selfcalibration per la stima dei parametri di orientamento interno ed esterno fallisce. Inoltre
la distanza principale deve essere tenuta costante durante l’acquisizione delle immagini
così come non sono consentite immagini ruotate. Successivamente mediante il software
gratuito MeshLab sviluppato dal CNR-ISTI di Pisa (http://meshlab.sourceforge.net/), è
possibile scegliere i parametri di image matching o generare il modello poligonale
sottoforma di mesh triangolare.
5.3.2 ESEMPI E ANALISI DELLE PERFORMANCE
In questa sperimentazione sono stati acquisite diverse sequenze di immagini a differenti
risoluzioni e scale. Le caratteristiche fondamentali di questi dataset sono riassunti in
tabella 5.3.C.
Venice
Edzna
Dresden
Stone
Bern
Eye
Number of images
3
9
6
3
7
4
Image resolution
5 MP
3 MP
6M
6 MP
7 MP
7 MP
Scale Number
550
850
300
215
125
6
GSD [mm]
14
3.3
0.6
0.4
0.3
0.015
Tabella 5.3.C - Caratteristiche principali delle sequenze di immagini utilizzate in questa
sperimentazione
Le immagini sono state acquisite con camere amatoriali digitali precedentemente
calibrate mediante bundle block adjustment con self calibration.
Tutte le immagini sono state orientate relativamente tra loro inserendo come vincolo di
scala la distanza misurata tra due punti. I residui immagine sono risultati essere tutti
- 150 -
Capitolo 5
Sperimentazione
inferiori al pixel. Poiché il software ARC 3D effettua autonomamente e automaticamente
l’intero flusso di modellazione fotogrammetrica, non è stato possibile controllare la
calibrazione e la fase d’orientamento delle immagini con conseguenti problemi sulla
scalatura dei modelli che ha reso difficoltoso il processo di confronto.
Il software SOCET SET, acronimo di SOftCopy Exploitation Toolkit, è un software
della BAE SYSTEMS, specificamente sviluppato per immagini aeree e da satellite e non
consente di orientare immagini in assenza di punti di controllo e/o con immagini
convergenti. I parametri di orientamento esterno sono stati quindi ottenuti con il software
Photomodeler e poi importati manualmente in SOCET SET. I moduli Automatic Terrain
extraction (ATE) e Next Generation Automatic Terrain Extraction (NGATE) del software
SOCET SET effettuano la misura automatica di DSM principalmente su stereo-coppie ad
assi paralleli anche se recentemente lo scrivente [Menna e Troisi, 2007] ne ha mostrato
l’utilizzo anche con immagini ad assi convergenti.
ATE è un software di image-matching che usa l’algoritmo con approccio gerarchico
Hierarchical Relaxation Correlation (HRC) dallo spazio oggetto a quello immagine (grid
points).
NGATE è invece basato su un approccio ibrido che fa uso di metodologie ABM e FBM;
i risultati del matching ottenuti con la cross-correlation sono utilizzati per guidare e
vincolare l’approccio Features Based Matching. Il risultato finale è quindi una
combinazione dei due approcci e include strumenti per l’individuazione automatica di
errori grossolani (utilizzando più coppie di immagini). L’image-matching avviene dallo
spazio immagine a quello oggetto cercando le corrispondenze nelle stereo-coppie per
ogni pixel delle immagini.
I risultati più soddisfacenti sia da un punto di vista di dettaglio che di accuratezza si
sono ottenuti con il modulo NGATE.
Tutti i software utilizzati nella sperimentazione, eccetto il SAT-PP, hanno mostrato
problemi nelle zone con poca texture (per esempio materiali omogenei come il marmo) e
generalmente richiedono tecniche avanzate di pre-elaborazione delle immagini (SAT-PP
usa il filtro di Wallis) per diminuire il rumore digitale. Inoltre le moderne camere digitali
inglobano funzioni di elaborazione delle immagini come lo sharpening che introducono
artefatti in prossimità di bordi aumentando ulteriormente il rumore locale. I risultati
grafici dei primi cinque dataseti sono mostrati nelle figure 5.3.7-5.3.11.
- 151 -
Capitolo 5
Sperimentazione
Figura 5.3.7 – DSM del dataset Venezia generati rispettivamente con i software NGATE (a), ATE(b), ARC
3D (c), SAT-PP (d).
E’ notevole il rumore e l’effetto smoothing sui fregi e sui bordi nel DSM generato con ATE (b).
Il DSM di ARC 3D presenta alcuni buchi (c)
Non è stato applicato alcun filtro smoothing durante la fase di generazione delle mesh.
- 152 -
Capitolo 5
Sperimentazione
Figura 5.3.8 – DSM del dataset “Edzna” generati rispettivamente con i software NGATE (a), ATE(b), ARC
3D (c), SAT-PP (d).
E’ notevole il rumore e l’effetto smoothing sui bordi nel DSM generato con ATE (b).
Il DSM di ARC 3D presenta alcuni errori causati molto probabilmente da un errata fase di orientamento (c).
Non è stato applicato alcun filtro smoothing durante la fase di generazione delle mesh.
- 153 -
Capitolo 5
Sperimentazione
a)
b)
c)
d)
Figura 5.3.9 – DSM del dataset “Dresden” generati rispettivamente con i software NGATE (a), ATE(b),
ARC 3D (c), SAT-PP (d).
Non è stato applicato alcun filtro smoothing durante la fase di generazione delle mesh.
- 154 -
Capitolo 5
Sperimentazione
a)
b)
c)
d)
Figura 5.3.10 – DSM del dataset “Stone” generati rispettivamente con i software NGATE (a), ATE(b), ARC
3D (c), SAT-PP (d). Il
Non è stato applicato alcun filtro smoothing durante la fase di generazione delle mesh.
- 155 -
Capitolo 5
Sperimentazione
a)
b)
c)
d)
Figura 5.3.11 – DSM del dataset “Bern” generati rispettivamente con i software NGATE (a), ATE(b), ARC
3D (c), SAT-PP (d). Sono notevoli il rumore e l’effetto di smoothing nel DSM generato con ATE. In questo
caso i buchi nel DSM generato con ARC 3D sono dovuti alla geometria di presa (dal basso verso l’alto).
Non è stato applicato alcun filtro smoothing durante la fase di generazione delle mesh.
- 156 -
Capitolo 5
Sperimentazione
Per il dataset “Eye” è stata effettuata una scansione con uno scanner a proiezione di
luce strutturata Breuckmann Opto-Top HE dall’accuratezza strumentale di circa 50
micron. I DSM generati con i diversi software sono stati così confrontati con il software
Polyworks IMAlign. Un primo allineamento approssimativo tra i DSM è stato ottenuto
con la procedura N-Point Pairs che usa la trasformazione conforme di Helmert senza
fattore di scala. Un caso a parte è stato quello relativo al DSM generato dal software ARC
3D, scalato e rototraslato utilizzando un modulo del software LAIM, sviluppato in
proprio, in cui è compreso il fattore di scala. Supponendo questo allineamento come
buona approssimazione iniziale è stata utilizzata successivamente la procedura basata
sull’algoritmo ICP (Iterative Closet Point, descritta nel capitolo 3) per determinare il
“Best Fit Alignment”. In questa fase, il software minimizza le differenze tra le due mesh
applicando iterativamente e sequenzialmente delle rotazioni e traslazioni incrementali alla
mesh mobile (i DSM da fotogrammetria in questo esperimento) secondo il principio dei
minimi quadrati lineari imponendo quindi che la media tra le distanze tra le due mesh sia
nulla e minimizzando la sommatoria dei quadrati delle distanze tra i punti delle due mesh.
Il software fornisce alla fine del processo di allineamento ai minimi quadrati lineari la
varianza dell’unità di peso a posteriori che può essere intesa come una stima della media
quadratica delle distanze euclidee tra i punti delle due mesh.
Poichè il processo di allineamento nei software commerciali avviene in genere con
algoritmo ICP senza variazioni di scala, in questo caso specifico e come dimostrato anche
in un altro recente lavoro [Fiani et al., 2008], si è dovuto procedere al confronto
apportando delle variazioni di scala manuali e incrementali tali da minimizzare il valore
della varianza dell’unità di peso a posteriori. Infatti i software commerciali sono
sviluppati per effettuare confronti tra dati omogenei, per esempio tra dati laser scanning e
non prevedono quindi la possibilità di confrontare dati con differenti scale. Inoltre da
questa sperimentazione è stato notato che diversi software (Rapidform, Geomagic,
Polyworks) forniscono risultati leggermente differenti, probabilmente dovuti agli
algoritmi di rimozione automatica degli outlier in fase di allineamento. Per tale motivo è
stato difficile definire dei parametri oggettivi per il confronto tra i diversi algoritmi e non
è quindi consentito definire un “vincitore”. E’ necessario effettuare ancora diversi test per
cercare di individuare delle metodologie standard nel confronto di dati di provenienza
eterogenea.
Nella figura 5.3.12 sono mostrati la sequenza di immagini per il dtataset “eye” e i DSM
generati con scanner a proiezione di luce strutturata e con i diversi software di image
- 157 -
Capitolo 5
Sperimentazione
matching. I confronti mediante allineamento ICP tra i DSM sono mostrati invece nella
figura 5.3.13.
- 158 -
Capitolo 5
Sperimentazione
a)
b)
c)
d)
e)
f)
Figura 5.3.12 – Le quattro immagini del dataset “Eye” (in alto). DSM (a) generato con lo scanner a
proiezione di luce strutturata Breuckmann (b) e DSM generati rispettivamente con i software NGATE (c),
ATE(d), ARC 3D (e), SAT-PP (f).
Non è stato applicato alcun filtro smoothing durante la fase di generazione delle mesh.
- 159 -
Capitolo 5
Sperimentazione
a)
b)
c)
d)
Figura 5.3.13 – Confronti con metodo ICP tra i DSM generati rispettivamente con i software NGATE (c),
ATE(d), ARC 3D (e), SAT-PP (f) e il DSM generato con scanner a proiezione di luce strutturata Breuckmann.
Il fondo scala (rosso = 0.15 mm; blu scuro = -0.15 mm) è pari a tre volte l’errore strumentale dichiarato dalla
casa costruttrice dello scanner (50 micron).
- 160 -
Capitolo 6
Sperimentazione
Modellazione 3D per il reverse engineering:
alcuni esempi applicativi nel settore dell’ingegneria navale
6.1 INTRODUZIONE
161
6.2 MODELLAZIONE FOTOGRAMMETRICA DI MODELLI IN SCALA DI
CARENE E PROPULSORI PER LE PROVE IDRODINAMICHE IN VASCA
NAVALE
163
6.3 INTEGRAZIONE DI TECNICHE DI FOTOGRAMMETRIA DIGITALE
E LASER SCANNING PER IL REVERSE ENGINEERING DELLA CARENA
DI UNA BARCA A VELA
178
6.1 INTRODUZIONE
Il reverse engineering è l’insieme di processi che, a partire da un oggetto reale antropico
(in genere opere d’ingegneria quali per esempio dispositivi o parti meccaniche, scocche
di automobili, carene di imbarcazioni, fusoliere, ali, ecc.) consente di ricreare il progetto
iniziale sottoforma di disegno o rappresentazione 2D-3D. Le motivazioni che spingono
alla realizzazione di un progetto di reverse engineering nascono quando il disegno di
progetto originale è andato perduto o qualora si vogliano effettuare analisi di conformità
per verificare che l’oggetto realizzato sia conforme a quello di progetto entro determinate
tolleranze. Il campo d’interesse per il reverse engineering è davvero molto vasto e la
tipologia di oggetti in questione è nella maggior parte dei casi di forma e dimensioni tali
che non è possibile definire delle direttive operative. Il processo di reverse engineering è
però comunque riconducibile a un processo di modellazione 3D inversa con l’aggiunta di
particolari procedure di analisi spaziale. Un progetto di reverse engineering richiede
competenze specifiche nel settore applicativo d’interesse, competenze necessarie per la
definizione dei riferimenti spaziali e la definizione delle tolleranze di progetto
nell’accoppiamento delle singole parti. Per fare un esempio, in modellazione meccanica
anche il più semplice accoppiamento tra una boccola e un albero richiede che siano note
le singole tolleranze di progetto (diverse in questo esempio), per poter stabilire il livello
d’accuratezza nel rilievo e nella modellazione inversa.
In questo capitolo sono mostrati alcuni esempi di reverse engineering nel caso specifico
del settore dell’architettura e dell’ingegneria navale per la modellazione 3D inversa di
carene di imbarcazioni al vero, modelli in scala di carene e propulsori allo scopo di
ricostruirne le forme e il piano di costruzione iniziale. In questo settore le forme delle
- 161 -
Capitolo 6
Sperimentazione
superfici sono generalmente non definibili matematicamente (free form surface) e
presentano caratteristiche geometriche tali (per esempio le cosiddette “forme avviate”) da
trovare analogie in molti altri settori del reverse engineering, come quello dell’industria
automobilistica, settore aeronautico, ecc..
Negli ultimi anni, nel settore navale, sono stati eseguiti studi sperimentali per la
modellazione inversa utilizzando soprattutto sensori attivi come laser scanner e proiettori
a luce strutturata [Guidi et al., 2005, Hand et al., 2005]. Sono invece davvero pochi i
lavori inerenti la modellazione 3D inversa con tecniche fotogrammetriche e tutte basate
sul rilievo di pochi punti presegnalizzati da target, metodo che richiede poi procedure di
interpolazione, approssimazione e riprogettazione manuale con superfici NURBS in
ambienti software di modellazione.
In [Menna e Troisi, 2007; Ackermann et al., 2008] è stato mostrato come sia possibile
ottenere modelli tridimensionali densi e accurati di superfici free form con tecniche
fotogrammetriche di image-matching in ambito navale dove in assoluto la tecnica
fotogrammetrica, data la sua versatilità, consente di ovviare a diversi problemi quali per
esempio:
(i)
oggetti dalle dimensioni considerevoli;
(ii)
spazi ristretti;
(iii)
condizioni ambientali svantaggiose per le comuni tecniche di rilievo a
scansione e/o tradizionali (movimento dei bacini di carenaggio galleggianti);
(iv)
tempi a disposizione per il rilievo molto limitati a causa del costo giornaliero
per l’utilizzo dei bacini di rimessaggio e carenaggio e indotti dal periodo di
inattività dell’unita navale.
In [Fiani et al., 2008] sono state evidenziate problematiche e suggerite metodologie
operative risolutive per l’integrazione di tecniche laser scanning e fotogrammetriche nella
generazione di modelli 3D di carene di imbarcazioni al vero con notevoli benefici
soprattutto da un punto di vista dei tempi necessari per la fase di rilievo.
Vengono qui di seguito riportati alcuni esempi di modellazione per il reverse
engineering sia di modelli in scala per le prove idrodinamiche in vasca navale (carene e
eliche), dove le accuratezze richieste sono anche molto spinte (migliori di 1/10 di
millimetro), sia un esempio di imbarcazione reale. Gli esempi sono tutti di notevole
interesse nell’ambito del reverse engineering perché caratterizzati da dimensioni (da 0,18
m a 12 metri) e accuratezze richieste molto differenti (da un 1/10 mm a 5 mm). In tutti i
casi le tecniche fotogrammetriche utilizzate sono di basso costo. L’analisi qualitativa dei
- 162 -
Capitolo 6
Sperimentazione
risultati è stata effettuata sia mediante confronti con altre tecniche di rilievo (CMM, laser
scanning, ecc.) sia confrontando i modelli con i piani di costruzione originali, ove
disponibili.
6.2 MODELLAZIONE FOTOGRAMMETRICA DI MODELLI IN SCALA DI
CARENE E PROPULSORI PER LE PROVE IDRODINAMICHE IN VASCA
NAVALE
In questa sperimentazione sono stati affrontati due casi studio relativi alla modellazione
3D inversa di due modelli in scala per le prove idrodinamiche in vasca navale disponibili
presso il Dipartimento di Ingegneria Navale (DIN) dell’Università Federico II di Napoli. I
due modelli, mostrati in figura 6.2.1(a-b) sono rispettivamente una carena di un motoyacht in scala 1:12.5 dalla lunghezza fuori tutto di circa 4.6 metri e un Elica Orvea E034
dal diametro di 180 mm.
Lo scopo di questa sperimentazione è quello di analizzare il livello di accuratezza
raggiungibile con tecniche di fotogrammetria digitale low-cost nella generazione di
Digital Dense Surface Model (DDSM) con tecniche di image-matching, in un settore
(modelli in scala) dove generalmente le misurazioni sono effettuate con metodologie per
contatto (dal semplice filo a piombo alle CMM e i laser tracker) allo scopo di studiarne le
problematiche e definire delle procedure standard per il rilievo e la modellazione che
siano poi applicabili anche su scafi al vero. La fotogrammetria è infatti una tecnica molto
versatile, per la quale l’accuratezza ottenibile varia linearmente con la scala immagine
secondo l’equazione (2.3) del capitolo 2 se la configurazione delle camere rimane la
stessa.
Alcuni problemi quali omogeneità nella colorazione delle superfici e riflessioni
speculari sono stati studiati attentamente e risolti nel caso specifico dei modelli con
trattamenti reversibili delle superfici, successivamente utilizzati anche nel caso di uno
scafo al vero. L’International Towing Tank Conference (ITTC) ha stabilito le tolleranze
che devono essere rispettate nella realizzazione di modelli in scala per le prove
idrodinamiche in vasca navale (http://ittc.sname.org/2006_recomm_proc/7.5-01-0101.pdf). Nel caso specifico di carene e eliche le tolleranze assolute in fase di
realizzazione dei modelli sono rispettivamente di 1mm per la carena e di 0.1 mm per
l’elica che corrispondono rispettivamente ad accuratezze relative in fase di rilievo e
modellazione di circa 1:4600 per la carena e di 1:1800 per l’elica.
- 163 -
Capitolo 6
Sperimentazione
Figura 6.2.1– Modelli in scala per le prove idrodinamiche in vasca navale modellati in questa
sperimentazione. Carena in scala 1:12.5 lunga 4.6 metri (sinistra),
elica Orvea di 180 mm di diametro (destra).
6.2.1 MODELLAZIONE 3D INVERSA DELLA CARENA IN SCALA
Il modello di carena in esame è stato scelto tra altri modelli disponibili presso il DIN
dell’Università Federico II per le sue particolari caratteristiche di forma. La presenza del
bulbo, della pinna e l’angolo pronunciato tra le murate e il fondo nella zona centrale e
poppiera della carena ne fanno uno dei casi più complessi da rilevare.
Il modello costruito in legno, lungo 4.6 metri, largo 0.8 metri e alto 0.48 metri è stato
fotografato con due fotocamere, una reflex Nikon D100 da 6 Mpx con obbiettivo dalla
focale nominale di 35 mm per il corpo principale della carena e un’amatoriale Canon
A620 da 7Mpx con focale nominale di 7.4 mm (zoom impostato in posizione wide) per
la modellazione del bulbo. Le camere sono state calibrate utilizzando il metodo bundle
adjustment con self calibration utilizzando il software Photomodeler 5.2.3 e due testfield
spaziali specificamente costruiti per questo tipo di applicazioni. Per applicazioni in cui è
richiesta un’accuratezza molto spinta nella misurazione fotogrammetrica è fondamentale
calibrare le fotocamere con impostazioni tali da mantenere quanto più possibile stabile
l’orientamento interno. La fotocamera deve essere calibrata impostando la ghiera di
messa a fuoco su una distanza media alla quale l’oggetto sarà fotografato, e l’apertura del
diaframma dell’obbiettivo mantenuta costante su un valore che sia un buon compromesso
tra profondità di campo e potere risolvente dell’ottica. Un valore dell’apertura del
diaframma molto chiuso (numero f alto) migliora la profondità di campo ma degrada il
potere risolvente dell’ottica a causa di problemi di diffrazione (pupilla d’entrata molto
piccola). Un valore dell’apertura del diaframma molto aperto (numero f basso)
diminuisce la profondità di campo e determina un potere risolvente dell’ottica non
omogeneo con una maggiore risoluzione nelle aree centrali e peggiore in quelle
- 164 -
Capitolo 6
Sperimentazione
periferiche della zona inquadrata. In questa sperimentazione la calibrazione e il rilievo
sono avvenute sequenzialmente sul campo per entrambe le fotocamere. La Nikon D100,
con la quale è stata ripresa quasi interamente la carena, la messa a fuoco dell’ obbiettivo è
stata fissata (in modalità manuale e bloccando la ghiera con uno spezzone di nastro
adesivo) a una distanza di 70 cm sia per la calibrazione che per il rilievo
fotogrammetrico. La Canon A620 è stata invece calibrata con impostazioni di messa a
fuoco automatica per due motivi: (i) non è presente alcun dispositivo meccanico (ghiera,
sblocco motore autofocus) (ii) praticità nella fase di scatto data l’assenza di un mirino
ottico per valutare una corretta messa a fuoco manuale. Per la Canon A620 si è avuta cura
quindi di fotografare mantenendo una distanza pressoché costante tra l’oggetto e la
camera (sia in fase di calibrazione che di ripresa del bulbo). In questo modo le piccole
variazioni di messa a fuoco, sebbene comportino una piccola variazione di distanza
principale, riescono a essere assorbite o distribuite sui parametri incogniti durante il
processo di calcolo della self calibration con metodo bundle adjustment.
Il tempo necessario per la calibrazione delle due fotocamere (prese fotografiche più
elaborazione) è stato pari circa a 3 ore ed è stata eseguita da un solo operatore.
Le principali caratteristiche delle fotocamere utilizzate e i parametri fondamentali delle
prese fotografiche per questa sperimentazione sono riassunti nella tabella 6.2.A.
FOTOCAMERE
Nikon D100 (6Mpx)
Canon A620 (7 Mpx)
Dimensione ∆x′ del pixel (µm)
7.8
2.3
Focale Nominale (mm)
35
7.3
Distanza di presa media (cm)
70
20
Numero di foto scattate
420
50
1:Scala immagine m
20
30
GSD ∆X = ∆x ′ ⋅ m (mm)
0.160
0.070
Dimensioni area inquadrata (mm)
470 x 310
220 x 160
Tabella 6.2.A – Fotocamere utilizzate nella sperimentazione e caratteristiche
principali tecniche e di scatto.
Per garantire il raggiungimento delle accuratezze richieste, la scala immagine è stata
scelta in modo da avere dimensioni nello spazio oggetto del pixel (GSD) sempre inferiori
- 165 -
Capitolo 6
Sperimentazione
a 0.25 mm e l’equazione (2.3) del capitolo 2 è stata utilizzata nel caso più svantaggioso
considerando inoltre possibili ulteriori errori introdotti successivamente nella fase di
elaborazione e costruzione della mesh poligonale. La precisione teorica nelle tre
coordinate prevista per questo rilievo fotogrammetrico utilizzando invece l’equazione
(2.3) nel caso di rilievo multi-foto con immagini convergenti (q=0.8), numero di foto per
stazione mediamente pari a 2 ed errore nella determinazione del centroide dei target
circolari pari 0,25 pixel, è risultata essere di circa 25 micron.
Durante la fase di rilievo, effettuata negli ambienti circostanti la vasca navale, la
superficie della carena è stata trattata con una soluzione molto diluita di colla vinilica e
tempera colorata per limitare le riflessioni della luce ambiente e creare una trama che
consentisse agli algoritmi di image-matching di trovare agevolmente le corrispondenze
immagine (Fig. 6.2.2).
Figura 6.2.2– Preparazione superficiale dello scafo con trattamento reversibile con colla vinilica e tempera
colorata per limitare l’effetto dei riflessi della luce ambiente e creare una trama artificiale sulla carena.
Successivamente sono stati posizionati sullo scafo circa 500 target codificati in modo
che su ogni immagine, in funzione dell’area inquadrata, fossero presenti almeno dodici
target circolari per consentire una buona ridondanza nell’orientamento automatico delle
immagini, troppo oneroso da svolgere manualmente dato l’elevato numero di immagini e
punti (470 immagini).
L’operazione di trattamento della superficie (escluso il tempo di essiccazione) e
apposizione dei target ha richiesto circa 3 ore ed è stata svolta da 2 operatori.
Le immagini sono state scattate per strisciate: 3 longitudinali per ogni lato della barca
(bassa, media e alta con assi inclinati e sovrapposizione trasversale minima del 20%, max
del 100%) due per il lato poppiero (bassa e alta con sovrapposizione minima del 20%) e
una per il lato prodiero. All’interno di ogni strisciata la sovrapposizione tra le foto è stata
- 166 -
Capitolo 6
Sperimentazione
mediamente del 65% inserendo da alcuni punti di stazione (ogni due) foto convergenti
verso prua e poppa. In questo modo è stato progettato che ogni target codificato fosse
visibile su un minimo di tre foto con angoli di intersezione dei raggi ottici di almeno 60°.
Il tempo necessario per la ripresa delle foto da parte di un solo operatore è stato di circa
10 ore.
Dato l’elevato numero di foto presenti l’elaborazione simultanea di tutte le foto in un
solo blocco non è risultata agevole con le attuali capacità di calcolo dei desktop computer.
Una delle fasi più dispendiose durante il processo di orientamento esterno è la stima dei
parametri approssimati delle incognite, davvero molto onerosa per circa 500 foto. Così si
è proceduto a orientare le strisciate prima singolarmente con metodo bundle adjustment
del software Photomodeler e poi successivamente in maniera congiunta (tutte le foto in
un unico blocco) utilizzando una funzione dello stesso software, denominata merge
(rototraslazione tramite punti doppi) per stimare i parametri approssimati degli
orientamenti esterni di tutte le foto. Il processo di orientamento con il software
photomodeler ha richiesto circa 40 ore ed è stato svolto da un solo operatore.
I risultati della compensazione dell’intero blocco di foto è riassunto nella tabella 6.2.B.
Il valore assoluto della precisione teorica sulle coordinate dei coded target nello spazio
oggetto è risultato essere di 0.055 mm che corrisponde a una precisione teorica relativa
sui tie-point di circa 1:90000.
L’angolo medio di intersezione tra i raggi ottici è stato 78° e il numero medio di raggi
per punto è stato pari a 10. La configurazione della camere è visibile in figura 6.2.3.
Il modello successivamente è stato quindi scalato utilizzando una barra calibrata di 600
mm in acciaio C40 fotografata in più punti del modello (per controllo e ridondanza).
CIRCULAR CODED TARGET
Max
Min
Average
X Precision (mm)
0,047
0,012
0,026
Y Precision (mm)
0,100
0,014
0,033
Z Precision (mm)
0,073
0,016
0,036
Precision Vector Length (mm)
0,115
0,026
0,056
Angle (deg.)
89,999
15,806
78,583
Largest Residual (pixel)
0,737
0,022
0,193
Tabella 6.2.B – Alcune statistiche riassuntive del processo di compensazione del bundle adjustment
- 167 -
Capitolo 6
Sperimentazione
Figura 6.2.3– Configurazione delle camere e tie point dopo il processo di bundle adjustment.
Una volta orientato l’intero set di foto, sono stati restituiti manualmente una serie di
punti sullo scafo (materializzati in fase di costruzione dei modelli in scala) necessari per
individuare il sistema di riferimento di coordinate solidale con il modello di carena (il
sistema di riferimento di progetto). Le direzioni degli assi di tale sistema sono state
determinate con tecniche ai minimi quadrati lineari. Successivamente sono stati definiti
alcuni sistemi di riferimento oggetto in Photomodeler in modo da avere l’asse z rivolto
verso le camere. In sistemi di coordinate oggetto così definiti, gli orientamenti esterni
delle fotocamere divengono simili a quelli del caso aereo e, come dimostrato in [Menna e
Troisi, 2007], possono essere importati in software di image-matching per la
fotogrammetria aerea gestendo convergenze tra gli assi anche maggiori di 80 gradi. Nel
caso specifico sono stati definiti sei sistemi di riferimento (uno per ciascun lato della
carena, uno per la poppa e tre per il bulbo) all’interno dei quali generare i DSM (un punto
ogni 2 mm) con tecniche di image-matching utilizzando il modulo NGATE di SOCET
- 168 -
Capitolo 6
Sperimentazione
SET 5.4.0. Per riportare le nuvole di punti nel sistema di riferimento di progetto è stato
utilizzato un modulo di LAIM che si basa su metodi procustiani usando le coordinate dei
tie point come punti doppi nei sistemi ruotati e in quello di progetto. La successiva fase di
editing, riduzione del rumore e generazione della mesh è stata effettuata in maniera
controllata (modifica massima di 0.5 mm delle coordinate dei punti) con il software
GEOMAGIC. Il risultato dell’allineamento con le nuvole di punti rappresentate in
colorazione differente è visibile in figura 6.2.4, la mesh finale è invece visibile in figura
6.2.5.
L’operazione di generazione dei DSM con image matching, rototraslazione, editing e
costruzione della mesh ha richiesto circa 70 ore ed è stata svolta da un operatore.
La tabella 6.2.C riassume i tempi necessari per la generazione della modellazione da
parte di un solo operatore con le tecnica utilizzate.
Tempo Richiesto (h)
Calibrazione delle fotocamere
3
Trattamento della superficie e apposizione dei target
6
Esecuzione degli scatti
10
Orientamento
40
Image-matching, rototraslazione, editing e generazione mesh
70
Totale
129
Tabella 6.2.C – Tempi necessari per la modellazione 3D inversa della carena.
Figura 6.2.4 – Allineamento delle nuvole di punti con metodo procustiano implementato in LAIM.
- 169 -
Capitolo 6
Sperimentazione
Figura 6.2.5 – Mesh finale del modello della vasca in differenti viste.
Successivamente il modello è stato sezionato secondo i piani principali del sistema di
riferimento solidale alla carena generando così delle linee 2D da confrontare con quelle di
progetto. Il confronto con il piano di costruzione in formato cartaceo, precedentemente
digitalizzato e rettificato per eliminare le distorsioni indotte durante la fase di scansione,
ha rivelato una discrepanza massima inferiore a tre millimetri. Questa differenza potrebbe
essere causata dalle deformazioni subite a causa delle condizioni ambientali (soprattutto
umidità) dal momento che il modello (in legno) è stato costruito più di vent’anni fa. Allo
scopo di approfondire l’analisi delle deformazioni subite dal modello, è stata effettuata
un’analisi di simmetria specchiando la parte sinistra dello scafo su quella di destra
rispetto al piano longitudinale e calcolando le distanze euclidee tra i punti delle mesh
(Fig.6.2.6). L’asimmetria massima è risultata essere 2 mm. L’analisi di simmetria è stata
effettuata anche sul piano di costruzione in formato cartaceo digitale (Fig.6.2.7).
Figura 6.2.6 – Analisi di simmetria tra sinistra specchiata e dritta (mm).
- 170 -
Capitolo 6
Sperimentazione
Figura 6.2.7 – Analisi di simmetria tra sezioni trasversali di sinistra specchiata e dritta sovrapposte al
disegno cartaceo di progetto (le unità indicate sugli assi di riferimento sono in mm).
- 171 -
Capitolo 6
Sperimentazione
6.2.2 MODELLAZIONE 3D INVERSA DELL’ELICA ORVEA E034
Per questa sperimentazione è stata scelta un’elica Orvea E034 della serie BWageningen B3-50 di cui sono ben noti i parametri principali di progetto. Il modello,
costruito in bronzo, è un’elica destrorsa a tre pale dal diametro e passo di 180 mm,
utilizzata per le prove idrodinamiche di autopropulsione in vasca navale dei modelli di
carene in scala.
La grande sfida in questa sperimentazione è legata alle dimensioni dell’elica e
all’accuratezza stabilita dall’ITTC per questa classe di oggetti, pari a 0,1 mm. Con oggetti
di queste dimensioni sono da preferire camere con focale più piccola a parità di area
inquadrata perché la profondità di campo risulta maggiore (funzione del quadrato della
focale). Per tale motivo, per eseguire il rilievo fotogrammetrico, è stata utilizzata una
fotocamera amatoriale digitale Fujifilm S5600 da 5 Mpx con focale nominale di 6.3 mm.
Le principali caratteristiche della fotocamera utilizzata e i parametri fondamentali delle
prese fotografiche per questa sperimentazione sono riassunti nella tabella 6.2.D.
Fujifilm S5600 (5 Mpx)
Dimensione ∆x′ del pixel (µm)
2.9
Focale Nominale (mm)
6.3
Foto misura coordinate target circolari
Distanza di presa media (cm)
18
Numero di foto scattate
30
1:Scala immagine m
28
GSD ∆X = ∆x ′ ⋅ m (mm)
0.080
Dimensioni area inquadrata (mm)
215 x 160
Foto image-matching
Distanza di presa media (cm)
10
33
Numero di foto scattate
(4 per ogni faccia delle pale e 9 per il mozzo)
1:Scala immagine m
15
GSD ∆X = ∆x ′ ⋅ m (mm)
0.045
Dimensioni area inquadrata (mm)
115 x 86
Tabella 6.2.D - Caratteristiche e parametri di scatto della fotocamere utilizzata per la modellazione
dell’elica Orvea.
- 172 -
Capitolo 6
Sperimentazione
La fotocamera è stata calibrata con impostazioni macro mediante bundle adjustment con
self calibration utilizzando il testfield spaziale mostrato in figura 6.2.8 a una distanza
media di circa 15 cm.
Figura 6.2.8 – Test field (120 x 120 x 35 mm) per la calibrazione in modalità macro della Fuji S5600
(sinistra) e configurazione delle prese per la calibrazione (destra).
Al fine di limitare l’effetto dei riflessi causati dalla superficie metallica l’oggetto è stato
opacizzato spalmando un sottilissimo strato di cerone e controllando le luci con un set per
fotografia still-life autocostruito (Fig. 6.2.9). L’effetto di riduzione dei riflessi è visibile in
figura 6.2.10. Successivamente sono stati applicati 57 target circolari (7 per ogni faccia
delle pale e 15 sul mozzo) codificati per eseguire l’orientamento automatico delle
immagini in Photomodeler 5.2.3.
Figura 6.2.9 –Still life set utilizzato per controllare l’effetto dei
riflessi sulla superficie metallica dell’elica.
- 173 -
Figura 6.2.10 – Effetto di riduzione
dei riflessi. Senza luce diffusa (in
alto), con luce diffusa (basso).
Capitolo 6
Sperimentazione
Per poter generare un DSM con accuratezza inferiore al decimo di millimetro sono state
effettuate due serie di scatti con differenti scale immagine. La prima serie è servita a
misurare, con configurazione ottimale delle camere, i target codificati posizionati sulle
pale e sul mozzo, la seconda, a scala immagine maggiore, a generare i DSM in SOCET
SET. L’orientamento con metodo del bundle adjustment ha fornito un errore massimo di
0.02 mm sulle coordinate dei target codificati. La configurazione delle camere è visibile
in figura 6.2.11. Il modello fotogrammetrico è stato infine scalato con una barra d’acciaio
calibrata di 100 mm. Analogamente al caso del modello di carena, descritto nel paragrafo
precedente, sono stati definiti diversi sistemi di riferimento per la generazione dei DSM
con tecniche image-matching (uno per ogni faccia delle pale e tre per il mozzo).
Figura 6.2.11 – Configurazione geometrica delle prese per l’elica Orvea.
I DSM, generati con i moduli ATE di SOCET SET (un punto ogni 0.5 mm) sono stati
rototraslati e successivamente editati per generare la mesh con le stesse procedure
illustrate nel paragrafo precedente.
Per poter misurare il passo (pitch) e il massimo spessore delle pale (thickness) il
modello 3D dell’elica è stato sezionato ad una distanza pari a una distanza di 7/10 del
raggio, valore di riferimento rispetto al quale sono riportati passo e spessore nei disegni
progettuali delle eliche. Il sezionamento è avvenuto con un cilindro coassiale (Fig.
6.2.12) al mozzo dell’elica, asse individuato con tecniche ai minimi quadrati. I valori
ottenuti da questa operazione sono stati poi confrontati con quelli ottenuti da misure
effettuate con una particolare CMM disponibile presso il DIN dell’università Federico II
di Napoli (Fig. 6.2.13).
- 174 -
Capitolo 6
Figura 6.2.12 – Sezionamento del modello
3D dell’elica con un cilindro coassiale al
Sperimentazione
Figura 6.2.13 – CMM utilizzata per la misura del passo
e dello spessore massimo delle pale.
mozzo e di raggio pari a 7/10 del raggio
I risultati dei confronti mostrati in tabella 6.2.E indicano una differenza massima nella
misura dello spessore di 0.11 mm e di 0.36 mm nella misura del passo (tolleranza
maggiore secondo i parametri dell’ITTC). La misura del raggio sul modello
fotogrammetrico è stato pari a 90.016 mm contro i 90 mm di progetto con una differenza
di soli 16 micron.
I valori ottenuti sono molto incoraggianti e suggeriscono di approfondire maggiormente
questo tipo di confronti anche perché il tipo di CMM utilizzato ha un’accuratezza di circa
50 micron e richiede particolare cura nelle operazioni di misura.
Ulteriori cause d’errore nella modellazione dell’elica sono in parte dovute alla presenza
dei target il cui spessore è circa un decimo di millimetro. I target sono stati rimossi
durante la fase di editing generando dei buchi successivamente riempiti con funzioni di
interpolazione presenti nel software Geomagic e quindi possibili fonti d’erorre. Un’altra
problematica che è necessario approfondire è inerente la calibrazione. La camera è stata
calibrata a una distanza media tra quella minima per l’image-matching , e massima per la
misura delle coordinate dei coded target. A queste distanze una variazione di pochi
centimetri può comportare variazioni nella distanza principali secondo la (2.2) del
capitolo 2 anche notevoli. Una variazione di distanza coniugata oggetto da 15 a 10 cm
provoca una variazione di distanza principale di quasi un decimo di millimetro! Le
conseguenze non sono state ancora studiate anche perché il processo di self calibration
mediante bundle adjustment in genere assorbe e distribuisce gli errori del modello sui
numerosi parametri incogniti.
- 175 -
Capitolo 6
Pitch by CMM
Pitch by photogrammetry
Pitch differences
Thickness by CMM
Thickness by photogrammetry
Thickness differences
Sperimentazione
Blade 1
182.37
182.64
0.27
4.06
4.03
−0.03
Blade 2
181.19
180.91
−0.28
3.87
3.88
0.01
Blade 3
182.49
182.13
−0.36
3.95
4.06
0.11
Tabella 6.2.E – Confronti tra misure effettuate con tecniche fotogrammetriche e con CMM.
Ulteriori analisi e confronti con i dati di progetto (profili e inclinazione delle
generatrici) (Fig. 6.2.14) hanno confermato l’attendibilità delle misure effettuate sul
modello 3D generato con tecniche fotogrammetriche. L’inclinazione delle generatrici è
risultata essere pari a 15° come quella di progetto (Fig. 6.2.15).
Figura 6.2.14 – Sezionamento dell’elica con piani passanti per l’asse del mozzo.
- 176 -
Capitolo 6
Sperimentazione
Figura 6.2.15 – Misura dell’inclinazione della generatrice.
Una ulteriore importante analisi spaziale per il reverse engineering sull’elica è
rappresentata dalla misura dello spessore della pala in ogni suo punto effettuando la
differenza tra le superfici delle facce superiori e inferiori (Figura 6.2.16).
Figura 6.2.16 – Spessore della pala misurato attraverso il calcolo delle distanza euclidee tra le due facce
(valori in mm).
- 177 -
Capitolo 6
Sperimentazione
6.3 INTEGRAZIONE DI TECNICHE DI FOTOGRAMMETRIA DIGITALE
E LASER SCANNING PER IL REVERSE ENGINEERING DELLA CARENA
DI UNA BARCA A VELA
I rilievi fotogrammetrico e laser effettuati in questa sperimentazione riguardano la
carena di una barca a vela da regata, costruita in legno nel 1980, di lunghezza fuori tutto
di circa 12 m, larghezza massima di 3,67 m e altezza di 3,2 m (inclusa la deriva).
Le misure sono state eseguite sul molo di un cantiere nautico nel quale erano presenti
altre barche messe a secco che, per la loro posizione rispetto a quella oggetto del test,
hanno influenzato lo schema delle scansioni laser, delle prese fotogrammetriche e del
rilievo topografico dei target. In figura 6.3.17 è mostrata la barca a vela Test, il cui nome
è “Cuordileone”.
Figura 6.3.17 – Barca a vela Test.
6.3.1 RILIEVO E MODELLAZIONE FOTOGRAMMETRICA
Il rilievo fotogrammetrico della carena dell’imbarcazione è stato eseguito con una
fotocamera digitale reflex NIKON D100 da 6Mpx con obiettivo di focale nominale 35
mm. La calibrazione del sistema corpo macchina-obbiettivo è stata effettuata in
laboratorio acquisendo immagini di un test field tridimensionale con procedura selfcalibration mediante Bundle Block Adjustment.
Prima di effettuare le riprese dello scafo, sono stati posizionati circa trecentocinquanta
target circolari autoadesivi del diametro di 6 cm, dei quali centosessanta codificati per il
riconoscimento automatico.
- 178 -
Capitolo 6
Sperimentazione
L’ubicazione di tali target è stata progettata in modo da delineare le linee fondamentali
dello scafo, utilizzate in seguito per la definizione di un RS solidale con l’oggetto: linea
di galleggiamento, piano diametrale, ruota di prua, deriva, etc.
La posizione di circa quaranta target è stata rilevata con una stazione totale Leica TCRA
1102, in modalità senza prisma, da due punti di stazione materializzati a terra, in un unico
RS esterno allo scafo. La rete topografica non è stata sottoposta ad una vera e propria
compensazione per quanto riguarda i punti battuti sullo scafo in quanto questi sono stati
rilevati necessariamente solo dalla stazione posizionata sullo stesso lato: gli unici punti
battuti da entrambe le stazioni sono stati quelli di collegamento a terra e alcuni target
sferici posizionati sul piano diametrale, per i quali sono stati ottenuti scarti quadratici
medi nelle coordinate inferiori a 6 mm.
Al fine di controllare un eventuale sbandamento trasversale dell’imbarcazione e
possibili torsioni del modello fotogrammetrico, in corrispondenza dell’estremità prodiera
e poppiera sono stati calati due fili a piombo, le cui oscillazioni sono state smorzate
disponendo i pesi in contenitori riempiti di liquido ad alta viscosità.
La presenza di un sottile strato di polvere sulla carena, dovuto alle operazioni di
ordinaria manutenzione sulle barche circostanti, ha disegnato una trama naturale
sufficientemente casuale da caratterizzare localmente la superficie (Fig. 6.3.18) e
garantire il funzionamento degli algoritmi di image-matching senza necessità di ulteriore
trattamento, come a esempio uso di opacizzanti e sovrimpressione di una trama.
Figura 6.3.18 – Trama naturale della superficie della carena.
E’ stato acquisito un centinaio di fotogrammi a scala media 1:170, in modo di coprire
con elevatissima sovrapposizione stereoscopica tutto lo scafo e di assicurare la presenza
- 179 -
Capitolo 6
Sperimentazione
di un adeguato numero di prese convergenti. Il Ground Sample Distance, GSD, risultante
è mediamente di circa 1.3 mm.
Le operazioni di collocazione dei target e l’acquisizione dei fotogrammi sono state
eseguite da due operatori e sono durate circa tre ore.
I fotogrammi acquisiti sono stati elaborati con il software di fotogrammetria digitale
close range PhotoModeler ver. 5.2.3 della EOS Systems. E’ stato eseguito l’orientamento
relativo utilizzando i target codificati che assicurano una maggiore precisione nella
collimazione automatica (fino a 0.1 pixel), ottenendo residui inferiori al pixel nella
compensazione in blocco dei fotogrammi. Per dimensionare e inquadrare il modello nel
sistema di riferimento esterno, sono stati utilizzati come punti fotografici di appoggio
cinque target codificati, assegnando i pesi in funzione delle accuratezze ottenute dalla
compensazione del rilievo topografico di appoggio (o stimate a priori in funzione delle
accuratezze strumentali della stazione totale utilizzata).
Successivamente, per referenziare il modello in un RS solidale all’oggetto, è stata
effettuata una rototraslazione nello spazio con procedura ai minimi quadrati. Il nuovo
sistema è definito mediante i seguenti elementi:
- il piano diametrale, individuabile dai target allineati sulla ruota di prua e sulla faccia
prodiera e poppiera della pinna di deriva,
- la retta intersezione tra il piano individuato dalla linea di galleggiamento e il piano
diametrale,
- un punto sulla retta, in corrispondenza della ruota di prua.
La terna cartesiana così definita è confrontabile (o meglio coincide) con quella utilizzata
nel piano di costruzione dello scafo.
Il processo di Bundle Adjustment ha fornito le coordinate di tutti i punti e i parametri di
orientamento esterno delle camere che sono stati utilizzati nella successiva procedura di
generazione del modello digitale della superficie (Digital Surface Model, DSM).
La massima lunghezza del vettore residuo sui punti manuali utilizzati per marcare alcuni
elementi caratteristici dello scafo è risultata di 20 mm mentre nei punti in cui erano stati
apposti i target codificati, in cui la collimazione era avvenuta in modo automatico e con
tecniche subpixel, la lunghezza del vettore residuo ammonta ad un massimo di 0.6mm.
La generazione del DSM è stata eseguita mediante il software Socet Set ver. 5.3 della
BAE Systems, utilizzando il modulo ATE. Analogamente a quanto effettuato nei casi
mostrati nei paragrafi precedenti per i modelli in scala, è stato qui necessario definire
almeno due diversi sistemi di riferimento corrispondenti ai due lati dello scafo. Inoltre,
- 180 -
Capitolo 6
Sperimentazione
poiché il modulo ATE dà problemi in presenza di prese molto convergenti, è stato
necessario utilizzare un terzo sistema; partendo da quello di riferimento solidale
all’oggetto e utilizzato nel piano di costruzione dello scafo, sono state effettuate
opportune rototraslazioni mediante il software Photomodeler, in modo da minimizzare i
valori assoluti degli angoli di orientamento esterno [Menna & Troisi, 2007].
Questa procedura risulta reversibile dal momento che insieme agli orientamenti esterni
vengono rototraslati anche i punti utilizzati per l’orientamento delle immagini, fornendo
così un set di punti doppi tra il nuovo RS per la generazione del DSM e quello relativo al
piano di costruzione.
In figura 6.3.19 le parti dello scafo diversamente colorate corrispondono alle nuvole di
punti misurate automaticamente nei tre differenti sistemi. Tali nuvole di punti sono state
successivamente riportate nel RS del piano di costruzione mediante il modulo di LAIM
per le rototraslazioni con metodo procustiano.
Figura 6.3.19 – Sistemi di riferimento utilizzati per la generazione del DSM.
Il DSM complessivo è stato generato su un grigliato regolare di punti con passo di 2 cm
utilizzando circa ottanta fotogrammi. La strategia impiegata è la Adaptive e si è utilizzato
il massimo numero possibile di coppie di fotogrammi. E’ stato fornito, come prima
approssimazione del DSM, quello costituito dai “punti seme” costruito sulle coordinate
dei target determinate con Photomodeler.
L’accuratezza teorica attesa per le coordinate spaziali dei tie point secondo l’equazione
(2.3) del capitolo 2 è risultata essere pari a 1 mm.
- 181 -
Capitolo 6
Sperimentazione
Il tempo necessario per l’elaborazione dei dati fotogrammetrici, riassumibile nelle
seguenti fasi: (1) calibrazione, (2) orientamento delle immagini, (3) restituzione di linee e
elementi necessari per la definizione del RS solidale alla carena, (4) generazione
automatica delle nuvole di punti e loro inquadramento nel RS finale, (5) generazione
della mesh è risultato pari a circa trenta ore.
6.3.2 RILIEVO E MODELLAZIONE LASER SCANNING
Il rilievo laser è stato effettuato con lo scanner terrestre ILRIS 36D della Optech. Tale
strumento è fornito di base rotante, che permette di acquisire scansioni panoramiche a
360°. La precisione strumentale nominale nella determinazione delle coordinate spaziali
dei punti rilevati è pari a 8 mm a una distanza di 100 m dall’oggetto.
Le trentasei scansioni sono state effettuate da dieci stazioni posizionate tutto intorno
allo scafo a una distanza media di 5 m da esso. La progettazione delle scansioni è stata
effettuata in funzione del metodo scelto per l’allineamento, l’Iterative Closest Point, ICP,
e risultano perciò molto sovrapposte.
Il passo di scansione è stato impostato da 2 a 5 mm e il diametro dello spot laser, alla
distanza di 5 metri, è risultato inferiore al millimetro. In tabella 6.3.F sono riportati alcuni
dati riassuntivi riguardanti le scansioni insieme a una rappresentazione grafica
dell’ubicazione dei punti di stazione rispetto allo scafo. Il rilievo laser dalle dieci stazioni
ha richiesto circa sei ore di lavoro.
La rumorosità dei punti laser è stata verificata analizzando in sezione un campione di
punti in un’area limitata. In figura 6.3.20 si evidenzia come la variazione della misura del
range sulla superficie dello scafo sia dell’ordine dei 40 mm.
- 182 -
Capitolo 6
STAZIONE
AD
A
AS
PRS
PR
PRD
BD
B
BS
PO
SCANSIONE
scanAD_1
scanAD_2
scanAD_3
scanA_24
scanA_25
scanA_26
scanA_27
scan AS_16
scanAS_17
scanAS_18
scan AS_19
scanPRS_16
scanPRS_17
scanPRS_18
scanPR_7
scanPRD_21
scanPRD_22
scanPRD_23
scanBD_12
scanBD_13
scanBD_14
scanBD_15
scanB_5
scanB_6
scanB_7
scanBS_5
scanBS_6
scanBS_7
scanBS_8
scanPO_4
Sperimentazione
DURATA
9’
14’
18’
11’
18’
22’
18’
12’
13’
20’
N°
PUNTI
198720
476100
370530
453051
502681
502681
93588
175032
749892
749892
390390
410310
763002
60237
1999712
25.626
705318
189645
310233
759506
759506
135564
407740
498427
428830
144486
494882
494882
351094
2281995
PASSO DI
SCANSIONE
4 mm (a 5
m)
4 mm (a 5
m)
4 mm (a 5
m)
4 mm (a 5
m)
2 mm (a 5
m)
4 mm (a 5
m)
4 mm (a 5
m)
4.9 mm (a
5 m)
4.9 mm (a
5 m)
2.4 mm (a
10 m)
Tabella 6.3.F – Dati relativi al rilievo laser scanning e ubicazione delle scansioni.
Figura 6.3.20 – Campione di punti utilizzato per l’analisi del rumore sul range (sinistra) e sua sezione
trasversale (valori in metri)
- 183 -
Capitolo 6
Sperimentazione
6.3.3 ELABORAZIONE DEI DATI LASER
6.3.3.1 ALLINEAMENTO CON METODO ITERATIVE CLOSEST POINT - ICP
L’elaborazione delle scansioni laser è stata eseguita con il software Polyworks della
Innovmetric. La base rotante dello scanner è dotata di encoder che misurano le rotazioni
dello strumento restituendo una nuvola di punti, che può essere considerata riferita a un
unico RS per ogni punto di stazione. Dapprima, sono state quindi allineate
automaticamente tutte le scansioni effettuate da ciascuna stazione ottenendo dieci distinte
nuvole di punti, ciascuna con proprio sistema di riferimento legato allo strumento.
Successivamente sono state allineate tra loro le dieci nuvole di punti, aventi grande
sovrapposizione l’una con l’altra, corrispondenti alle diverse parti dello scafo: fianco
destro, fianco sinistro, prua e poppa, ottenendo così quattro “blocchi”.
Questa operazione è stata effettuata mediante l’algoritmo ICP, implementato nel
modulo IMAlign del software (Soucy & Laurendeau, 1995) utilizzando anche punti non
appartenenti allo scafo (per esempio taccate di sostegno, candelieri e albero), in modo da
avere superfici multiforme. L’algoritmo ICP, se le superfici da allineare sono costituite da
forme lisce, può infatti portare a errati allineamenti anche in presenza di ottimi parametri
di convergenza che farebbero pensare a un corretto risultato (Guidi et al., 2005). Nel
modulo IMAlign l’allineamento avviene tra coppie di mesh poligonali previa generazione
di un grid regolare di punti il cui passo è stato fissato a 5 mm.
Per fornire all’algoritmo un primo allineamento approssimato, è stata utilizzata la
procedura di rototraslazione per punti omologhi implementata nel software, servendosi
delle intensity images (figura 6.3.21) per individuare i target fotogrammetrici. Alcune
scansioni, riguardanti la parte poppiera, hanno presentato problemi di allineamento per il
fatto che il timone era stato accidentalmente ruotato durante il rilievo; si è dovuto quindi
procedere alla rimozione di tale appendice dalla nuvola di punti in fase di editing.
Nelle procedure di allineamento si sono ottenute delle deviazioni standard inferiori al
centimetro eccetto per quelle relative alla prua e alla poppa dove si sono raggiunti valori
di circa 18 mm.
La mesh complessiva è stata composta mediante l’allineamento dei quattro blocchi con
procedura ICP, mantenendo fisso il RS di uno dei blocchi. Infine, la mesh è stata
sottoposta alla fase di editing per eliminare appendici e oggetti estranei alla carena. Il
tempo richiesto per l’elaborazione dei dati laser, dalla generazione delle mesh al loro
allineamento, è stato pari a circa trenta ore.
- 184 -
Capitolo 6
Sperimentazione
Nella figura 6.3.22 si mostra il risultato dell’allineamento di tutte le scansioni laser
dopo la fase di editing.
Figura 6.3.21 – Intensity image di una
Figura 6.3.22 – Risultato dell’allineamento delle
porzione di barca
scansioni.
6.3.3.2 ORIENTAMENTO CON REFERENCE POINTS - RPS
DA FOTOGRAMMETRIA
Un metodo alternativo di generazione di modelli tridimensionali fa uso di una procedura
integrata sperimentata insieme a quella standard dell’ICP. Sono state utilizzate per questa
prova solo due nuvole di punti relative alle stazioni A e B, le quali coprono interamente
rispettivamente i lati sinistro e destro della barca.
Per riportare le nuvole di punti nello stesso RS della fotogrammetria, sono stati calcolati
i baricentri dei punti laser contenuti nel cerchio più esterno dei target; tali punti sono stati
considerati centri dei target. Poiché le loro coordinate sono note nel sistema di
riferimento della fotogrammetria, è possibile calcolare i parametri di rototraslazione
spaziale con variazione di scala tra laser e fotogrammetria. Per ogni lato dello scafo sono
stati calcolati quindici centri di target (figura 6.3.23).
I residui massimi delle trasformazioni a sette parametri sono risultati inferiori a 7 mm su
entrambi i lati. I parametri calcolati sono stati applicati alle nuvole di punti ottenendo il
modello completo già referenziato e scalato. Questa procedura è stata eseguita con lo
stesso modulo del software LAIM già utilizzato per
portare i diversi DSM
fotogrammetrici in uno stesso RS.
Il tempo necessario per la generazione del modello finale con questa procedura integrata
ha richiesto circa dodici ore per la parte fotogrammetrica e due ore per l’inquadramento
delle due nuvole di punti nel RS fotogrammetrico e generazione della mesh.
- 185 -
Capitolo 6
Sperimentazione
Figura 6.3.23 – Lato destro. Punti doppi per la trasformazione a sette parametri.
6.3.4 CONFRONTO DEI RISULTATI
Sono stati confrontati i risultati ottenuti con le tre metodologie utilizzando come
reference il modello fotogrammetrico. Affinché il confronto tra i prodotti permetta di
evidenziare effettivi scostamenti tra i due modelli, questi devono essere ovviamente
riferiti alla stessa terna cartesiana.
Nel nostro caso, la definizione del RS confrontabile con quello del piano di costruzione
è risultata agevole con la tecnica fotogrammetrica grazie all’utilizzo di marker
autoadesivi di piccole dimensioni collocati in punti significativi dello scafo, mentre non è
stata effettuata per il modello laser. In generale, infatti, per misurare punti notevoli con
strumenti come gli scanner, che non hanno un apparato di collimazione, è necessario
utilizzare dei target volumetrici (tipo sfere, coni o altri solidi di forma nota) da modellare
con procedure e algoritmi di best fitting.
Nel test sono state impiegate alcune sfere di diametro di 6 cm ma, poiché lo scanner
impiegato presenta un rumore elevato sul range (Fig. 6.3.20), le operazioni di best fitting
delle sfere non hanno fornito risultati affidabili per la definizione dei loro centri. Risultati
probabilmente migliori per il best fitting si sarebbero ottenuti utilizzando dei target
volumetrici di maggiori dimensioni che tuttavia non sarebbero stati facilmente
posizionabili sullo scafo e avrebbero inoltre provocato ostruzioni prospettiche sulla
superficie, con conseguenti buchi nei dati. L’alternativa adottata, consistente, come detto,
nell’utilizzo delle intensity images del laser sui target fotogrammetrici, si è dimostrata
valida.
I confronti che seguono sono stati effettuati in ambiente GeoMagic Studio 8, in cui sono
stati costruiti sia il modello fotogrammetrico che quello laser dopo aver effettuato un
- 186 -
Capitolo 6
Sperimentazione
leggerissimo smoothing sui dati. Gli scostamenti tra due superfici o tra punti e superfici
sono computati come distanza più breve dalla mesh costruita come superficie di
riferimento.
6.3.4.1 LASER ICP - FOTOGRAMMETRIA
Per poter eseguire il confronto, i due modelli sono stati allineati con ICP prendendo
quello fotogrammetrico, già orientato nel RS del piano di costruzione, come superficie di
riferimento.
La convergenza della procedura ICP è ricercata, secondo il principio dei Minimi
Quadrati Lineari (MQL), minimizzando la sommatoria dei quadrati dei
vettori
scostamento tra i punti del modello da orientare e quelli della superficie di riferimento.
Poiché gli algoritmi di allineamento delle nuvole di punti implementati nei software
commerciali sono pensati per allineare dati omogenei, cioè ottenuti con la stessa
metodologia, se tra i due modelli è presente un fattore di scala, il risultato potrebbe non
essere veritiero. In genere, un fattore di scala diverso tra i due modelli conduce a un
risultato in cui i due modelli si intersecano, poiché la media dei vettori scostamento deve
essere nulla per il principio dei MQL (Fig. 6.3.24).
- 187 -
Capitolo 6
Sperimentazione
Figura 6.3.23 – Esempi dell’effetto dell’allineamento tra due modelli differenti solo in scala.
Il risultato del confronto effettuato con il software GeoMagic è mostrato in figura 6.3.24
dove sono ben visibili gli scostamenti tra le due superfici.
Si noti come il modello laser sia “esterno” a quello fotogrammetrico nella parte
inferiore dello scafo (colori della scala dal giallo all’arancio che corrispondono a valori
positivi), mentre nella parte superiore delle murate il comportamento è opposto (colori in
tonalità dell’azzurro, corrispondenti a valori negativi).
Fanno eccezione alcune zone colorate nei toni scuri dell’azzurro appartenenti alla parte
inferiore, in cui il modello fotogrammetrico è stato costruito per interpolazione perché la
presenza delle taccate ha ostacolato il processo di image-matching. Lo scostamento
medio sul fondo è di circa 1cm e raggiunge un massimo di circa 2.5 cm. Gli scostamenti
sui bordi delle mesh possono raggiungere anche valori notevolmente maggiori (vari
centimetri) ma non sono significativi di reali differenze tra i due modelli.
Il confronto tra i target rilevati con la stazione totale e il modello fotogrammetrico ha
evidenziato uno scostamento massimo di 7 mm, con media di 1 mm e deviation standard
(dev.st.) di 3 mm; lo stesso confronto effettuato con il modello laser presenta invece uno
scostamento massimo di 10 mm, media 4 mm e dev.st. 4 mm.
- 188 -
Capitolo 6
Sperimentazione
Figura 6.3.24 – Scostamento tra mesh laser allineata con ICP e mesh fotogrammetrica
(valori in metri).
6.3.4.2 LASER RPS - FOTOGRAMMETRIA
La nuvola di punti laser relativa ai dati rilevati dalle due stazioni A e B è già stata
sottoposta a trasformazione a sette parametri ed è quindi nello stesso RS del modello
fotogrammetrico.
Il confronto è stato effettuato sulla mesh costruita con le stesse procedure già seguite. I
risultati del confronto tra la mesh laser e quella fotogrammetrica sono visibili in figura
6.3.25, nella quale si evidenzia come l’allineamento ottenuto tenendo conto della diversa
scala porti a una migliore aderenza tra i due modelli: le zone a scostamento positivo, dove
il modello laser è esterno a quello fotogrammetrico (in giallo), sono distribuite in tutto lo
scafo, così come avviene per le zone colorate in blu che vedono la superficie laser interna
rispetto a quella fotogrammetrica. Gli scostamenti sul fondo dello scafo sono diminuiti
come entità ed estensione rispetto al precedente confronto.
Si sottolinea però che nella prima metodologia di allineamento sono state utilizzate le
nuvole di punti di tutte le scansioni, mentre nella seconda soltanto i dati relativi a due
punti di stazione.
- 189 -
Capitolo 6
Sperimentazione
Figura 6.3.25 – Scostamento tra mesh laser registrata con RPs e mesh fotogrammetrica
(valori in metri).
Si evidenzia inoltre un effetto che nel confronto precedente non era manifesto, proprio
perché erano state considerate tutte le scansioni: nella zona centrale delle murate si
notano delle forme ellittiche in cui la superficie laser è interna a quella fotogrammetrica.
Tale effetto, manifestatosi a seguito del confronto, era comunque già risultato visibile in
certe posizioni della nuvola di punti laser corrispondenti a particolari condizioni di
illuminazione (figura 6.3.26).
I dati di range in quel settore ellittico sono leggermente sovrastimati (quasi un
centimetro). Tale comportamento si nota sui dati delle stazioni laterali A e B nella parte
centrale delle murate, mentre per le altre stazioni è meno accentuato e si verifica in
posizioni leggermente diverse.
Figura 6.3.26 – Aree con ranges anomali.
- 190 -
Capitolo 6
Sperimentazione
Il confronto tra i target rilevati con la stazione totale e il nuovo modello laser evidenzia
in questo caso uno scostamento massimo di 8 mm, media nulla e una dev.st. di 4 mm. La
media nulla trovata negli scostamenti tra i dati topografici e la mesh laser è ovviamente il
risultato logico delle operazioni effettuate per la trasformazione a sette parametri.
6.3.4.3 CONFRONTO CON IL PIANO DI COSTRUZIONE E ANALISI DI
SIMMETRIA DELLA CARENA
Per confrontare i modelli ottenuti con il piano di costruzione, poiché quest’ultimo era
disponibile in copia cartacea, è stato rasterizzato a 300 d.p.i. e successivamente corretto,
mediante funzioni polinomiali, dagli effetti di distorsione procurati dallo scanner.
In figura 6.3.27 è visibile il disegno di progetto, rappresentato secondo le consuete
normative di disegno navale, che prevedono il tracciamento solo di metà scafo per le
imbarcazioni simmetriche come quella sotto test. In figura, le sezioni trasversali poppiere
sono disegnate sulla destra e quelle prodiere a sinistra.
Per confrontare le sezioni trasversali del piano di costruzione con quelle dei modelli
fotogrammetrico e laser, questi ultimi sono stati sezionati con piani trasversali in
corrispondenza dei valori definiti da progetto (Fig. 6.3.28). Le sezioni ottenute sono state
quindi sovrapposte al piano di costruzione “georeferenziato” nello stesso RS utilizzato
per i modelli.
Figura 6.3.27 – Piano di costruzione.
- 191 -
Capitolo 6
Sperimentazione
Figura 6.3.28 – Piano di costruzione.
Dal confronto effettuato, è risultato evidente che sia il modello fotogrammetrico che
quello laser sono leggermente più interni rispetto a quello di progetto nella parte inferiore
della carena, mentre sono coincidenti nella parte centrale e superiore delle murate.
Dall’analisi dei modelli è possibile infine ottenere utili informazioni sulla forma della
carena, che potrebbe presentare differenze significative rispetto a quella di progetto. Nel
caso in cui il comportamento manovriero dello scafo presenti anomalie, si può, infatti,
sospettare la presenza di una asimmetria rispetto al piano diametrale; un tipico esempio di
comportamento anomalo è quello che si verifica quando il natante devia dal percorso
rettilineo in assenza di cause perturbatrici (vento e corrente) pur avendo il timone al
centro, oppure quando una barca a vela tende a stringere la bolina in modo diverso sulle
due mura.
L’individuazione del piano diametrale permette quindi di effettuare un’analisi di
simmetria, allo scopo di evidenziare eventuali differenze tra la parte sinistra e quella
destra della carena, e più in generale dello scafo. L’individuazione di punti di riferimento
per la determinazione del piano diametrale sulle imbarcazioni è però un problema aperto,
soprattutto su carene senza un’evidente svasatura sul fondo come nel caso in esame.
L’importanza di queste analisi suggerisce l’idea di proporre la materializzazione di
appositi contrassegni sullo scafo durante la fase della loro costruzione sia per facilitare
- 192 -
Capitolo 6
Sperimentazione
eventuali operazioni di controllo di qualità che per la progettazione di possibili modifiche
dello scafo al vero. Nel caso in esame, data la mancanza dei suddetti contrassegni, sono
stati utilizzati punti che, per progetto, dovevano giacere sul piano diametrale, ma non si
esclude la possibilità che per problemi insorti in fase di costruzione, di montaggio della
deriva, di sue modifiche e/o possibili urti, tali elementi non rispettino più l’idea
progettuale.
Per indagare sulla eventuale presenza di asimmetria è necessario confrontare il modello
ricostruito a partire dal rilievo di uno dei due lati dell’imbarcazione con il simmetrico del
restante lato rispetto al piano diametrale. Tale operazione è stata effettuata sui tre modelli
(i due laser con i diversi allineamenti e quello fotogrammetrico), confrontando il lato
destro specchiato con il lato sinistro preso come riferimento. Le figure 6.3.29, 6.3.30 e
6.3.31 mostrano i risultati di tali confronti, effettuati in ambiente GeoMagic, dai quali si
evidenzia un sostanziale accordo tra i tre modelli e la minore larghezza della parte destra
poppiera rispetto a quella sinistra (fino a 4 cm).
Nel caso in esame, l’asimmetria di 4 cm riscontrata è infatti difficilmente attribuibile
all’incertezza nella definizione del piano diametrale, dal momento che il massimo dei
residui nel calcolo dello stesso, con la procedura MQL, è risultato pari a soli 2 mm.
Figura 6.3.29 – Modello Laser con RPs: confronto lato destro specchiato – lato sinistro (valori in metri).
- 193 -
Capitolo 6
Sperimentazione
Figura 6.3.30 – Modello fotogrammetrico: confronto lato destro specchiato – lato sinistro
(valori in metri).
Figura 6.3.31 – Modello Laser con ICP: confronto lato destro specchiato – lato sinistro (valori in metri).
- 194 -
Conclusioni
La ricerca ha affrontato ed evidenziato le principali problematiche inerenti la modellazione tridimensionale inversa in numerosi settori applicativi attraverso un approccio generalizzato. Lo studio e l’analisi delle metodologie analitiche e operative presenti in letteratura così come la possibilità di cooperare con altri enti di ricerca italiani (Università di Salerno, Federico II di Napoli, Scuola normale Superiore di Pisa,) e esteri (ETH di Zurigo)
ha consentito allo scrivente di evidenziare le attuali problematiche e i principali aspetti
della modellazione tridimensionale inversa intesa nell’accezione più generale del termine.
Sebbene infatti i requisiti in termini di accuratezze, tempi e costi per i progetti di modellazione 3D siano tra di loro molto differenti a seconda dell’ambito applicativo, i flussi di
modellazione tridimensionale inversa nei settori analizzati (ambiente e territorio, beni culturali, reverse engineering nel settore navale) sono molto simili. In ogni ambito sono stati
approfonditi gli aspetti principali sui quali sia il mondo scientifico che quello commerciale
chiedono quotidianamente delle risposte (automatismo, accuratezze raggiungibili, affidabilità, tempi, confronti tra i software, ecc.).
Si è concentrata l’attenzione sulle tecnologie che oggi forniscono il miglior compromesso tra costi, tempi, accuratezze, affidabilità e versatilità: sistemi ottici a scansione attivi e
fotogrammetria digitale. I sistemi a scansione attivi divengono oggi sempre più popolari
per la loro semplicità d’uso, la fotogrammetria digitale sempre più versatile ed economica.
L’utilizzo di fotocamere amatoriali digitali ai fini metrici, ha esteso notevolmente gli orizzonti applicativi della modellazione tridimensionale grazie alla possibilità di stimare, durante la fase di calcolo al computer, i parametri di calibrazione della camera e di correggere gli errori sistematici introdotti dalla non coincidenza con il modello geometricomatematico su cui si basa la fotogrammetria. Le potenzialità offerte dall’analisi spaziale e
dalla documentazione virtuale digitale riscuotono una sempre maggiore popolarità anche
tra i non addetti ai lavori. La definizione di standard in materia diviene per tale motivo
sempre più necessaria.
La sperimentazione delle tecniche di modellazione inversa è stata effettuata in campi
molto diversi: discipline per lo studio dell’ambiente e del territorio, documentazione e
conservazione dei beni culturali, reverse engineering. Di ogni settore sono state analizzate
e messe in evidenza le principali difficoltà e proposte opportune metodologie operative risolutive. Oggetti dalle forme lisce e non definibili matematicamente come quelli rilevati
nella sperimentazione effettuata nel settore navale trovano forti analogie in altri settori
come quelli industriali automobilistico e aeronautico, il body modelling, ecc.. La modella- 195 -
Conclusioni
zione di oggetti dalle forme note nel settore dei beni culturali trova forti analogie in quello
della modellazione meccanica (pur con notevoli differenze circa le affidabilità e le accuratezze richieste).
Le dimensioni degli oggetti notevolmente diverse tra loro o caratterizzati da forme e materiali differenti (da vaste zone di territorio sino alle dimensioni di una moneta), problemi
di logistica e condizioni ambientali di lavoro svantaggiose (spazi ristretti, ostruzioni), accuratezze e affidabilità molto restrittive hanno talvolta richiesto approcci differenziati in
funzione dei singoli casi ma il flusso di modellazione inversa è rimasto invariato. Nella
maggior parte dei casi sono state analizzate tutte le fasi del flusso di generazione di un
modello 3D: calibrazione, rilievo, elaborazione dei dati e analisi dei risultati.
Le attuali tecnologie e metodologie di rilievo sono in grado di soddisfare i requisiti richiesti per la modellazione 3D inversa nella maggior parte dei settori applicativi. Per applicazioni in cui sono richieste accuratezze e affidabilità elevate e prossime al limite consentito dagli strumenti o dalle tecniche è necessario effettuare ulteriori sperimentazioni
perché il processo di modellazione attraversa una serie di fasi che introducono ulteriori errori (non sempre semplici da indagare) che degradano inevitabilmente l’accuratezza del
prodotto finale. Per tale motivo, in modellazione meccanica e applicazioni di reverse engineering (Capitolo 6), dove le accuratezze richieste sono generalmente molto elevate, è
necessario che l’intero flusso di modellazione sia tenuto sotto controllo, dalla calibrazione
alla generazione della mesh e delle superfici NURBS. In particolare è stato mostrato che
l’utilizzo di camere fotografiche amatoriali digitali ai fini metrici può sicuramente soddisfare i requisiti richiesti nei settori applicativi close-range dove scala immagine e configurazione della rete di camere possono essere pianificati e modificati molto più flessibilmente che nel caso della fotogrammetria aerea in cui predominano le ben più costose camere
metriche (obbiettivi quasi esenti da distorsione radiale).
La ricerca ha analizzato le principali problematiche oggi inerenti la modellazione tridimensionale inversa con tecniche fotogrammetrica e laser scanning. Nel capitolo 4 sono
state analizzate alcune problematiche fondamentali nella modellazione dell’ambiente e del
territorio: il filtraggio di dati laser scanning aereo (ALS). Lo scrivente ha sviluppato e implementato in linguaggio MATLAB un nuovo algoritmo di filtraggio (PBTIN - Prismatic
Buffered TIN) che si basa sulla densificazione iterativa di TIN. L’algoritmo e le strategie
di filtraggio, implementati in un software denominato LAIM (Laser e IMagini), sono stati
sottoposti al test standardizzato ISPRS fornendo ottimi risultati. Il vantaggio del metodo
- 196 -
Conclusioni
proposto risiede soprattutto nella intuitività dei parametri di filtraggio e nel loro esiguo
numero (3). L’algoritmo proposto è stato utilizzato non solo su dati laser aerei (ALS) ma
anche nel caso di dati laser scanning terrestri (TLS) e su DSM da image-matching, grazie
alla sua versatilità.
Nel settore della fotogrammetria digitale sono state affrontate le problematiche inerenti
la generazione di modelli densi di superficie da image-matching in ambito close-range, in
assoluto il più complesso per geometria delle prese (convergenza, scale differenti) e per
caratteristiche radiometriche della superficie degli oggetti (omogeneità, assenza di texture
o ripetitività). Lo scrivente ha analizzato e comparato diversi software per l’imagematching, sia commerciali che di ricerca (capitolo 5). La maggior parte dei software per
l’image-matching oggi in commercio nasce per applicazioni di fotogrammetria aerea.
Questi software non consentono di orientare immagini acquisite con qualsiasi schema di
presa (multi-immagine convergenti) oppure non riescono a effettuare l’image-matching su
immagini che non siano state acquisite con assi paralleli. Lo scrivente ha sviluppato una
procedura (capitolo 5-6) mediante la quale è possibile orientare le immagini in software
per la fotogrammetria close-range e importare orientamenti e parametri di calibrazione
della camera in software di fotogrammetria aerea. In alcuni casi sono stati effettuati dei
confronti tra tecnica fotogrammetrica e laser scanning (capitolo 5 e 6) nella generazione di
modelli densi di superficie (DDSM). La ricerca ha dimostrato che benché le tecniche con
sensori attivi (laser scanner e proiettori di luce strutturata) siano preferite per semplicità
d’uso e rapidità d’acquisizione, è possibile ottenere risultati equivalenti con tecniche di fotogrammetria digitale ma con costi per la strumentazione di almeno un ordine di grandezza inferiore. Nel capitolo 6 lo scrivente ha sviluppato una procedura per la generazione di
modelli tridimensionali con tecniche di image-matching su oggetti dalle superfici chiuse
(imbarcazioni, eliche, ecc.). Rispetto ai precedenti lavori presenti in letteratura la modellazione effettuata non si limita ad una porzione 2.5D (per ogni coppia X,Y esiste una sola Z)
dell’oggetto ma all’intero corpo. La procedura consiste nel segmentare l’oggetto in più
porzioni 2.5D ed effettuare dei cambi di sistema di riferimento all’interno dei quali gli orientamenti esterni delle fotocamere posseggono valori degli angoli di orientamento esterno compresi in intervalli accettati dai software per l’image-matching (minimizzare il valore assoluto degli angoli di rollio e beccheggio). La procedura prevede la successiva generazione dei DDSM nei singoli sistemi di riferimento e quindi l’allineamento delle singole
parti 2.5D applicando in maniera inversa le rototraslazioni precedentemente calcolate per i
- 197 -
Conclusioni
singoli sistemi di riferimento utilizzando un modulo implementato in LAIM che si basa
sull’analisi procrustiana. Contrariamente a quanto normalmente si ottiene utilizzando
l’algoritmo ICP per allineare i DSM ottenuti con tecniche laser scanning, il metodo di allineamento è praticamente esente da errori ma prevede il riconoscimento dei punti utilizzati per il calcolo dei parametri di trasformazione.
In ambito del reverse engineering nel settore navale, lo scrivente ha sottolineato (capitolo 6) l’importanza dell’integrazione delle tecniche fotogrammetrica e laser scanning nella
misurazione della superficie delle carene. Il metodo proposto è molto più rapido e affidabile rispetto all’allineamento con solo metodo ICP.
Nell’eseguire i confronti tra DSM generati con tecniche fotogrammetrica e laser scanning (capitolo 5-6) è stata evidenziata l’importanza di individuare con notevole accuratezza un sistema di riferimento comune. L’uso molto popolare in letteratura, dell’algoritmo
ICP per portare in un unico sistema di riferimento i due DSM generati con tecniche differenti, è da limitare ai soli casi in cui si è certi che non vi siano differenze in scala.
- 198 -
Bibliografia
Abdel-Aziz, Y.I. and Karara, H.M., 1971: Direct linear transformation into object space coordinates in close-range
photogrammetry. Proc. Symposium on Close-Range Photogrammetry, pp. 1-18
Ackermann, S., Miele, D., Rizzardi, M., Troisi, S., 2007: Modellazione automatica di edifici da dati LIDAR. In: Dal
rilevamento fotogrammetrico ai database topografici. Convegno Nazionale Sifet 2007. Arezzo. 27-29 Giugno 2007. (pp.
316-323).
Ackermann, S., Miele, D., Rizzardi, M., Troisi, S., 2007: 3D modelling da dati lidar. 11a Conferenza Nazionale
ASITA. Torino. 06-09 novembre 2007.
Ackermann, S., Menna, F., Troisi, S., Scamardella, A., 2008: Digital photogrammetry for high precision 3D
measurements in shipbuilding field. 6TH CIRP International Conference on ICME, Intelligent Computation In
Manufacturing Engineering, Naples 23-25 July 2008.
Axelsson, P., 1999. Processing of laser scanning data - algorithms and applications. ISPRS Journal of Photogrammetry
& Remote Sensing, vol. 54 July 1999, pp. 138-147.
Axelsson, P., 2000. DEM Generation from Laser Scanner Data Using Adaptive TIN Models. IAPRS, vol. 33. part B4/1,
pp.110-117.
Axelsson, P., 2001. Ground estimation of laser data using adaptive TIN-models. Proceedings of OEEPE workshop on
airborne laserscanning and interferometric SAR for detailed digital elevation models 1-3 March 2001. Official
Publication No. 40. CD-ROM. pp 185-208. Royal Institute of Technology Department of Geodesy and Photogrammetry
100 Stockholm, Sweden.
Baltsavias, E. P., 1991. Multiphoto geometrically constrained matching. Ph.D. thesis, Institute of Geodesy and
Photogrammetry, ETH Zurich, Switzerland. 221 pages
Balzani, M., Pellegrinelli, A., Perfetti, N., Uccelli, F. (2001): A terrestrial 3D laser scanner: Accuracy tests. Proc. 18th
Int. Symp. CIPA 2001, pp. 445-453.
Beauchesne, E, and Roy, S., 2003. Automatic relighting of overlapping textures of a 3D model. Proceedings of IEEE
Computer Vision and Pattern Recognition, 18th to 20th June 2003. Vol. 2, 742 pages: 166–173.
Beinat, A., Crosilla, F., 2000: La soluzione della triangolazione aerea a modelli indipendenti mediante tecniche di
analisi procustiana. Bollettino SIFET, N. 5.
Beinat, A., Crosilla, F., 2000: Applicazioni dell'analisi procustiana alla trasformazione di datum in ambiente GIS. Atti
della XL Riunione Scientifica della Soc. It. di Statistica, Firenze 26-28 Aprile 2000, pp 707-710.
- 199 -
Bibliografia
Beraldin, J.-A., Rioux, M., Cournoyer, L., Blais, F., Picard, M., Pekelsky, J., 2007: Traceable 3D Imaging Metrology.
Videometrics IX, SPIE Electronic Imaging, Vol. 6491, pp. B.1-11
Besl, P.J., McKay, N.D., 1992: A method for registration of 3-d shapes. IEEE Trans. Pattern Anal. Mach. Intell., 14(2),
239-256.
Blais, F., 2004: Review of 20 Years of Range Sensor Development. Journal of Electronic Imaging, 13(1): 231-240
Blais, F., Taylor, J., Cournoyer, L., Picard, M., Borgeat, L., Dicaire, L.-G., Rioux, M., Beraldin, J.-A., Godin, G.,
Lahnanier, C., Aitken, G., 2005: Ultra-High Resolution Imaging at 50μm using a Portable XYZ-RGB Color Laser
Scanner. International Workshop on Recording, Modeling and Visualization of Cultural Heritage, Centro Stefano
Franscini, Monte Verita, May 22-27, Ascona, Switzerland
Boehler, W., Bordas-Vicent, M., Marbs, A. (2003): Investigating Laser Scanner Accuracy, Proceedings of the XIXth
CIPA Symposium. ISPRS/CIPA, pp. 696-701, Antalya, Turkey.
Brovelli, M.A., Cannata, M., Longoni, U.M., 2002. Managing and processing LIDAR data within GRASS. Proceedings
of the GRASS Users Conference 2002, Trento, 11-13 September 2002.
Brovelli, M.A., Zamboni, G., Cannata, M., 2006. Qualità del filtraggio di dati LIDAR con GRASS. Bollettino SIFET
1/2006 pp.13-28.
Brown, D.C., 1971: Close-range camera calibration. PE&RS, Vol. 37(8), pp.855-866
Chandler, J., Bryan, P., Fryer, J., 2007: The development and application of a simple methodology for recording rock
art using consumer-grade digital cameras. Photogrammetric Record, 22(117), pp. 10-21
Chen, Y., and Medioni, G., 1992: Object modeling by registration of multiple range images. Image and Vision
Computing, 10 (3), 145-155.
Cheok, G., Lytle, A., Saidi, K. 2006: Status of the NIST 3D imaging system performance evaluation facility. Proc. of
PIE Defence and Security Symposium, Orlando, FL
Crosilla, F., 1999: Procrustes analysis and geodetic sciences. Proc. International Symposium "Quo Vadis Geodesia…?"
(on the occasion of the 60 birthday of Prof. Dr. mult. E. Grafarend), Department of Geodetic Science, Stuttgart
University, November 4-5, 1999.
Crosilla, F., Beinat, A., 2001: Procrustes solution of the photogrammetric block adjustment by independent models.
Inviato per la pubblicazione a Journal of Photogrammetry & Remote Sensing.
Crosilla F., Visintini D., Prearo G., Fico B., 2005: Esperienze di filtraggio, classificazione, segmentazione e
modellazione di dati spaziali da rilievo laser aereo, Bollettino SIFET n. 1/2005, Cagliari.
- 200 -
Bibliografia
Debevec, P. E., Taylor, C. J. and Malik, J., 1996. Modeling and rendering architecture from photographs: A hybrid
geometry- and image-based approach. ACM Proceedings of SIGGRAPH ’96, New Orleans, Louisiana, 4th to 9th
August 1996. 518 pages: 11–20.
De Joinville, O., Saur, S., Bretar, F., 2003: Le levé laser aéroporté: tecniques, applications et recherche, Bulletin d’
Information de l’ IGN n° 74 (2003/3).
El-Hakim, S., Gonzo, L. Voltolini, F., Girardi, S., Rizzi, A., Remondino, F., Whiting, E., 2007: Detailed 3D Modelling
of Castles
Farr, T. G., et al. (2007), The Shuttle Radar Topography Mission, Rev. Geophys., 45, RG2004,
doi:10.1029/2005RG000183.
Fiani, M., Menna, F., Troisi, S., 2008: Integrazione di tecniche di fotogrammetria e laser scanning per la modellazione
3d della carena di una imbarcazione. Atti del Convegno Nazionale SIFET “ La Topografia per le opere di ingegneria:
metodi, strumenti ed applicazioni”, Sorrento, 18-20 Giugno 2008. In corso di stampa sul bollettino della SIFET.
Fraser, C. S., 2001. Network design. Chapter 9 in Close Range Photogrammetry and Machine Vision (Ed.K. B.
Atkinson). Whittles, Caithness, Scotland. 371 pages: 256–281.
Godin, G., Rioux, M., Beraldin, J.-A., Levoy, M., Cournoyer, L., 2001: An Assessment of Laser Range Measurement
of Marble Surfaces. Proceedings of the 5th Conference on Optical 3-D Measurement Techniques, pp. 49-56, Vienna,
Austria
Gruen A., 1985. Adaptive least square correlation: a powerful image matching technique. South African Journal of
Photogrammetry, Remote Sensing and Cartography, 14(3): 175–187.
Gruen, A. and Beyer, H. A., 2001. System calibration through self-calibration. In Calibration and Orientation of
Cameras in Computer Vision (Eds. A. Gruen and T. S. Huang). Springer, Berlin. Vol. 34, 235 pages: 163–193.
Gruen, A., Remondino, F., Zhang, L., 2004: Photogrammetric Reconstruction of the Great Buddha of Bamiyan,
Afghanistan The Photogrammetric Record, Vol.19(107), September 2004, pp. 177-199
Guidi, G., Micoli, L.L., and Russo, M., 2005: Boat’s hull modeling with low-cost triangulation scanners. Videometrics
VIII - Proc. of SPIE-IS&T Electronic Imaging, SPIE Vol. 5665, pp. 28-39
Guidi, G., Remondino, F., Russo, M., Menna, F., Rizzi, A., 2008: 3D modeling of large and complex site using multisensor integration and multi-resolution data. Proc. of 9th Int. Symposium on Virtual Reality, Archaeology and Cultural
Heritage (VAST). Ashley, Hermon, Proenca, Rodriguez-Echavarria (eds), pp.85-92, Braga, Portugal
- 201 -
Bibliografia
Guidi, G., Remondino, F., Russo, M., Rizzi, A., Voltolini, F., Menna, F., Fassi, F., Ercoli, S., Masci, M., E., Benedetti,
B., 2008: A multi-resolution methodology for archeological survey: the Pompeii forum. VSMM 2008, Limassol,
Cyprus, October 20th - 25th 2008.
Hand, S., D., Clark, F., F., Mongon, W., J., Schindelholz, E., 2005: Measurement of the U.S.S. Monitor Propeller
Usimg Structured Light and Coherent Laser Radar Scanning Technologies. Proceedings of CMSC 2005 Coordinate
Systems Measurement Conference July 18-21, 2005, Austin, Texas USA
Kadobayashi, R., Kochi, N., Otani, H., Furukawa, R., 2004: Comparison and evaluation of laser scanning and
photogrammetry and their combined use for digital recording of cultural heritage. IAPRS&SIS, 35(5), pp. 401-406
Kim, S. J. and Pollefeys, M., 2004. Radiometric alignment of image sequences. Proceedings of IEEE Computer Vision
and Pattern Recognition, Washington, DC, 27th June to 2 July 2004. Vol. 1, 901 pages: 645–651.
Lichti, D.D., Stewart, M.P., Tsakiri, M., Snow, A.J., 2000: Calibration and testing of a terrestrial laser scanner. Int.
Arch. of Photogrammetry and Remote Sensing, Vol. XXXIII, Part B5, pp. 485-492.
Lichti, D.D., Gordon, S.J., Stewart, M.P., Franke, J., Tsakiri, M., 2002: Comparison of digital photogrammetry and
laser scanning. Proc. of the CIPA WG6 Int. Workshop on scanning for cultural heritage recording.
http://www.isprs.org/commission5/workshop/
Lohani, B., Kumar, R., 2007: A model for GPS-GDOP prediction in urban environment using lidar data OPTICAL
volII pp339-346
Luhmann, T., Robson, S., Kyle, S., Harley, I., 2006: Close Range Photogrammetry. Principles, methods and
Applications. Whittles Publishing, Scotland UK
Menna, F., Troisi, S., 2007: Photogrammetric 3D modelling of
a boat’s hull. Proceedings of the Optical 3-D
Measurement Techiniques VIII, July 9-12, 2007, Zuerich, Vol. II, pp. 347-354.
Menna, F., Troisi, S., 2007: PBTIN: Prismatic Buffered TIN un algoritmo di filtraggio per dati ALS, Bollettino della
SIFET 1/2007 pp.67-88.
Menna, F., Troisi, S., 2006: Strategie di classificazione di dati laser scanning, Atti del Convegno Nazionale SIFET “Le
nuove frontiere della rappresentazione 3D”– Castellaneta Marina, 14-16 Giugno 2006.
Menna, F., Troisi, S., 2005: Filtraggio dati laser scanning, Atti della 9a Conferenza Nazionale ASITA – Catania, 15-18
Novembre 2005, pp. 1505-1510.
- 202 -
Bibliografia
Niem, W. and Broszio, H., 1995. Mapping texture from multiple camera views onto 3D-object models for computer
animation. Proceedings of the International Workshop on Stereoscopic and Three Dimensional Imaging, Santorini,
Greece, 6th to 8th September 1995. 344 pages: 99–105
Pirenne, M. H., 1970: Optics, Painting & Photography, Cambridge University Press, trad. it. (1991) Percezione visiva.
Ottica, pittura e fotografia, Franco Muzzio & c. editore spa, Padova.
Pulli, K., Abi-Rached, H., Duchamp, L., Shapiro, L. G. and Stu¨ tzle, W., 1998. Acquisition and visualization of
coloured 3D objects. Proceedings of the 4th IEEE International Conference on Pattern Recognition, Brisbane, Australia,
16th to 20th August 1998. Vol. 1, 947 pages: 11–15.
Ray, S. 1972: The photographic lens, Focal Press Limited, London, trad. it. (1982) Sistemi Ottici, Cesco Ciapanna
editore, Roma.
Remondino, F. and Niederoest, J., 2004. Generation of high-resolution mosaic for photo-realistic texturemapping of
cultural heritage 3D models. Proceedings of the 5th International Symposium on Virtual Reality, Archaeology and
Intelligent Cultural Heritage (VAST04), Brussels, Belgium, 7th to 10th December 2004.
279 pages: 85–92.
Remondino, F., El-Hakim, S., 2006: Image-based 3D modelling: a review. The Photogrammetric Record, Vol.21(115),
September 2006, pp. 269-291
Remondino, F., Menna, F., 2008: Image-based surface measurement for close-range heritage documentation
International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol. XXXVII, part B5-1,
pp.199-206 International Journal of Architectural Computing, Vol.5(2), pp. 199-220
Remondino F., Menna, F., 2008: Image-Based surface measurement for close-range heritage documentation. Int.
Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol 37(B5), pp 199-206, Beijing,
China.
Remondino, F., El-Hakim, S., Gruen, A., Zhang, L., 2008: Development and performance analysis of image matching
for detailed surface reconstruction of heritage objects IEEE Signal Processing Magazine, Vol.25(4), pp.55-65, July
2008
Rocchini, C., Cignoni, P., Montani, C. and Scopigno, R., 2002. Acquiring, stitching and blending diffuse appearance
attributes on 3D models. The Visual Computer, 18(3): 186–204.
Roggero, M., 2001. Airborne laser scanner-clustering in raw data. International Archives of Photogrammetry and
Remote Sensing 34 (Part B3), 227–232.
Selvini, A., Guzzetti, F., 2000: Fotogrammetria generale, UTET, Torino.
- 203 -
Bibliografia
Sithole, G., 2001. Filtering of laser altimetry data using a slope adaptive filter. International Archives of
Photogrammetry and remote Sensing, vol. XXXIV, B3/W4, Annapolis, pp. 203-210.
Sithole, G., Vosselman, G., 2003. Comparison of filtering algorithms. International Archives of Photogrammetry,
Remote Sensing and Spatial Information Sciences, vol. 34, part 3/W13, Dresden, Germany, pp. 71-78.
Sithole, G., Vosselman, G., 2003. Report: ISPRS Comparison of Filters.
http://www.itc.nl/isprswgIII-3/filtertest/Report05082003.pdf
http://www.itc.nl/isprswgIII-3/filtertest/AppendixA05082003.pdf
http://www.itc.nl/isprswgIII-3/filtertest/AppendixB05082003.pdf
Sithole, G., Vosselman, G., 2004. Experimental comparison of filter algorithms for bare-Earth extraction from airborne
laser scanning point clouds. ISPRS Journal of Photogrammetry & Remote Sensing, vol. 59 (2004), pp. 85-101.
Vergauwen, M., Van Gool, L., 2006: Web-based 3D reconstruction service, Machine vision and applications, 17(6) p.
411-426
Zhang, L., 2005. Automatic Digital Surface Model (DSM) generation from linear array images. Diss. ETH No. 16078,
Technische Wissenschaften ETH Zurich, IGP Mitteilung N. 90
Zhang, B., Miller, S., De Venecia, K., Walker, S., 2006: Automatic terrain extraction using multiple image pair and
back matching. Proc. ASPRS Annual Conference, Reno, USA
Siti WEB:
WWW (2003): http://scanning.fh-mainz.de.
Young-Hoo Kwon (1998), http://kwon3d.com/theory/dlt/dlt.html.
Shuttle Radar Topography Mission (SRTM), http://www2.jpl.nasa.gov/srtm/
Test ISPRS commission III, http://www.commission3.isprs.org/wg3/
International Towing Tank Conference (ITTC) , http://ittc.sname.org/2006_recomm_proc/7.5-01-01-01.pdf
- 204 -