La fotomodellazione “globale” - Università degli Studi Mediterranea

Università Mediterranea di Reggio Calabria – Facoltà di Architettura
Corso di DISEGNO – 1
Prof. Franco Prampolini
Unità didattica n. 2.06
Il Rilievo strumentale e la
Rappresentazione digitale
Introduzione
In quest’ultima unità didattica affronteremo il tema delle nuove frontiere
del rilievo numerico e della rappresentazione digitale dell’architettura e
dell’ambiente urbano. Si tratta di un argomento vastissimo che ha
implicazioni innumerevoli sul piano disciplinare e sulla pratica
operativa: dall’image processing alla fotomodellazione, dal laser
scanning al ray tracing, dalla realtà virtuale all’augmented reality,
senza trascurare il problema che il rilievo architettonico non può
limitarsi alla semplice misurazione/modellazione, richiede un approccio
“specialistico” particolare, … da architetti, e quindi non può prescindere
da quelle considerazioni semantiche, materiche, stilistiche, sul
linguaggio stesso che
da sempre legano la conoscenza, la
rappresentazione e la pratica stessa dell’architettura.
Le nuove tecniche
Ci limiteremo quindi ad un rapido “viaggio” tra le nuove tecniche
esaminando alcuni esempi di particolare significato e all’introduzione di
quei caratteri fondamentali di teoria e pratica che saranno utili per
comprendere il funzionamento e le potenzialità dei nuovi strumenti.
Esamineremo, in particolare, Il Laser Scanning e la Fotomodellazione,
nelle sua varie coniugazioni 2D e 3D.
… attraverso lo specchio
Il disegno, storicamente, ha un limite: deve comprimere la tridimensionalità del
mondo fisico entro la bidimensionalità di un foglio per restituirla destrutturata,
eventualmente, secondo proiezioni canoniche. Allo stesso modo deve
scomporre ogni continuità di visione in sequenze di immagini statiche.
Oggi possiamo contare sulle modellazioni tridimensionali con procedure
informatiche di oggetti di vario ordine di complessità. Allo stesso modo è
possibile, “animare” immagini fino a simulare processi di visione che esplorano
e “vedono” l’oggetto. È di conseguenza possibile simulare i risultati della
visione naturale, aggiungendo a questa, però, il controllo completo dello spazio
virtuale generato: il monitor diventa uno spazio-pagina virtuale infinito.
La realtà virtuale
I sensori sono capaci di leggere il reale, ma non lo interpretano. In che modo
quindi le nuove tecnologie della visualizzazione possono intervenire sui
processi di indagine sul territorio?
Riprendiamo qui le osservazioni fatte nella precedente unità didattica in merito
alla costruzione del modello: Philippe Quéau, basandosi sulla distinzione che
Platone fa ne La Repubblica delle forme d'arte (l'arte che si serve delle cose,
l'arte che le fabbrica, l'arte che le imita) definisce la realtà virtuale, “l’arte che
fabbrica delle imitazioni di cui ci si può servire”.
Simulazioni, quindi, e rappresentazioni “concrete” di modelli astratti, immagini
che permettono di ‘agire sul reale’ mediante rappresentazioni ‘efficaci’ della
realtà stessa, adatte ad interfacciarsi con tutto ciò che si presta ad una
modellizzazione formale.
Lo spazio viene dunque smontato, misurato, controllato fino ai dettagli per
essere poi rimontato, secondo un processo logico che permetta di associare
ad ogni entità geometrica, una classe di appartenenza, un sistema di relazioni,
un riferimento che lo renda richiamabile immediatamente all’interno
dell’archivio che man mano si compone.
Il Laser Scanning
La tecnica del laser scanning rappresenta un nuovo ed efficiente
metodo per la digitalizzazione e la modellizzazione di oggetti e di
porzioni di territorio aventi qualsiasi forma e dimensione. La
digitalizzazione avviene in modo discreto attraverso la misurazione
della posizione (e di altri dati) di un elevato numero di punti. La
tecnica del laser scanning si basa sul metodo di misurazione delle
distanze per mezzo di onde elettromagnetiche, anche noto con il nome
LIDAR (light detection and ranging).
Fondamenti tecnici
Questa tecnica di misura nasce nel 1933 grazie al sovietico Balaicov che brevettò
il primo distanziometro ad onde ed il connazionale Lebedev che ne costruì il
primo prototipo nel 1938. A partire dagli anni '70 furono messi in commercio, a
prezzi accessibili anche alla piccola utenza, i primi distanziometri ad onde.
Questa introduzione ha decretato la fine del rilievo delle distanze con metodi
tradizionali a vantaggio di un metodo di misura avente precisione maggiore ed una
più rapida esecuzione delle misure stesse. La possibilità di misurare distanze con
estrema facilità ha portato come logica conseguenza ad una rivoluzione dei
metodi di rilevamento e di calcolo consentendo agli operatori di svincolarsi dai
vecchi schemi di rilievo a favore di nuovi sistemi.
Il Laser
Dal punto di vista applicativo il laser è un'apparecchiatura che trasforma
energia da una forma primaria (elettrica, ottica, chimica, termica o nucleare) in
un fascio monocromatico e coerente di radiazioni elettromagnetiche di intensità
elevata: la luce laser. La scoperta fondamentale che ha permesso l'emissione
della luce laser è dovuta ad A.Einstein nel 1917. Quest'ultimo ipotizzò, infatti,
che l'emissione di un raggio di luce ad alta energia da un atomo può essere
stimolata da un raggio di luce di una certa frequenza incidente a lui stesso. Da
questo fenomeno è derivato il laser. Il termine "L.A.S.E.R." è, infatti, acronimo
di: “Light Amplification by Stimulated Emission of Radiation”. Per giungere alla
realizzazione pratica dello strumento furono necessari alcuni decenni. Nel
1958 i fisici statunitensi Arthur Schawlow e Charles Hard Townes brevettarono
il primo dispositivo laser, ma la paternità della scoperta venne reclamata
dal loro connazionale Gordon Gould. Due anni dopo (1960) il fisico Theodore
Maiman (ricercatore laboratori Huyghens-California) osservò il primo fascio
laser in un cristallo di rubino e nello stesso periodo il fisico statunitense di
origine iraniana Ali Javan costruì il primo dispositivo a elio-neon.
Il Laser 2
Il laser quindi non è altro che una radiazione
elettromagnetica, ovvero un'onda luminosa, avente
particolari caratteristiche:
• deve essere composta da luce di una sola
frequenza (monocromaticità).
• deve essere composta da un'onda che non viene
irradiata in tutte le direzioni, ma si propaga a
grande distanza e con estrema direzionalità
(coerenza spaziale o unidirezionalità).
• deve essere costituita da onde della stessa
frequenza e della stessa fase che si sommano l'una
all'altra originando un treno di luce che può essere
spinto ad elevata intensità e ad elevata potenza
(coerenza temporale). In particolare la "potenza"
della luce laser può giungere a livelli veramente
incredibili. Recentemente al Lawrence Livermore
Laboratory (California) è stato messo a punto un
apparecchio da centoventimila miliardi di Watt.
James Bond: Missione Goldfinger - 1964
Comportamento della radiazione
Quando una radiazione colpisce la superficie di un corpo reale (detto anche
corpo grigio), essa è in parte assorbita in parte riflessa ed in parte trasmessa.
Si possono definire i seguenti coefficienti adimensionali (variabili tra 0 ed 1),
che misurano le iterazioni tra energia e materia, che non sono costanti ma
dipendono dalla lunghezza d’onda (λ) della luce incidente
1. Assorbività (α): è il rapporto tra l'energia assorbita da una superficie e
quella incidente;
2. Riflettività (ρ): è il rapporto tra l'energia riflessa da una superficie e quella
incidente;
3. Trasmissività (τ): è il rapporto tra l'energia trasmessa da una superficie e
quella incidente.
Rugosità delle superfici
Consideriamo ora solo la parte di energia riflessa (ρ) dalla superficie. Come
noto, se un fascio luminoso incide una superficie liscia di acciaio si forma un
raggio riflesso ben definito, mentre se arriva su di un foglio di carta la luce
viene riflessa più o meno in tutte le direzioni (riflessione diffusa). La differenza
tra riflessione diffusa e speculare trova la sua ragione nel concetto di ruvidità (o
rugosità) delle superfici.
il concetto di rugosità di una superficie è funzione della lunghezza d'onda
incidente la superficie stessa. le superfici perfettamente lisce riflettono in modo
speculare, quelle perfettamente rugose si comportano come riflettori
lambertiani, ovvero la direzione di riflessione è indipendente da quella di
incidenza. Normalmente le superfici reali non si comportano né da superficie
perfettamente speculare né da superficie perfettamente lambertiana ma si
comportano in modo intermedio.
I distanziometri
I distanziometri ad onde possono essere classificati in due grandi categorie:
Strumenti che prevedono la misura dei tempi trascorsi tra due impulsi o tra due
treni d'onda (distanziometri ad impulsi) e Strumenti che prevedono la misura
dello sfasamento tra l'onda emessa e quella ricevuta (distanziometri a misura
di fase). La precisione ottenibile con uno strumento a tempo di volo che
utilizza un laser di classe 1 è al massimo di 4 ÷ 6 mm a circa 100 m, valore che
decresce in modo non significativo all'aumentare della distanza. La distanza
massima misurabile oggi è di circa 800 ÷ 2000 m nel caso dei
distanziometri ad impulsi.
I distanziometri laser sono sempre più precisi ed affidabili e possono misurare
la posizione di punti ad elevata velocità. L’abbinamento alla meccanica di alta
precisione e alla motorizzazione delle total station ha reso possibile la
realizzazione dei cosiddetti sensori laser scanner. Lo strumento materializza
una direzione mentre il distanziometro acquisisce una distanza lungo la
direzione stessa. Il risultato di ogni acquisizione è un insieme di punti
sparsi nello spazio in modo più o meno regolare che comunemente
viene chiamata “nuvola di punti”.
La Scansione
Il sistema di riferimento per ogni singola scansione
è di norma fissato in maniera arbitraria. Il
collegamento tra le varie scansioni è eseguito per
mezzo di opportuni target riflettenti (adesivi
retroriflettenti, prismi topografici, sfere di materiale
riflettente) posizionati in maniera tale da essere
compresi all’interno del campo operativo di
scansioni adiacenti (almeno tre coppie di target
omologhi tra 2 scansioni).
L’insieme dei punti che si ottiene è però riferito ad
un sistema di riferimento arbitrario, relativo per
esempio ad una delle scansioni mosaicate.
Nel caso in cui sia necessario riportare i punti
rilevati in uno specifico sistema di riferimento (es.
un riferimento locale utilizzato per altre tecniche di
rilevamento) è sufficiente determinare la posizione
dei target, tramite la classica strumentazione
topografica, e ricalcolare i parametri di
rototraslazione delle scansioni
Come funziona …
I laser scanner distanziometrici possono facilmente essere paragonati alle
stazioni totali topografiche. La misura della posizione tridimensionale del punto
avviene infatti in coordinate sferiche. Per ogni punto acquisito sono misurati un
angolo orizzontale (azimutale), un angolo verticale (zenitale) ed una distanza
inclinata. Per questo motivo spesso i sistemi a scansione laser terrestri sono
considerati quali stazioni totali ad elevata automazione. Rispetto a queste sono
però ovviamente carenti della parte ottica di collimazione.
La Nuvola di punti
Esiste quindi una sostanziale differenza tra i rilevamenti topografici con stazione
totale e le acquisizioni laser scanner. Nel rilievo topografico classico si
misurano le coordinate di punti notevoli appartenenti all'oggetto, che devono
essere ben riconoscibili all'occhio e che definiscono in genere la forma
dell'oggetto stesso, come ad esempio spigoli, fessure, ... Nel caso di un
rilevamento laser scanner invece non vi è alcuna possibilità di scegliere i punti
da rilevare. È possibile in genere definire solo l'area che si vuole acquisire e la
densità di punti desiderata. Definiti questi parametri l'acquisizione è
completamente automatica. Il risultato del rilevamento è una nuvola di punti
molto densa ma con gli stessi distribuiti in modo casuale sull'oggetto.
Scanner a Triangolazione
I laser scanner triangolatori sono strumenti che, per la misurazione della
posizione di punti, utilizzano il principio dell'intersezione in avanti. Si tratta di
strumenti di forma allungata o a tubo dotati di un diodo emettitore e di un diodo
ricettore posizionati agli estremi dello strumento stesso. Il segmento che unisce i
due diodi è chiamato comunemente base e la sua dimensione non può in genere
superare alcuni limiti pratici di maneggevolezza (circa 1 m). Ne consegue
ovviamente un limite nella portata dello strumento.
Per la determinazione della posizione del
punto acquisito sono misurati una distanza
e due angoli (l'angolo che si forma tra il
raggio emesso e la base dello strumento e
l'angolo che si forma tra il raggio riflesso e
la base). Tale geometria di acquisizione
consente di ottenere precisioni molto
elevate (sub-millimetriche) portate limitate
(dell'ordine di qualche metro) e tempi di
acquisizione mediamente elevati.
Introduzione
Vediamo qui alcuni scanner a triangolazione Minolta …
Introduzione
Vediamo qui, invece, un impiego congiunto di due apparati per realizzare
contestualmente la scansione da più punti di vista, con autocorrelazione
automatica delle nuvole di punti.
Introduzione
Esistono poi alcuni scanner per applicazioni
speciali in grado di garantire precisioni
micrometriche: vediamo ad esempio il LASER
RADAR LR200, della Leica in grado di garantire
una precisione di 12 micron fino a 5 metri anche
se, in questa modalità, acquisisce “solo” due
punti al secondo, o questo speciale allestimento
Cyrax utilizzato per il rilievo del David che ha
richiesto oltre 1000 ore uomo di attività e oltre
4000 ore di post elaborazione. Vediamo però i
risultati: a sinistra la foto, a destra il modello.
Gli Scanner a rilievo di profilo
Vediamo infine un’altra categoria di laser scanner che funzionano a rilievo di
profilo. La maggior parte dei profilometri 3D sono basati sulla triangolazione ottica:
un raggio luminoso viene proiettato su di un bersaglio e la sua l'immagine viene
rilevata da un dispositivo ad immagine formante un determinato angolo con la
sorgente.
Il principio di funzionamento di uno scanner laser di questo tipo è rappresentato
nella figura che segue: una lama di luce, emessa dal laser, intersecando l'oggetto
in esame, genera un profilo che viene acquisito mediante una telecamera a CCD.
Dall'acquisizione di numerosi profili paralleli, ottenuti facendo una scansione
dell'oggetto, si ricava l'informazione necessaria per la realizzazione del modello
tridimensionale. La posizione spaziale dei punti campionati nel profilo di luce è
ottenuta per triangolazione dalla conoscenza dei parametri geometrici di misura
(posizioni relative di laser, telecamera a CCD e punto oggetto).
Gli Scanner a rilievo di profilo
David …
Un sistema molto interessante è quello che
segue: si chiama “DAVID” ed è un laser scanner a
tutti gli effetti, molto efficiente e con un rapporto
costo/prestazioni veramente incredibile. È basato
su un software, una videocamera amatoriale, un
laser manuale a luce visibile, un “poligono” di
calibrazione. Il tutto per 399,00 euro !!
Si incomincia col posizionare la quinta di
inquadramento perfettamente ad angolo retto e si
passa poi alla calibrazione della videocamera che
deve essere posizionata su un piedistallo in modo
da garantire una posizione nota per l’intera
operazione.
http://www.david-laserscanner.com/
David 2
Si posiziona poi l’oggetto da rilevare nello spazio definito dalla quinta di
calibrazione e, definite le migliori condizioni di illuminazione, si comincia a
passare avanti e indietro il raggio del puntatore laser. I profili che si generano
saranno captati dalla videocamera che comincerà a ricostruire l’oggetto per
profili successivi, generando alla fine una nuvola di punti misurati.
Gli Scanner a rilievo di profilo
L’oggetto può ovviamente essere spostato nel campo di presa, senza variare la
calibrazione della videocamera, per ottenere scansioni multiple, che possono
essere unite via software individuando con precisione sufficiente punti comuni.
Il modello finale potrà poi essere trattato normalmente con le classiche
tecniche di shading, texturing, ecc.
Gli Scanner a rilievo di profilo
Vediamo infine alcuni esempi di modelli realizzati con “David” …
ALTM - I Laser Scanner aviotrasportati
L’ALTM (Airbone Laser Terrain Mapper) è impiegato da
qualche tempo per rilievi aerei, integrando sistemi GPS e
inerziali per la determinazione della posizione e
dell’assetto del velivolo. In zone particolarmente
accidentate gli strumenti sono montati anche su elicotteri
consentendo una maggiore flessibilità operativa.
Il sistema è costituito da un laser operante nell’infrarosso
vicino (λ=1064 nm) che invia impulsi laser ad una
frequenza di 33 kHz.
Gli impulsi laser vengono diretti verso uno specchio
oscillante che riflette gli stessi in senso ortogonale alla
direzione di avanzamento dell’aeromobile dove l’intero
sistema è alloggiato.
La scansione del terreno deriva dalla combinazione dei
due movimenti, quello di oscillazione dello specchio e
quello di avanzamento dell’aeromobile.
Il raggio laser una volta colpito il suolo viene riflesso e
parte dell’energia incidente sul terreno ritorna verso lo
specchio che convoglia il segnale luminoso ad un
sistema di rilevamento che determina il tempo di ritorno e
l'intensità dell’impulso.
Dal tempo impiegato dalla luce a percorrere il tragitto
relativo al punto di emissione – riflessione – ricezione si
determina la distanza fra lo specchio ed punto di
riflessione al suolo.
Laser Scanner aviotrasportati 2
L’intero sistema è montato rigidamente sull’aeromobile la cui
posizione viene determinata mediante GPS (Global Position
System).
Il calcolo della traiettoria del sistema avviene mediante misure
GPS differenziali cinematiche utilizzando almeno una stazione
fissa posizionata su di un punto noto entro 25 km dall’area del
rilievo.
I ricevitori GPS utilizzati sono di tipo geodetico e permettono la
misura su ambedue le bande L1 ed L2. L’elaborazione non
avviene in tempo reale e viene effettuata mediante elaborazione
cinematica con una frequenza di campionamento di 1 Hz.
Una volta ricostruita la traiettoria (vettore di stato) mediante il
GPS si dispone di un punto noto all’incirca ogni 35 metri
(considerando una velocità media dell’aeromobile di 75 kts).
A questo punto i dati di posizione vengono integrati con quelli
inerziali che sono acquisiti ad una frequenza di 200 Hz. Alla
traiettoria GPS vengono pertanto associati i dati di orientamento
del sistema ed accelerometrici ottenuti dall’unità di misura
inerziale (IMU), costituita da un terna di giroscopi al laser che
consentono una precisione di 0.02 gradi in rollio e beccheggio e
0.04 gradi in imbardata/direzione. In questo modo la traiettoria
viene risolta ogni 50 millisecondi (pressappoco ogni 0.17 m).
Integrando tutti questi dati con quelli di posizione istantanea dello
specchio si determina la posizione nello spazio dei punti che
hanno riflesso il raggio laser e che saranno riferiti al sistema
geodetico in cui opera il GPS ovvero il WGS84. La
correttezza della misura effettuata dall’IMU determina quindi in
larga parte il livello di precisione del rilievo.
Laser Scanner aviotrasportati 3
Disporre di dettagliati modelli digitali del terreno di porzioni del territorio regionale
permette analisi di grande accuratezza e simulazioni e scenari di evento.
Analisi di scansioni multitemporali permettono di monitorare in maniera areale grandi porzioni
di territorio anche in zone impervie e di difficile raggiungimento da parte degli operatori. Le
caratteristiche del laser scan, che ne fanno lo strumento d'elezione per questi compiti, sono
precisione e rapidità, dove con rapidità bisogna intendere globalmente: capacità di operare
anche con condizioni meteorologiche non ottimali ed elevato grado di automazione della fase
di calcolo;
Laser Scanner aviotrasportati 4
I principali vantaggi riscontrati da tale metodologia di rilievo sono :
• indipendenza delle condizioni di luce: l’indipendenza dalle zone d’ombra è un fattore
molto importante specialmente in zone montane
• possibilità di registrare l’ultimo impulso: permette di creare un modello digitale del terreno
privo della copertura vegetale, essenziale per l’identificazione delle morfologie molto
spesso mascherate dalla vegetazione
• rapidità: è necessaria solo qualche ora per la scansione di un territorio piuttosto vasto
• creazione precisa delle carte delle pendenze (e non interpolata come per le curve di
livello)
• capacità di rilievo di particolari che difficilmente potrebbero essere osservati direttamente
sul terreno
• evidenze di relazioni spaziali non percepibili in campagna
• possibilità di ottenere ottimi rilievi anche senza punti di appoggio.
Sistemi “Attivi” e “Passivi”
I sistemi fin qui descritti sono detti
“sistemi attivi” poiché impiegano
energia prodotta in proprio per
“illuminare”
l’oggetto
del
rilevamento.
Passiamo ora ai cosiddetti “sistemi
passivi”, quelle applicazioni cioè in
cui le tecniche di rilevamento e
rappresentazione si avvalgono
dell’energia prodotta (riflessa)
dagli oggetti stessi: ci stiamo
riferendo essenzialmente alle
tecniche di fotogrammetria.
Fotogrammetria: alcune definizioni
FOTOGRAMMETRIA
Tecnica di rilevamento che consente di ottenere informazioni metriche (forma e
posizione) di oggetti tridimensionali mediante interpretazione e misura di
immagini fotografiche (tradizionali o digitali)
È la scienza che consente di ottenere informazioni affidabili di oggetti fisici e
dell’ambiente circostante mediante processi di registrazione, misura e
interpretazione delle immagini fotografiche e digitali formate dall’energia
elettromagnetica radiante e da altri fenomeni fisici.
[Manual of Photogrammetry, ASPRS, 1980]
La fotogrammetria comprende un insieme di tecniche che, partendo dalle
fotografie di un oggetto, consentono di definirne la forma (qualunque sia la
dimensione) e di collocarlo nello spazio.
[J.P S. Aubin, 1999]
RDF Geometrico
L’argomento è vastissimo, con implicazioni interdisciplinari molto articolate che
non sarà possibile approfondire in questa sede per evidenti limiti di tempo. Ci
limiteremo ad una breve introduzione sui principi generali della proiettività e
della fotogrammetria generale, per poi concentrarci su quattro principali
applicativi che rappresentano lo “stato dell’arte” in quattro direzioni
fondamentali:
Il Raddrizzamento semplice delle immagini: RDF
La Modellazione Architettonica: Autodesk ImageModeler
Il “Video scanning”: EOS System PhotoModeler Scanner
La modellazione “globale”: Google SketchUp
Il “Raddrizzamento”
Un primo livello di approccio è dato dal
raddrizzamento semplice delle immagini. Per
raddrizzamento intendiamo qui la deformazione,
ossia la rettifica, dell’immagine originale
secondo un modello proiettivo.
Operazione
che
è
possibile
eseguire
disponendo di una sola immagine e che
consiste nel determinare la posizione dei punti
dell'oggetto appartenenti ad un piano di
particolare rilevanza per l'oggetto stesso a
partire dalla posizione delle loro immagini sul
piano della fotografia.
Assumendo che l'immagine fotografica sia
affetta soltanto da deformazioni prospettiche, la
trasformazione fra le coordinate sui due piani è
detta
trasformazione
omografica.
La
trasformazione dipende da 8 parametri che
possono essere stimati conoscendo la
posizione di 4 punti sia sull'immagine, sia sul
piano dell'oggetto.
La fotografia come proiezione centrale
La fotografia, dal punto di vista proiettivo è una
proiezione centrale nella quale gli oggetti cambiano
forma e dimensione in funzione della loro distanza dal
centro di presa. Dal punto di vista analitico, stabilito il
sistema di riferimento, le relazioni tra fotogramma e
oggetto dipendono da 9 parametri che descrivono la
posizione della lastra nello spazio (orientamento
esterno) e le caratteristiche geometriche della camera
(orientamento interno). Nel particolare caso in cui
l’oggetto da rilevare sia un piano i parametri si
riducono a otto: il motivo sta nel fatto che esistono
delle relazioni fra i nove parametri originari.
Avendo a disposizione quattro punti (di controllo) di
cui siano note le coordinate immagine e oggetto si
possono determinare gli otto coefficienti e
successivamente calcolare qualsiasi punto oggetto a
partire dai punti immagine.
Qualora i punti di controllo siano più di quattro, i
parametri sono stimati con il metodo dei minimi
quadrati ed è possibile valutare l’incertezza dei
risultati ottenuti.
Il Raddrizzamento geometrico
In casi particolari è possibile sfruttare per la determinazione degli otto parametri, le geometrie degli oggetti
rappresentati. Si considerano le linee parallele nella realtà per determinare i punti di fuga della prospettiva
fotografica e alcune dimensioni lineari nelle due direzioni indipendenti (X e Y) per la messa in scala
dell'immagine.
Si può ipotizzare che l'origine degli assi del sistema di riferimento immagine (coordinate lastra o coordinate
pixel) si trasformi nell'origine del sistema di coordinate oggetto. In questo modo l'asse delle ascisse e delle
ordinate vengono individuate dalle rette uscenti dall'origine e passanti per i rispettivi punti di fuga.
RDF 1
In Piattaforma (Biblioteca/Materiali di supporto) è presente un programma utilizzabile per
il raddrizzamento speditivo delle immagini: RDF (Raddrizzamento Digitale
Fotogrammetrico. Il programma applica entrambi i metodi operativi, quello geometrico e
quello analitico. Vediamo inizialmente, in modo molto schematico, il funzionamento e poi
vedremo alcuni esempi.
… per saperne di più: http://circe.iuav.it/labfot/software/soft_rdf.html
RDF Analitico
Il programma si apre con la videata di scelta del
metodo da impiegare: clicchiamo su “Analitico”.
Le operazioni da eseguire, i passi essenziali per
completare il raddrizzamento analitico sono:
1. aprire l’immagine da raddrizzare
2. aprire la tabella con le coordinate oggetto
3. costruire la tabella
coordinate immagine
4. creare
la
tabella
immagine/oggetto
con
le
corrispondenti
unione
5. selezionare l’area di raddrizzamento
6. definire la risoluzione dell’immagine
7. raddrizzare l’immagine
coordinate
RDF Analitica
Per una esemplificazione rapida, utilizzeremo un’immagine “sintetica”, la prospettiva di un cubo composto
di cubetti più piccoli così che sia possibile definire la forma e le coordinate “reali” dell’oggetto in modo
semplice, intuitivo e diretto. A questo fine possiamo immaginare un sistema di assi cartesiani solidale col
cubo con origine nel vertice in basso a sinistra. Allo stesso modo possiamo concepire un sistema “locale”
di “coordinate immagine”, con l’origine nell’angolo in alto a sinistra della stessa. Se le unità oggetto
saranno espresse, ad esempio, in metri, quelle immagine saranno in pixel.
Xpixel
+
(0,0)
(0,10)
Y
+
(10,10)
(7,7)
+
(4,3)
+
Ypixel
(0,0) +
X
+ (10,0)
Le Immagini raster
Un’immagine digitale è costituita da una matrice bidimensionale composta da righe e colonne.
Tale rappresentazione, definita raster, si ottiene suddividendo l’immagine fotografica in elementi di
dimensioni finite, definiti pixel (picture element), ed associando ad ognuno di essi un numero che
ne rappresenta la radiometria o altre informazioni.
Ogni pixel è individuato univocamente da due numeri interi che rappresentano la posizione in riga
e colonna all’interno della matrice; per convenzione nelle immagini digitali l’origine del sistema
righe/colonne è posto nell’angolo in alto a sinistra: si noterà infatti che le coordinate y (i) sono
crescenti verso il basso.
RDF Analitica
Analogamente potremo definire, rispetto all’oggetto, delle linee che dovranno diventare
orizzontali (in rosso) e verticali (in blu). Queste saranno impiegate nel raddrizzamento
geometrico
Il caricamento dell’immagine
Iniziamo ora la sequenza col caricamento dell’immagine da raddrizzare.
Contestualmente apriamo il “Navigatore” che consentirà di spostarsi sull’immagine
stessa nella finestra principale. Il risultato sarà il seguente:
La creazione delle tabelle
Costruiamo ora le tabelle delle coordinate immagine e delle coordinate oggetto. Per le coordinate
immagine si apre l’apposita tabella e si inizia la collimazione dei punti. Ricordarsi di confermare la
collimazione dopo averla eseguita in modo da consentirne la memorizzazione.
Il programma visualizzerà i punti collimati numerandoli automaticamente in modo incrementale: le
coordinate della tabella, come detto, sono espresse in pixel.
Si passerà poi all’implementazione della tabella delle coordinate oggetto degli stessi punti.
IMPORTANTE: Ovviamente i punti devono, per quanto possibile, appartenere ad un piano ed il
sistema di riferimento a cui si riferiscono le loro coordinate deve essere tale che le x siano crescenti
verso destra e le y siano crescenti verso l’alto.
Il calcolo dei parametri
A questo punto il programma costruisce una tabella “unione” associando le coordinate
dei punti omologhi. Da questa si passa direttamente al calcolo dei parametri di
trasformazione, visualizzati in un’altra apposita tabella. Grazie all’utilizzo di una quantità
ridondante di punti di controllo è possibile una compensazione ai “minimi quadrati” e
quindi un controllo generale della qualità metrica dell’operazione di raddrizzamento. In
particolare è interessante esaminare le prime due colonne (x e y), dove vengono
riportate le coordinate “finali” dei punti a valle dell’operazione di compensazione: le
differenze rispetto a quelle teoriche sono dell’ordine dell’uno per mille (e.g. un
centimetro su dieci metri)
L’area di ricampionamento
Si passa poi al raddrizzamento vero e proprio. La prima operazione è quella di
individuare sull’immagine la porzione da raddrizzare, la cosiddetta “area di
ricampionamento”: lo faremo individuando un quadrilatero che circonda l’area
dell’immagine interessata all’operazione.
Sarà infine definita la risoluzione (e quindi la dimensione) dell’immagine finale
raddrizzata: ciò potrà essere fatto o indicando direttamente la risoluzione (DPI) o la
dimensione in metri di un singolo pixel.
Il Raddrizzamento
Infine, con il comando “RDF” si avvia il raddrizzamento. È possibile visualizzare
un’anteprima. L’immagine raddrizzata si aprirà nella finestra principale del programma e
potrà essere salvata in formato .BMP.
… nella realtà
Ovviamente la stessa tecnica viene di norma impiegata per il raddrizzamento di
immagini reali. In questo caso le coordinate dei punti di controllo possono essere
determinate o tramite operazioni topografiche (rilievo strumentale) ovvero tramite la
digitalizzazione di rilievi “storici” con programmi CAD.
Modelli e rendering
Il programma contiene anche un piccolo editor grafico con cui è possibile “disegnare”
sulle foto ed esportare i risultati in formato .DXF. Naturalmente, tuttavia, l’uso tipico di
queste immagini rettificate è l’importazione in ambienti grafici di vario genere (da
AutoCad a 3D Studio) per realizzare modelli fotorealistici.
Il montaggio dei raddrizzamenti
… e di generare anche soluzioni di grande efficacia per la rappresentazione di
monumenti molto complessi mediante la tecnica del montaggio dei raddrizzamenti.
Il Fotomosaico
Il cosiddetto “fotomosaico” si ottiene con il montaggio successivo di vari raddrizzamenti:
per ottenere un buon risultato occorre non solo che le varie foto siano geometricamente
corrette, ma anche che i colori e l’illuminazione siano per quanto possibile omogenei.
Integrazione con gli ambienti CAD
Il risultato finale può poi essere importato in ambiente CAD per la realizzazione di
dettagliate restituzioni vettoriali
Modellazione integrata
… che, combinate al rilievo topografico tridimensionale, possono consentire la
generazione di modelli 3D di grande dettaglio e di grande impatto.
La Fotomodellazione
Un’ulteriore “frontiera” del rilievo moderno è data dal mondo della cosiddetta
“Fotomodellazione”. Ancora oggi non c’è una definizione esaustiva del termine, anche
se evidentemente le origini del sistema, come vedremo meglio in seguito, sono
riscontrabili nell’evoluzione della fotogrammetria digitale e della computer vision.
La fotomodellazione genera un ambiente di lavoro che permette la restituzione
tridimensionale di edifici basandosi sull'integrazione globale e coerente delle fasi di
rilievo, modellazione e rappresentazione.
È infatti possibile estrarre direttamente dalle fotografie tutte le informazioni necessarie:
coordinate, distanze, punti caratteristici per la restituzione bidimensionale di piante e
prospetti; vertici e profili per la ricostruzione tridimensionale degli elementi; texture per
arricchire visivamente i volumi creati.
Si tratta quindi della possibilità, a partire da semplici fotografie, di arrivare a elaborare
rappresentazioni tridimensionali realistiche nelle quali le texture, non sono solo un
semplice escamotage per la simulazione dell'apparenza visiva delle superfici,
costituiscono un archivio di informazioni relative allo stato di conservazione dei materiali.
La fotografia
Bisogna innanzi tutto iniziare col capire
quali siano i principi geometrici che ci
permettono di misurare, di modellare e
di restituire in tre dimensioni un oggetto
reale a partire da fotografie. Tutto si
spiega at traverso una relazione
proiettiva: una fotografia è la proiezione
centrale di una scena (spazio in tre
dimensioni) su di un piano (spazio in
due dimensioni). Abbiamo già visto
come, nei casi in cui l'oggetto del rilievo
si possa considerare sufficientemente
approssimato da un unico definito piano,
si possono utilizzare modelli semplificati
di restituzione, come i fotopiani. Per
approfondire gli argomenti …
Fotomodellazione
Quello che segue è lo schema proiettivo di una normale fotocamera. Ne abbiano già
enunciato le analogie con la proiettività della prospettiva (UD 1.06). La Distanza Focale
(o distanza principale), Il Punto Principale e la sua posizione nel piano immagine, il
Diagramma delle Distorsioni proprie del sistema obiettivo usato rappresentano i tre
parametri del cosiddetto Orientamento Interno.
Fotomodellazione
Alla base di ogni procedura di orientamento
sta la condizione di collinearità.
Le condizioni (o equazioni) di collinearità
rappresentano le relazioni fra le coordinate
(ξ, η) del punto immagine P’, le coordinate
(X, Y, Z) del corrispondente punto oggetto P
e le coordinate ( Z0 , Y0 , X0 ) del punto di
presa O.
La condizione che esse esprimono è che, in
condizioni ideali, al momento dello scatto
(presa) punto oggetto, centro di presa e
punto immagine risultano allineati lungo una
retta. Se si ricostruisce il sistema proiettivo
sarà possibile considerare la retta in
questione come base per la restituzione
della posizione del punto nello spazio.
Fotomodellazione
Ma tutti i punti che giacciono sulla retta che passa per il punto O (centro di
prospettiva) e per i diversi punti “A”, in questo caso, hanno come immagine sul
fotogramma il punto A’. La determinazione univoca spaziale del punto
tridimensionale non può quindi essere realizzata da una sola immagine, ma si
ottiene dall’intersezione spaziale di raggi omologhi, cioè riferiti allo stesso punto
oggetto, provenienti da differenti fotogrammi.
Fotomodellazione
La posizione del punto sarà quindi data dall’intersezione spaziale delle rette
omologhe proiettanti. Affinché ciò possa accadere in modo generalizzato occorre
determinare la posizione reciproca delle due immagini al momento della presa,
ciò che viene definito l’Orientamento Relativo delle immagini stesse. È evidente
che il ragionamento vale anche per un numero di immagini maggiore di 2.
Fotomodellazione
Trascurando qui, per brevità, i passaggi formali della disciplina, ne risulta che il Sistema
sarà quindi caratterizzato da una serie di incognite: due parametri di orientamento
interno (focale e diagramma delle distorsioni) e sei parametri di orientamento relativo
(tre traslazioni e tre rotazioni). Per risolvere il sistema e valorizzare le incognite sarà
necessario operare una serie di misure sulle immagini, cioè rilevare le “coordinate
immagine” di almeno 8 punti omologhi sulle varie foto. Vedremo fra poco come.
La fotomodellazione
Applicare la fotomodellazione alla ricostruzione 3D dell’architettura obbliga
l‘operatore a uno sforzo di interpretazione che coincide necessariamente con
la comprensione delle forme architettoniche che la generano. Questo
corrisponde a una prassi in perfetta continuità logica con la storia della
rappresentazione architettonica e che non limita il rilevamento architettonico al
semplice controllo di macchine e procedimenti tecnici “per prendere punti”.
La fotomodellazione
Lo schema operativo dell’intero processo può essere riassunto come segue:
La fotomodellazione
Nella prima fase si acquisiscono i punti, nella seconda si determinano le
geometrie e nella terza si passa alla “vestizione del modello” con qualità
fotorealistica, o con qualsiasi tecnica opportuna di rappresentazione.
La fotomodellazione
Vediamo, molto schematicamente, quali sono le principali fasi operative
esaminando un esempio classico: la modellazione di un edificio a partire dalle
tre foto che vediamo di seguito. Vedremo come l’intero procedimento potrà
completarsi praticamente senza alcuna informazione “metrica” sull’oggetto.
La fotomodellazione
Il Programma che stiamo esaminando è ImageModeler (Autodesk)
Esaminiamo, inizialmente, l’ambiente operativo:
La fotomodellazione
Passiamo poi alle varie fasi, cominciando, ovviamente, col caricare le foto: è
sufficiente selezionarle e cliccare “apri”. In questa fase possono essere anche
specificati ulteriori parametri addizionali sulle fotocamere, se conosciuti.
La fotomodellazione
Il risultato sarà quello che segue, ma sarà possibile visualizzare anche le varie
foto contemporaneamente, attivando anche una finestra destinata a
visualizzare il modello 3D. Notate anche come, mano a mano che si procede,
si rendano disponibili anche le ulteriori toolbar.
La fotomodellazione
A questo punto si procederà con la
calibrazione per fasci proiettivi (bundle
adjustment) dell’intero sistema, ricercando
punti omologhi (almeno 8) sui vari
fotogrammi.
Si attiverà quindi la
collimazione dei punti, che sarà favorita
da uno zoom automatico contestuale. Una
volta collimato lo stesso punto sulle tre
foto il vertice (locator) sarà memorizzato e
numerato progressivamente in modo
automatico.
La fotomodellazione
Non è importante che i punti facciano materialmente parte del’oggetto da restituire,
ma si deve aver cura di posizionarli per quanto possibile ai bordi dell’area
interessata e su piani diversi di profondità.
La fotomodellazione
Raggiunto il numero di 8 punti, sufficienti per generare le equazioni di
osservazione che consentono di risolvere le 8 incognite del sistema, il
programma visualizzerà un messaggio di avvenuta calibrazione e nella
“scene browser area” un codice di colore comunicherà la qualità dei residui
sui vari punti, derivante, come sempre, da una compensazione ai minimi
quadrati. Verde, giallo e rosso qualificheranno i residui secondo tre successivi
livelli di qualità.
La fotomodellazione
A questo punto il sistema è calibrato ed è possbile aggiungere ulteriori locator (che
si riveleranno molto utili, come vedremo) sia con lo scopo di migliorare la
calibrazione, sia come semplice ausilio per la successiva modellazione.
In questa fase il sistema guiderà l’operatore mostrando, ad ogni successiva
collimazione, le “rette omologhe” proiettate sulle altre immagini, ossia le direzioni
lungo le quali i punti si dovrebbero trovare per verificare l’intersezione delle rette
stesse.
La fotomodellazione
Sarà poi possibile rafforzare la calibrazione aggiungendo “condizioni”
geometriche”, come ad esempio angoli retti, o punti che definiscono un piano, e
definire un sistema arbitrario cartesiano di orientamento e una scala del modello
tramite una misura di riferimento.
La fotomodellazione
Il modello, a questo punto può essere misurato direttamente, aggiungendo altri
marker (locator) in posizione opportuna che non entreranno più nel meccanismo
della calibrazione. Sarà possibile misurare sia distanze che angoli.
La fotomodellazione
Passiamo ora alla fase più interessante, quella della modellazione tridimensionale
e della estrazione delle texture.
Una volta definiti i marker in modo opportuno, questo possono essere utilizzati per
inserire nel modello direttamente delle primitive grafiche tridimensionali: facce,
cubi, cilindri, sfere, dischi.
Selezioniamo il cubo …
La fotomodellazione
Utilizzando opportunamente i marker, posizioniamo il solido dimensionandolo
correttamente. La forma si trova ora nello spazio virtuale dell’oggetto, generato
dall’intersezione spaziale delle varie immagini.
La fotomodellazione
Possiamo quindi passare direttamente, come detto, all’estrazione delle texture.
Selezioniamo innanzi tutto il cubo appena realizzato. Il programma selezionerà
automaticamente l’immagine nella quale ogni faccia dell’oggetto 3D costruito
compare al meglio, ne estrarrà la corrispondente porzione per proiettarla sulla
faccia stessa “raddrizzandola”
La fotomodellazione
Il risultato finale sarà qualcosa di simile a questo … e sarà possibile selezionare la
modalità di visualizzazione del modello “vestito”, le texture estratte, o gli oggetti 3D
inseriti nello “spazio foto”. Ovviamente sarà anche possibile esportare le immagini
raddrizzate per ulteriori utilizzi, o editarle direttamente all’interno del programma,
ad esempio per eliminare ombre, disturbi, o altro.
La fotomodellazione
Ripetendo le operazioni descritte in modo opportuno si può proseguire al
completamento del modello 3D, raggiungendo risultati molto interessanti.
Ricordiamo che, in questo caso, non è stato prodotto “solo” un modello
fotorealistico, ma si tratta di una restituzione tridimensionale completa, misurabile e
verificabile nei suoi parametri di precisione.
La fotomodellazione
Quello che abbiamo visto era solo un primissimo approccio al programma, che ha
potenzialità molto superiori. La modellazione, ad esempio, può essere spinta a
livello di grande dettaglio e raggiungere effetti veramente straordinari di realismo.
La fotomodellazione
Innanzi tutto è possibile intervenire sulle primitive tridimensionali e modificarne la
forma, e la giacitura in modo ad poterle adattare alla realtà tridimensionale del
monumento.
La fotomodellazione
È anche possibile operare più avanzate forme di editing, “tagliando” facce,
estrudendo porzioni o arrotondando gli spigoli, e così via, o lavorando con una
modellazione per profili.
La fotomodellazione
Vediamo di seguito alcuni esempi di realizzazioni e progetti in corso …
Loggia del Romanino. Fabio Remondino
Chateau
Foro
dediTarascon.
Pompei. Tudor
Fabio Driscu
Remondino
La fotomodellazione
È di piena evidenza che la realizzazione di progetti complessi implica un’attenta
valutazione delle risorse necessarie e un accurato progetto di prese per assicurarsi
che ogni particolare dell’oggetto sia perfettamente visibile su almeno due
fotogrammi
La fotomodellazione
Vediamo qui, con immagini tratte sempre dal libro di Livio del Luca, altri esempi di
progetto di prese.
La fotomodellazione con nuvole di punti
La fotomodellazione a nuvola di punti (Photo-based scanning) ha le sue origini
in due diversi settori disciplinari: la fotogrammetria, ed in particolare la
creazione di modelli digitali del terreno su base fotogrammetrica e, d’altro
canto, la stereocomparazione (autocorrelazione) nella computer vision.
Negli anni ‘70 queste ricerche furono portate avanti soprattutto da Marr e
Poggio, con gli studi sulla visione stereoscopica umana, che pensarono di
applicare alla teoria della visione computerizzata.
I primi algoritmi di autocorrelazione furono applicati in fotogrammetria a partire
dal sistema WILD AC1 per approdare alle prime versioni di ELCOVISIO 10,
impiegato inizialmente per controlli dimensionali industriali.
Pian piano, a partire dagli anni ’90, queste tecniche cominciarono a diffondersi
grazie alla diffusione degli scanner e alla conseguente apertura alla
fotogrammetria digitale e furono impiegati, appunto, per la generazione
semiautomatica dei Modelli Digitali del Terreno.
Da qualche anno sono disponibili software commerciali in grado di produrre
risultati eccellenti a costi molto contenuti ( < 3000 $).
EOS System Photomodeler Scanner
I programmi di fotomodellazione più evoluti sono in grado quindi di compiere
un ulteriore passo in avanti e calcolare automaticamente la posizione spaziale
di tutti i pixel delle coppie di fotogrammi che riproducono la superficie del
medesimo oggetto, generando delle nuvole di punti tridimensionali analoghe a
quelle dei laser scanner (dense surface modeling).
La superficie di interesse deve essere ripresa con una coppia di fotografie
sovrapponibili, ottenute posizionando la camera approssimativamente alla
stessa distanza dall'oggetto e con lo stesso orientamento.
La fotomodellazione con nuvole di punti
Il software mette a confronto le coppie di fotogrammi scomponendoli in una griglia di
piccoli riquadri; per ciascun riquadro di una delle due immagini va alla ricerca di quello
che nell’altra immagine presenta le maggiori analogie. I riquadri omologhi vengono
quindi automaticamente associati e registrati. Tenendo conto della geometria interna
della camera e della sua posizione nello spazio — che può essere determinata dal sw
stesso, come detto sopra, fornendogli determinati parametri — il programma riesce di
conseguenza a orientare i singoli riquadri; affinando la sua analisi trova quindi le
coordinate di tutti i punti visibili che definiscono la superficie dell’oggetto, corrispondenti
ai pixel delle fotografie, proiettandoli nello spazio 3d (nuvola di punti).
La fotomodellazione con nuvole di punti
Anche il processo di “calibrazione” delle fotocamere può essere in qualche modo
automatizzato se si impiegano particolari marker nelle prese. La nuvola di punti può
essere convertita in una mesh a triangoli (TIN) che viene poi rivestita con texture
fotografiche. Il risultato finale è pertanto identico a quello di un rilievo effettuato con il
laser scanner. Il programma di fotomodellazione dispone di un set di strumenti che
consentono di editare la nuvola di punti e la mesh esattamente con le stesse procedure:
chiusura di buchi, pulizia dei punti fuori posto, ecc. Il modello tridimensionale può essere
eventualmente esportato in un CAD dove sarà oggetto di ulteriori elaborazioni.
La fotomodellazione con nuvole di punti
Rispetto al laserscanner questa tecnica riesce a garantire in certe condizioni il
medesimo livello di precisione e presenta il vantaggio di comportare costi
enormemente inferiori, grazie anche alla sua maggiore versatilità. Il risparmio
è soprattutto sull’hardware che è costituito esclusivamente dalla macchina
fotografica. Le applicazioni poi sono praticamente illimitate e vanno da quelle
“forensi” all’ingegneria, dalla medicina alla conservazione dei monumenti, ecc.
La fotomodellazione con nuvole di punti
Se l’immagine è nitida, se le angolazioni delle coppie di fotogrammi sono corrette e se i
parametri della geometria interna della camera sono noti al programma, si possono
ottenere rilievi con una precisione inferiore ad un pixel, valore che può corrispondere a
meno di un cm reale nel caso delle riprese di un edificio. L’accuratezza del rilievo può
essere in ogni modo facilmente verificata misurando all’interno del modello 3d le distanze
fra alcuni punti ben riconoscibili e di cui si conoscono le distanze reali. La duttilità del
sistema consente inoltre di adattare il procedimento di costruzione 3d alle differenze
morfologiche che si riscontrano tra le varie parti dell’oggetto di interesse; i volumi più
schematici potranno essere restituiti per mezzo di una fotomodellazione su base
geometrica, mentre le parti più complesse saranno ricavate dalle nuvole di punti. I due tipi
di modelli possono essere gestiti dallo stesso programma e associati in un unico file
La fotomodellazione “globale”
Per concludere questo percorso nella fotomodellazione vediamo un programma
molto particolare: Google SketchUp, arrivato oggi alla verisione 8.
La fotomodellazione “globale”
Innanzi tutto SketchUp è un programma per il disegno tridimensionale e il
texturing avanzato di modelli. Il WEB è pieno di tutorial sull’uso di SketchUp:
non ci soffermeremo quindi sui fondamenti operativi, anche perché il disegno
in questo ambiente è veramente intuitivo. Vorrei invece soffermarmi un po’ su
una delle potenzialità maggiori di SU, cioè la modellazione tridimensionale
bidirezionale dalle foto. Iniziamo col richiamare i fondamenti della prospettiva,
convergenza delle linee parallele, conservazione della verticalità, ecc.
La fotomodellazione “globale”
Partiamo dalla modellazione 3D dalle foto. Anche in questo caso usiamo, in
partenza, un’immagine “sintetica” e importiamola utilizzando l’opzione “Use as
New Matched Photo).
La fotomodellazione “globale”
Una volta importata l’immagine, il programma materializza una griglia e delle
linee verdi e rosse che possono essere trascinate fino a materializzare gli
allineamenti orizzontali nel mondo reale. Naturalmente è possibile zoomare
per aumentare l’accuratezza dell’operazione.
La fotomodellazione “globale”
A questo punto è fondamentale posizionare anche l’origine degli assi della foto
(linea blu): è sufficiente trascinarla in corrispondenza di un punto notevole
dell’edificio da costruire, rispetto al quale si possa definire la verticalità.
La fotomodellazione “globale”
La finestra di dialogo consente di definire molti parametri operativi, come la
trasparenza della foto e del modello in costruzione e il passo della griglia di
riferimento.
La fotomodellazione “globale”
A questo punto è possibile cominciare a costruire l’oggetto nello spazio
prospettico tridimensionale della foto, utilizzando tutti i tools di disegno di SU.
È importante partire sempre dall’origine, in modo da evitare possibili errori
sulla giacitura dei piani, ovvero utilizzando gli “snap” da punti già inseriti.
La fotomodellazione “globale”
Se si parte a costruire facce o linee da punti generici c’è il rischio di inserire
elementi che, da un particolare punto di vista, sembrano corretti, ma che in
realtà sono completamente sbagliati. Si può verificare agevolmente la
congruenza geometrica del modello utilizzando il tasto “Orbita”:
La fotomodellazione “globale”
È invece possibile, come detto, utilizzare i tasti di snap e partire da punti noti
già inseriti, magari forzando l’ortogonalità delle linee rispetto agli assi
fondamentali del sistema.
La fotomodellazione “globale”
Vediamo ora alcuni consigli pratici per scattare le foto, che vanno per altro
bene in qualsiasi situazione anche per gli altri programmi.
1. Evitare, per quanto possibile, ostacoli
o oggetti interposti
2. Non utilizzare immagini ritagliate:
occorre
prestare
particolare
attenzione, in questo caso, se si
usano immagini prese da libri o
riviste
3. Utilizzate, per quanto possibile, linee
dell’oggetto per definire orizzontali e
verticali. Spesso l’appoggio a terra
può trarre in inganno.
La fotomodellazione “globale”
Vediamo ora un caso pratico: partiamo con l’importazione della foto e
cominciamo a definirne i parametri prospettici allenando le orizzontali e le
verticali.
La fotomodellazione “globale”
Una volta completato l’orientamento della foto e il calcolo dei parametri di
deformazione geometrica possiamo cominciare direttamente a modellare, ad
esempio costruendo un “muro”
La fotomodellazione “globale”
Da questo muro, con il comando “estrusione”, possiamo realizzare l’intero
volume del primo blocco, ovviamente accettando le approssimazioni di questa
fase.
La fotomodellazione “globale”
Possiamo poi continuare a costruire la scena attraverso la modellazione di
volumi semplici, sempre verificando la corretta giacitura di quanto realizzato.
La fotomodellazione “globale”
È poi possibile importare altre foto, da diversi punti di vista. Per poterle
utilizzare occorre ripetere l’operazione di orientamento e ruotare il modello in
modo che la visualizzazione sia simile a quella della foto
La fotomodellazione “globale”
Alla fine occorre posizionare l’origine nella medesima posizione della foto
precedente, sullo stesso angolo dell’edificio
La fotomodellazione “globale”
Riattivando la visualizzazione del modello sarà possibile verificare il corretto
posizionamento e la messa in scala del modello stesso rispetto alla nuova
foto. Occorre ricordare che non sarà mai possibile arrivare ad un “esatta”
sovrapposizione fra modello e foto, ma lavorando correttamente i risultati che
si possono ottenere sono veramente notevoli
La fotomodellazione “globale”
Vediamo qui una prima “approssimazione” del modello finale, realizzabile in
poco tempo. Come sempre possiamo definire i livelli di trasparenza degli
oggetti presenti nell’area di lavoro
La fotomodellazione “globale”
Siamo giunti in dirittura di arrivo. A questo punto è possibile proiettare
direttamente le foto sul modello, applicando un texturing fotorealistico di
notevole qualità.
La fotomodellazione “globale”
Continuando con le altre foto e selezionando di volta in volta le facce
appropriate possiamo arrivare a completare il modello.
La fotomodellazione “globale”
Abbiamo già visto alcuni dei modelli realizzati con SketchUp, La Basilica di
San Pietro, il Colosseo, … in rete sono reperibili centinaia di modelli che
possono essere importati e utilizzati da SU.
La fotomodellazione “globale”
Ma un ulteriore, ancora più interessante, livello di approfondimento riguarda il
carattere “globale” della modellazione interattiva. SketchUp, infatti, è
intefacciato direttamente con Google Earth ed è possibile realizzare un’attività
di modellazione bidirezionale ricavando informazioni fotografiche per la
modellazione e inserendo i modelli realizzati direttamente in Google Earth.
La fotomodellazione “globale”
Il sistema consente di individuare un edificio e mette a disposizione le varie
foto scattate per ottenere le viste prospettiche, come un catalogo, o persino
inserite tridimensionalmente nell’ambiente di lavoro.
La fotomodellazione “globale”
In questo modo la modellazione può avvenire direttamente “on line” e la
disponibilità dei modelli 3D a livello mondiale sta costantemente
sviluppandosi.
La fotomodellazione “globale”
Abbiamo già avuto modo di vedere, nell’UD precedente, alcune “istantanee” di
Venezia …
La fotomodellazione “globale”
… e vediamo ora New York …
La fotomodellazione “globale”
… Il Cairo …
Conclusioni
Si conclude qui questa sesta Unità Didattica, e con essa il Corso di
rappresentazione che ci ha portato dal Disegno dal vero a mano libera alla
modellazione tridimensionale globale di Google …
Vorrei terminare da dove abbiamo cominciato, con le parole di Gaspare de
Fiore, che invece ci ha lasciato da poco, e a cui vorrei dedicare questo corso …
"...Disegnerai con la mano quello che vedi, che senti e
che pensi...".
… non si disegna soltanto quello che si vede con gli occhi della
fronte ma anche quello che si vede con gli occhi della mente, e
insieme si disegna anche quello che si pensa e che si sente.
Insomma, … non si disegna soltanto con la mano, ma anche
contemporaneamente con la mente e con il cuore, … il disegno nasce
dal sentimento e dalla ragione”.
(Gaspare De Fiore)