Università Mediterranea di Reggio Calabria – Facoltà di Architettura Corso di DISEGNO – 1 Prof. Franco Prampolini Unità didattica n. 2.06 Il Rilievo strumentale e la Rappresentazione digitale Introduzione In quest’ultima unità didattica affronteremo il tema delle nuove frontiere del rilievo numerico e della rappresentazione digitale dell’architettura e dell’ambiente urbano. Si tratta di un argomento vastissimo che ha implicazioni innumerevoli sul piano disciplinare e sulla pratica operativa: dall’image processing alla fotomodellazione, dal laser scanning al ray tracing, dalla realtà virtuale all’augmented reality, senza trascurare il problema che il rilievo architettonico non può limitarsi alla semplice misurazione/modellazione, richiede un approccio “specialistico” particolare, … da architetti, e quindi non può prescindere da quelle considerazioni semantiche, materiche, stilistiche, sul linguaggio stesso che da sempre legano la conoscenza, la rappresentazione e la pratica stessa dell’architettura. Le nuove tecniche Ci limiteremo quindi ad un rapido “viaggio” tra le nuove tecniche esaminando alcuni esempi di particolare significato e all’introduzione di quei caratteri fondamentali di teoria e pratica che saranno utili per comprendere il funzionamento e le potenzialità dei nuovi strumenti. Esamineremo, in particolare, Il Laser Scanning e la Fotomodellazione, nelle sua varie coniugazioni 2D e 3D. … attraverso lo specchio Il disegno, storicamente, ha un limite: deve comprimere la tridimensionalità del mondo fisico entro la bidimensionalità di un foglio per restituirla destrutturata, eventualmente, secondo proiezioni canoniche. Allo stesso modo deve scomporre ogni continuità di visione in sequenze di immagini statiche. Oggi possiamo contare sulle modellazioni tridimensionali con procedure informatiche di oggetti di vario ordine di complessità. Allo stesso modo è possibile, “animare” immagini fino a simulare processi di visione che esplorano e “vedono” l’oggetto. È di conseguenza possibile simulare i risultati della visione naturale, aggiungendo a questa, però, il controllo completo dello spazio virtuale generato: il monitor diventa uno spazio-pagina virtuale infinito. La realtà virtuale I sensori sono capaci di leggere il reale, ma non lo interpretano. In che modo quindi le nuove tecnologie della visualizzazione possono intervenire sui processi di indagine sul territorio? Riprendiamo qui le osservazioni fatte nella precedente unità didattica in merito alla costruzione del modello: Philippe Quéau, basandosi sulla distinzione che Platone fa ne La Repubblica delle forme d'arte (l'arte che si serve delle cose, l'arte che le fabbrica, l'arte che le imita) definisce la realtà virtuale, “l’arte che fabbrica delle imitazioni di cui ci si può servire”. Simulazioni, quindi, e rappresentazioni “concrete” di modelli astratti, immagini che permettono di ‘agire sul reale’ mediante rappresentazioni ‘efficaci’ della realtà stessa, adatte ad interfacciarsi con tutto ciò che si presta ad una modellizzazione formale. Lo spazio viene dunque smontato, misurato, controllato fino ai dettagli per essere poi rimontato, secondo un processo logico che permetta di associare ad ogni entità geometrica, una classe di appartenenza, un sistema di relazioni, un riferimento che lo renda richiamabile immediatamente all’interno dell’archivio che man mano si compone. Il Laser Scanning La tecnica del laser scanning rappresenta un nuovo ed efficiente metodo per la digitalizzazione e la modellizzazione di oggetti e di porzioni di territorio aventi qualsiasi forma e dimensione. La digitalizzazione avviene in modo discreto attraverso la misurazione della posizione (e di altri dati) di un elevato numero di punti. La tecnica del laser scanning si basa sul metodo di misurazione delle distanze per mezzo di onde elettromagnetiche, anche noto con il nome LIDAR (light detection and ranging). Fondamenti tecnici Questa tecnica di misura nasce nel 1933 grazie al sovietico Balaicov che brevettò il primo distanziometro ad onde ed il connazionale Lebedev che ne costruì il primo prototipo nel 1938. A partire dagli anni '70 furono messi in commercio, a prezzi accessibili anche alla piccola utenza, i primi distanziometri ad onde. Questa introduzione ha decretato la fine del rilievo delle distanze con metodi tradizionali a vantaggio di un metodo di misura avente precisione maggiore ed una più rapida esecuzione delle misure stesse. La possibilità di misurare distanze con estrema facilità ha portato come logica conseguenza ad una rivoluzione dei metodi di rilevamento e di calcolo consentendo agli operatori di svincolarsi dai vecchi schemi di rilievo a favore di nuovi sistemi. Il Laser Dal punto di vista applicativo il laser è un'apparecchiatura che trasforma energia da una forma primaria (elettrica, ottica, chimica, termica o nucleare) in un fascio monocromatico e coerente di radiazioni elettromagnetiche di intensità elevata: la luce laser. La scoperta fondamentale che ha permesso l'emissione della luce laser è dovuta ad A.Einstein nel 1917. Quest'ultimo ipotizzò, infatti, che l'emissione di un raggio di luce ad alta energia da un atomo può essere stimolata da un raggio di luce di una certa frequenza incidente a lui stesso. Da questo fenomeno è derivato il laser. Il termine "L.A.S.E.R." è, infatti, acronimo di: “Light Amplification by Stimulated Emission of Radiation”. Per giungere alla realizzazione pratica dello strumento furono necessari alcuni decenni. Nel 1958 i fisici statunitensi Arthur Schawlow e Charles Hard Townes brevettarono il primo dispositivo laser, ma la paternità della scoperta venne reclamata dal loro connazionale Gordon Gould. Due anni dopo (1960) il fisico Theodore Maiman (ricercatore laboratori Huyghens-California) osservò il primo fascio laser in un cristallo di rubino e nello stesso periodo il fisico statunitense di origine iraniana Ali Javan costruì il primo dispositivo a elio-neon. Il Laser 2 Il laser quindi non è altro che una radiazione elettromagnetica, ovvero un'onda luminosa, avente particolari caratteristiche: • deve essere composta da luce di una sola frequenza (monocromaticità). • deve essere composta da un'onda che non viene irradiata in tutte le direzioni, ma si propaga a grande distanza e con estrema direzionalità (coerenza spaziale o unidirezionalità). • deve essere costituita da onde della stessa frequenza e della stessa fase che si sommano l'una all'altra originando un treno di luce che può essere spinto ad elevata intensità e ad elevata potenza (coerenza temporale). In particolare la "potenza" della luce laser può giungere a livelli veramente incredibili. Recentemente al Lawrence Livermore Laboratory (California) è stato messo a punto un apparecchio da centoventimila miliardi di Watt. James Bond: Missione Goldfinger - 1964 Comportamento della radiazione Quando una radiazione colpisce la superficie di un corpo reale (detto anche corpo grigio), essa è in parte assorbita in parte riflessa ed in parte trasmessa. Si possono definire i seguenti coefficienti adimensionali (variabili tra 0 ed 1), che misurano le iterazioni tra energia e materia, che non sono costanti ma dipendono dalla lunghezza d’onda (λ) della luce incidente 1. Assorbività (α): è il rapporto tra l'energia assorbita da una superficie e quella incidente; 2. Riflettività (ρ): è il rapporto tra l'energia riflessa da una superficie e quella incidente; 3. Trasmissività (τ): è il rapporto tra l'energia trasmessa da una superficie e quella incidente. Rugosità delle superfici Consideriamo ora solo la parte di energia riflessa (ρ) dalla superficie. Come noto, se un fascio luminoso incide una superficie liscia di acciaio si forma un raggio riflesso ben definito, mentre se arriva su di un foglio di carta la luce viene riflessa più o meno in tutte le direzioni (riflessione diffusa). La differenza tra riflessione diffusa e speculare trova la sua ragione nel concetto di ruvidità (o rugosità) delle superfici. il concetto di rugosità di una superficie è funzione della lunghezza d'onda incidente la superficie stessa. le superfici perfettamente lisce riflettono in modo speculare, quelle perfettamente rugose si comportano come riflettori lambertiani, ovvero la direzione di riflessione è indipendente da quella di incidenza. Normalmente le superfici reali non si comportano né da superficie perfettamente speculare né da superficie perfettamente lambertiana ma si comportano in modo intermedio. I distanziometri I distanziometri ad onde possono essere classificati in due grandi categorie: Strumenti che prevedono la misura dei tempi trascorsi tra due impulsi o tra due treni d'onda (distanziometri ad impulsi) e Strumenti che prevedono la misura dello sfasamento tra l'onda emessa e quella ricevuta (distanziometri a misura di fase). La precisione ottenibile con uno strumento a tempo di volo che utilizza un laser di classe 1 è al massimo di 4 ÷ 6 mm a circa 100 m, valore che decresce in modo non significativo all'aumentare della distanza. La distanza massima misurabile oggi è di circa 800 ÷ 2000 m nel caso dei distanziometri ad impulsi. I distanziometri laser sono sempre più precisi ed affidabili e possono misurare la posizione di punti ad elevata velocità. L’abbinamento alla meccanica di alta precisione e alla motorizzazione delle total station ha reso possibile la realizzazione dei cosiddetti sensori laser scanner. Lo strumento materializza una direzione mentre il distanziometro acquisisce una distanza lungo la direzione stessa. Il risultato di ogni acquisizione è un insieme di punti sparsi nello spazio in modo più o meno regolare che comunemente viene chiamata “nuvola di punti”. La Scansione Il sistema di riferimento per ogni singola scansione è di norma fissato in maniera arbitraria. Il collegamento tra le varie scansioni è eseguito per mezzo di opportuni target riflettenti (adesivi retroriflettenti, prismi topografici, sfere di materiale riflettente) posizionati in maniera tale da essere compresi all’interno del campo operativo di scansioni adiacenti (almeno tre coppie di target omologhi tra 2 scansioni). L’insieme dei punti che si ottiene è però riferito ad un sistema di riferimento arbitrario, relativo per esempio ad una delle scansioni mosaicate. Nel caso in cui sia necessario riportare i punti rilevati in uno specifico sistema di riferimento (es. un riferimento locale utilizzato per altre tecniche di rilevamento) è sufficiente determinare la posizione dei target, tramite la classica strumentazione topografica, e ricalcolare i parametri di rototraslazione delle scansioni Come funziona … I laser scanner distanziometrici possono facilmente essere paragonati alle stazioni totali topografiche. La misura della posizione tridimensionale del punto avviene infatti in coordinate sferiche. Per ogni punto acquisito sono misurati un angolo orizzontale (azimutale), un angolo verticale (zenitale) ed una distanza inclinata. Per questo motivo spesso i sistemi a scansione laser terrestri sono considerati quali stazioni totali ad elevata automazione. Rispetto a queste sono però ovviamente carenti della parte ottica di collimazione. La Nuvola di punti Esiste quindi una sostanziale differenza tra i rilevamenti topografici con stazione totale e le acquisizioni laser scanner. Nel rilievo topografico classico si misurano le coordinate di punti notevoli appartenenti all'oggetto, che devono essere ben riconoscibili all'occhio e che definiscono in genere la forma dell'oggetto stesso, come ad esempio spigoli, fessure, ... Nel caso di un rilevamento laser scanner invece non vi è alcuna possibilità di scegliere i punti da rilevare. È possibile in genere definire solo l'area che si vuole acquisire e la densità di punti desiderata. Definiti questi parametri l'acquisizione è completamente automatica. Il risultato del rilevamento è una nuvola di punti molto densa ma con gli stessi distribuiti in modo casuale sull'oggetto. Scanner a Triangolazione I laser scanner triangolatori sono strumenti che, per la misurazione della posizione di punti, utilizzano il principio dell'intersezione in avanti. Si tratta di strumenti di forma allungata o a tubo dotati di un diodo emettitore e di un diodo ricettore posizionati agli estremi dello strumento stesso. Il segmento che unisce i due diodi è chiamato comunemente base e la sua dimensione non può in genere superare alcuni limiti pratici di maneggevolezza (circa 1 m). Ne consegue ovviamente un limite nella portata dello strumento. Per la determinazione della posizione del punto acquisito sono misurati una distanza e due angoli (l'angolo che si forma tra il raggio emesso e la base dello strumento e l'angolo che si forma tra il raggio riflesso e la base). Tale geometria di acquisizione consente di ottenere precisioni molto elevate (sub-millimetriche) portate limitate (dell'ordine di qualche metro) e tempi di acquisizione mediamente elevati. Introduzione Vediamo qui alcuni scanner a triangolazione Minolta … Introduzione Vediamo qui, invece, un impiego congiunto di due apparati per realizzare contestualmente la scansione da più punti di vista, con autocorrelazione automatica delle nuvole di punti. Introduzione Esistono poi alcuni scanner per applicazioni speciali in grado di garantire precisioni micrometriche: vediamo ad esempio il LASER RADAR LR200, della Leica in grado di garantire una precisione di 12 micron fino a 5 metri anche se, in questa modalità, acquisisce “solo” due punti al secondo, o questo speciale allestimento Cyrax utilizzato per il rilievo del David che ha richiesto oltre 1000 ore uomo di attività e oltre 4000 ore di post elaborazione. Vediamo però i risultati: a sinistra la foto, a destra il modello. Gli Scanner a rilievo di profilo Vediamo infine un’altra categoria di laser scanner che funzionano a rilievo di profilo. La maggior parte dei profilometri 3D sono basati sulla triangolazione ottica: un raggio luminoso viene proiettato su di un bersaglio e la sua l'immagine viene rilevata da un dispositivo ad immagine formante un determinato angolo con la sorgente. Il principio di funzionamento di uno scanner laser di questo tipo è rappresentato nella figura che segue: una lama di luce, emessa dal laser, intersecando l'oggetto in esame, genera un profilo che viene acquisito mediante una telecamera a CCD. Dall'acquisizione di numerosi profili paralleli, ottenuti facendo una scansione dell'oggetto, si ricava l'informazione necessaria per la realizzazione del modello tridimensionale. La posizione spaziale dei punti campionati nel profilo di luce è ottenuta per triangolazione dalla conoscenza dei parametri geometrici di misura (posizioni relative di laser, telecamera a CCD e punto oggetto). Gli Scanner a rilievo di profilo David … Un sistema molto interessante è quello che segue: si chiama “DAVID” ed è un laser scanner a tutti gli effetti, molto efficiente e con un rapporto costo/prestazioni veramente incredibile. È basato su un software, una videocamera amatoriale, un laser manuale a luce visibile, un “poligono” di calibrazione. Il tutto per 399,00 euro !! Si incomincia col posizionare la quinta di inquadramento perfettamente ad angolo retto e si passa poi alla calibrazione della videocamera che deve essere posizionata su un piedistallo in modo da garantire una posizione nota per l’intera operazione. http://www.david-laserscanner.com/ David 2 Si posiziona poi l’oggetto da rilevare nello spazio definito dalla quinta di calibrazione e, definite le migliori condizioni di illuminazione, si comincia a passare avanti e indietro il raggio del puntatore laser. I profili che si generano saranno captati dalla videocamera che comincerà a ricostruire l’oggetto per profili successivi, generando alla fine una nuvola di punti misurati. Gli Scanner a rilievo di profilo L’oggetto può ovviamente essere spostato nel campo di presa, senza variare la calibrazione della videocamera, per ottenere scansioni multiple, che possono essere unite via software individuando con precisione sufficiente punti comuni. Il modello finale potrà poi essere trattato normalmente con le classiche tecniche di shading, texturing, ecc. Gli Scanner a rilievo di profilo Vediamo infine alcuni esempi di modelli realizzati con “David” … ALTM - I Laser Scanner aviotrasportati L’ALTM (Airbone Laser Terrain Mapper) è impiegato da qualche tempo per rilievi aerei, integrando sistemi GPS e inerziali per la determinazione della posizione e dell’assetto del velivolo. In zone particolarmente accidentate gli strumenti sono montati anche su elicotteri consentendo una maggiore flessibilità operativa. Il sistema è costituito da un laser operante nell’infrarosso vicino (λ=1064 nm) che invia impulsi laser ad una frequenza di 33 kHz. Gli impulsi laser vengono diretti verso uno specchio oscillante che riflette gli stessi in senso ortogonale alla direzione di avanzamento dell’aeromobile dove l’intero sistema è alloggiato. La scansione del terreno deriva dalla combinazione dei due movimenti, quello di oscillazione dello specchio e quello di avanzamento dell’aeromobile. Il raggio laser una volta colpito il suolo viene riflesso e parte dell’energia incidente sul terreno ritorna verso lo specchio che convoglia il segnale luminoso ad un sistema di rilevamento che determina il tempo di ritorno e l'intensità dell’impulso. Dal tempo impiegato dalla luce a percorrere il tragitto relativo al punto di emissione – riflessione – ricezione si determina la distanza fra lo specchio ed punto di riflessione al suolo. Laser Scanner aviotrasportati 2 L’intero sistema è montato rigidamente sull’aeromobile la cui posizione viene determinata mediante GPS (Global Position System). Il calcolo della traiettoria del sistema avviene mediante misure GPS differenziali cinematiche utilizzando almeno una stazione fissa posizionata su di un punto noto entro 25 km dall’area del rilievo. I ricevitori GPS utilizzati sono di tipo geodetico e permettono la misura su ambedue le bande L1 ed L2. L’elaborazione non avviene in tempo reale e viene effettuata mediante elaborazione cinematica con una frequenza di campionamento di 1 Hz. Una volta ricostruita la traiettoria (vettore di stato) mediante il GPS si dispone di un punto noto all’incirca ogni 35 metri (considerando una velocità media dell’aeromobile di 75 kts). A questo punto i dati di posizione vengono integrati con quelli inerziali che sono acquisiti ad una frequenza di 200 Hz. Alla traiettoria GPS vengono pertanto associati i dati di orientamento del sistema ed accelerometrici ottenuti dall’unità di misura inerziale (IMU), costituita da un terna di giroscopi al laser che consentono una precisione di 0.02 gradi in rollio e beccheggio e 0.04 gradi in imbardata/direzione. In questo modo la traiettoria viene risolta ogni 50 millisecondi (pressappoco ogni 0.17 m). Integrando tutti questi dati con quelli di posizione istantanea dello specchio si determina la posizione nello spazio dei punti che hanno riflesso il raggio laser e che saranno riferiti al sistema geodetico in cui opera il GPS ovvero il WGS84. La correttezza della misura effettuata dall’IMU determina quindi in larga parte il livello di precisione del rilievo. Laser Scanner aviotrasportati 3 Disporre di dettagliati modelli digitali del terreno di porzioni del territorio regionale permette analisi di grande accuratezza e simulazioni e scenari di evento. Analisi di scansioni multitemporali permettono di monitorare in maniera areale grandi porzioni di territorio anche in zone impervie e di difficile raggiungimento da parte degli operatori. Le caratteristiche del laser scan, che ne fanno lo strumento d'elezione per questi compiti, sono precisione e rapidità, dove con rapidità bisogna intendere globalmente: capacità di operare anche con condizioni meteorologiche non ottimali ed elevato grado di automazione della fase di calcolo; Laser Scanner aviotrasportati 4 I principali vantaggi riscontrati da tale metodologia di rilievo sono : • indipendenza delle condizioni di luce: l’indipendenza dalle zone d’ombra è un fattore molto importante specialmente in zone montane • possibilità di registrare l’ultimo impulso: permette di creare un modello digitale del terreno privo della copertura vegetale, essenziale per l’identificazione delle morfologie molto spesso mascherate dalla vegetazione • rapidità: è necessaria solo qualche ora per la scansione di un territorio piuttosto vasto • creazione precisa delle carte delle pendenze (e non interpolata come per le curve di livello) • capacità di rilievo di particolari che difficilmente potrebbero essere osservati direttamente sul terreno • evidenze di relazioni spaziali non percepibili in campagna • possibilità di ottenere ottimi rilievi anche senza punti di appoggio. Sistemi “Attivi” e “Passivi” I sistemi fin qui descritti sono detti “sistemi attivi” poiché impiegano energia prodotta in proprio per “illuminare” l’oggetto del rilevamento. Passiamo ora ai cosiddetti “sistemi passivi”, quelle applicazioni cioè in cui le tecniche di rilevamento e rappresentazione si avvalgono dell’energia prodotta (riflessa) dagli oggetti stessi: ci stiamo riferendo essenzialmente alle tecniche di fotogrammetria. Fotogrammetria: alcune definizioni FOTOGRAMMETRIA Tecnica di rilevamento che consente di ottenere informazioni metriche (forma e posizione) di oggetti tridimensionali mediante interpretazione e misura di immagini fotografiche (tradizionali o digitali) È la scienza che consente di ottenere informazioni affidabili di oggetti fisici e dell’ambiente circostante mediante processi di registrazione, misura e interpretazione delle immagini fotografiche e digitali formate dall’energia elettromagnetica radiante e da altri fenomeni fisici. [Manual of Photogrammetry, ASPRS, 1980] La fotogrammetria comprende un insieme di tecniche che, partendo dalle fotografie di un oggetto, consentono di definirne la forma (qualunque sia la dimensione) e di collocarlo nello spazio. [J.P S. Aubin, 1999] RDF Geometrico L’argomento è vastissimo, con implicazioni interdisciplinari molto articolate che non sarà possibile approfondire in questa sede per evidenti limiti di tempo. Ci limiteremo ad una breve introduzione sui principi generali della proiettività e della fotogrammetria generale, per poi concentrarci su quattro principali applicativi che rappresentano lo “stato dell’arte” in quattro direzioni fondamentali: Il Raddrizzamento semplice delle immagini: RDF La Modellazione Architettonica: Autodesk ImageModeler Il “Video scanning”: EOS System PhotoModeler Scanner La modellazione “globale”: Google SketchUp Il “Raddrizzamento” Un primo livello di approccio è dato dal raddrizzamento semplice delle immagini. Per raddrizzamento intendiamo qui la deformazione, ossia la rettifica, dell’immagine originale secondo un modello proiettivo. Operazione che è possibile eseguire disponendo di una sola immagine e che consiste nel determinare la posizione dei punti dell'oggetto appartenenti ad un piano di particolare rilevanza per l'oggetto stesso a partire dalla posizione delle loro immagini sul piano della fotografia. Assumendo che l'immagine fotografica sia affetta soltanto da deformazioni prospettiche, la trasformazione fra le coordinate sui due piani è detta trasformazione omografica. La trasformazione dipende da 8 parametri che possono essere stimati conoscendo la posizione di 4 punti sia sull'immagine, sia sul piano dell'oggetto. La fotografia come proiezione centrale La fotografia, dal punto di vista proiettivo è una proiezione centrale nella quale gli oggetti cambiano forma e dimensione in funzione della loro distanza dal centro di presa. Dal punto di vista analitico, stabilito il sistema di riferimento, le relazioni tra fotogramma e oggetto dipendono da 9 parametri che descrivono la posizione della lastra nello spazio (orientamento esterno) e le caratteristiche geometriche della camera (orientamento interno). Nel particolare caso in cui l’oggetto da rilevare sia un piano i parametri si riducono a otto: il motivo sta nel fatto che esistono delle relazioni fra i nove parametri originari. Avendo a disposizione quattro punti (di controllo) di cui siano note le coordinate immagine e oggetto si possono determinare gli otto coefficienti e successivamente calcolare qualsiasi punto oggetto a partire dai punti immagine. Qualora i punti di controllo siano più di quattro, i parametri sono stimati con il metodo dei minimi quadrati ed è possibile valutare l’incertezza dei risultati ottenuti. Il Raddrizzamento geometrico In casi particolari è possibile sfruttare per la determinazione degli otto parametri, le geometrie degli oggetti rappresentati. Si considerano le linee parallele nella realtà per determinare i punti di fuga della prospettiva fotografica e alcune dimensioni lineari nelle due direzioni indipendenti (X e Y) per la messa in scala dell'immagine. Si può ipotizzare che l'origine degli assi del sistema di riferimento immagine (coordinate lastra o coordinate pixel) si trasformi nell'origine del sistema di coordinate oggetto. In questo modo l'asse delle ascisse e delle ordinate vengono individuate dalle rette uscenti dall'origine e passanti per i rispettivi punti di fuga. RDF 1 In Piattaforma (Biblioteca/Materiali di supporto) è presente un programma utilizzabile per il raddrizzamento speditivo delle immagini: RDF (Raddrizzamento Digitale Fotogrammetrico. Il programma applica entrambi i metodi operativi, quello geometrico e quello analitico. Vediamo inizialmente, in modo molto schematico, il funzionamento e poi vedremo alcuni esempi. … per saperne di più: http://circe.iuav.it/labfot/software/soft_rdf.html RDF Analitico Il programma si apre con la videata di scelta del metodo da impiegare: clicchiamo su “Analitico”. Le operazioni da eseguire, i passi essenziali per completare il raddrizzamento analitico sono: 1. aprire l’immagine da raddrizzare 2. aprire la tabella con le coordinate oggetto 3. costruire la tabella coordinate immagine 4. creare la tabella immagine/oggetto con le corrispondenti unione 5. selezionare l’area di raddrizzamento 6. definire la risoluzione dell’immagine 7. raddrizzare l’immagine coordinate RDF Analitica Per una esemplificazione rapida, utilizzeremo un’immagine “sintetica”, la prospettiva di un cubo composto di cubetti più piccoli così che sia possibile definire la forma e le coordinate “reali” dell’oggetto in modo semplice, intuitivo e diretto. A questo fine possiamo immaginare un sistema di assi cartesiani solidale col cubo con origine nel vertice in basso a sinistra. Allo stesso modo possiamo concepire un sistema “locale” di “coordinate immagine”, con l’origine nell’angolo in alto a sinistra della stessa. Se le unità oggetto saranno espresse, ad esempio, in metri, quelle immagine saranno in pixel. Xpixel + (0,0) (0,10) Y + (10,10) (7,7) + (4,3) + Ypixel (0,0) + X + (10,0) Le Immagini raster Un’immagine digitale è costituita da una matrice bidimensionale composta da righe e colonne. Tale rappresentazione, definita raster, si ottiene suddividendo l’immagine fotografica in elementi di dimensioni finite, definiti pixel (picture element), ed associando ad ognuno di essi un numero che ne rappresenta la radiometria o altre informazioni. Ogni pixel è individuato univocamente da due numeri interi che rappresentano la posizione in riga e colonna all’interno della matrice; per convenzione nelle immagini digitali l’origine del sistema righe/colonne è posto nell’angolo in alto a sinistra: si noterà infatti che le coordinate y (i) sono crescenti verso il basso. RDF Analitica Analogamente potremo definire, rispetto all’oggetto, delle linee che dovranno diventare orizzontali (in rosso) e verticali (in blu). Queste saranno impiegate nel raddrizzamento geometrico Il caricamento dell’immagine Iniziamo ora la sequenza col caricamento dell’immagine da raddrizzare. Contestualmente apriamo il “Navigatore” che consentirà di spostarsi sull’immagine stessa nella finestra principale. Il risultato sarà il seguente: La creazione delle tabelle Costruiamo ora le tabelle delle coordinate immagine e delle coordinate oggetto. Per le coordinate immagine si apre l’apposita tabella e si inizia la collimazione dei punti. Ricordarsi di confermare la collimazione dopo averla eseguita in modo da consentirne la memorizzazione. Il programma visualizzerà i punti collimati numerandoli automaticamente in modo incrementale: le coordinate della tabella, come detto, sono espresse in pixel. Si passerà poi all’implementazione della tabella delle coordinate oggetto degli stessi punti. IMPORTANTE: Ovviamente i punti devono, per quanto possibile, appartenere ad un piano ed il sistema di riferimento a cui si riferiscono le loro coordinate deve essere tale che le x siano crescenti verso destra e le y siano crescenti verso l’alto. Il calcolo dei parametri A questo punto il programma costruisce una tabella “unione” associando le coordinate dei punti omologhi. Da questa si passa direttamente al calcolo dei parametri di trasformazione, visualizzati in un’altra apposita tabella. Grazie all’utilizzo di una quantità ridondante di punti di controllo è possibile una compensazione ai “minimi quadrati” e quindi un controllo generale della qualità metrica dell’operazione di raddrizzamento. In particolare è interessante esaminare le prime due colonne (x e y), dove vengono riportate le coordinate “finali” dei punti a valle dell’operazione di compensazione: le differenze rispetto a quelle teoriche sono dell’ordine dell’uno per mille (e.g. un centimetro su dieci metri) L’area di ricampionamento Si passa poi al raddrizzamento vero e proprio. La prima operazione è quella di individuare sull’immagine la porzione da raddrizzare, la cosiddetta “area di ricampionamento”: lo faremo individuando un quadrilatero che circonda l’area dell’immagine interessata all’operazione. Sarà infine definita la risoluzione (e quindi la dimensione) dell’immagine finale raddrizzata: ciò potrà essere fatto o indicando direttamente la risoluzione (DPI) o la dimensione in metri di un singolo pixel. Il Raddrizzamento Infine, con il comando “RDF” si avvia il raddrizzamento. È possibile visualizzare un’anteprima. L’immagine raddrizzata si aprirà nella finestra principale del programma e potrà essere salvata in formato .BMP. … nella realtà Ovviamente la stessa tecnica viene di norma impiegata per il raddrizzamento di immagini reali. In questo caso le coordinate dei punti di controllo possono essere determinate o tramite operazioni topografiche (rilievo strumentale) ovvero tramite la digitalizzazione di rilievi “storici” con programmi CAD. Modelli e rendering Il programma contiene anche un piccolo editor grafico con cui è possibile “disegnare” sulle foto ed esportare i risultati in formato .DXF. Naturalmente, tuttavia, l’uso tipico di queste immagini rettificate è l’importazione in ambienti grafici di vario genere (da AutoCad a 3D Studio) per realizzare modelli fotorealistici. Il montaggio dei raddrizzamenti … e di generare anche soluzioni di grande efficacia per la rappresentazione di monumenti molto complessi mediante la tecnica del montaggio dei raddrizzamenti. Il Fotomosaico Il cosiddetto “fotomosaico” si ottiene con il montaggio successivo di vari raddrizzamenti: per ottenere un buon risultato occorre non solo che le varie foto siano geometricamente corrette, ma anche che i colori e l’illuminazione siano per quanto possibile omogenei. Integrazione con gli ambienti CAD Il risultato finale può poi essere importato in ambiente CAD per la realizzazione di dettagliate restituzioni vettoriali Modellazione integrata … che, combinate al rilievo topografico tridimensionale, possono consentire la generazione di modelli 3D di grande dettaglio e di grande impatto. La Fotomodellazione Un’ulteriore “frontiera” del rilievo moderno è data dal mondo della cosiddetta “Fotomodellazione”. Ancora oggi non c’è una definizione esaustiva del termine, anche se evidentemente le origini del sistema, come vedremo meglio in seguito, sono riscontrabili nell’evoluzione della fotogrammetria digitale e della computer vision. La fotomodellazione genera un ambiente di lavoro che permette la restituzione tridimensionale di edifici basandosi sull'integrazione globale e coerente delle fasi di rilievo, modellazione e rappresentazione. È infatti possibile estrarre direttamente dalle fotografie tutte le informazioni necessarie: coordinate, distanze, punti caratteristici per la restituzione bidimensionale di piante e prospetti; vertici e profili per la ricostruzione tridimensionale degli elementi; texture per arricchire visivamente i volumi creati. Si tratta quindi della possibilità, a partire da semplici fotografie, di arrivare a elaborare rappresentazioni tridimensionali realistiche nelle quali le texture, non sono solo un semplice escamotage per la simulazione dell'apparenza visiva delle superfici, costituiscono un archivio di informazioni relative allo stato di conservazione dei materiali. La fotografia Bisogna innanzi tutto iniziare col capire quali siano i principi geometrici che ci permettono di misurare, di modellare e di restituire in tre dimensioni un oggetto reale a partire da fotografie. Tutto si spiega at traverso una relazione proiettiva: una fotografia è la proiezione centrale di una scena (spazio in tre dimensioni) su di un piano (spazio in due dimensioni). Abbiamo già visto come, nei casi in cui l'oggetto del rilievo si possa considerare sufficientemente approssimato da un unico definito piano, si possono utilizzare modelli semplificati di restituzione, come i fotopiani. Per approfondire gli argomenti … Fotomodellazione Quello che segue è lo schema proiettivo di una normale fotocamera. Ne abbiano già enunciato le analogie con la proiettività della prospettiva (UD 1.06). La Distanza Focale (o distanza principale), Il Punto Principale e la sua posizione nel piano immagine, il Diagramma delle Distorsioni proprie del sistema obiettivo usato rappresentano i tre parametri del cosiddetto Orientamento Interno. Fotomodellazione Alla base di ogni procedura di orientamento sta la condizione di collinearità. Le condizioni (o equazioni) di collinearità rappresentano le relazioni fra le coordinate (ξ, η) del punto immagine P’, le coordinate (X, Y, Z) del corrispondente punto oggetto P e le coordinate ( Z0 , Y0 , X0 ) del punto di presa O. La condizione che esse esprimono è che, in condizioni ideali, al momento dello scatto (presa) punto oggetto, centro di presa e punto immagine risultano allineati lungo una retta. Se si ricostruisce il sistema proiettivo sarà possibile considerare la retta in questione come base per la restituzione della posizione del punto nello spazio. Fotomodellazione Ma tutti i punti che giacciono sulla retta che passa per il punto O (centro di prospettiva) e per i diversi punti “A”, in questo caso, hanno come immagine sul fotogramma il punto A’. La determinazione univoca spaziale del punto tridimensionale non può quindi essere realizzata da una sola immagine, ma si ottiene dall’intersezione spaziale di raggi omologhi, cioè riferiti allo stesso punto oggetto, provenienti da differenti fotogrammi. Fotomodellazione La posizione del punto sarà quindi data dall’intersezione spaziale delle rette omologhe proiettanti. Affinché ciò possa accadere in modo generalizzato occorre determinare la posizione reciproca delle due immagini al momento della presa, ciò che viene definito l’Orientamento Relativo delle immagini stesse. È evidente che il ragionamento vale anche per un numero di immagini maggiore di 2. Fotomodellazione Trascurando qui, per brevità, i passaggi formali della disciplina, ne risulta che il Sistema sarà quindi caratterizzato da una serie di incognite: due parametri di orientamento interno (focale e diagramma delle distorsioni) e sei parametri di orientamento relativo (tre traslazioni e tre rotazioni). Per risolvere il sistema e valorizzare le incognite sarà necessario operare una serie di misure sulle immagini, cioè rilevare le “coordinate immagine” di almeno 8 punti omologhi sulle varie foto. Vedremo fra poco come. La fotomodellazione Applicare la fotomodellazione alla ricostruzione 3D dell’architettura obbliga l‘operatore a uno sforzo di interpretazione che coincide necessariamente con la comprensione delle forme architettoniche che la generano. Questo corrisponde a una prassi in perfetta continuità logica con la storia della rappresentazione architettonica e che non limita il rilevamento architettonico al semplice controllo di macchine e procedimenti tecnici “per prendere punti”. La fotomodellazione Lo schema operativo dell’intero processo può essere riassunto come segue: La fotomodellazione Nella prima fase si acquisiscono i punti, nella seconda si determinano le geometrie e nella terza si passa alla “vestizione del modello” con qualità fotorealistica, o con qualsiasi tecnica opportuna di rappresentazione. La fotomodellazione Vediamo, molto schematicamente, quali sono le principali fasi operative esaminando un esempio classico: la modellazione di un edificio a partire dalle tre foto che vediamo di seguito. Vedremo come l’intero procedimento potrà completarsi praticamente senza alcuna informazione “metrica” sull’oggetto. La fotomodellazione Il Programma che stiamo esaminando è ImageModeler (Autodesk) Esaminiamo, inizialmente, l’ambiente operativo: La fotomodellazione Passiamo poi alle varie fasi, cominciando, ovviamente, col caricare le foto: è sufficiente selezionarle e cliccare “apri”. In questa fase possono essere anche specificati ulteriori parametri addizionali sulle fotocamere, se conosciuti. La fotomodellazione Il risultato sarà quello che segue, ma sarà possibile visualizzare anche le varie foto contemporaneamente, attivando anche una finestra destinata a visualizzare il modello 3D. Notate anche come, mano a mano che si procede, si rendano disponibili anche le ulteriori toolbar. La fotomodellazione A questo punto si procederà con la calibrazione per fasci proiettivi (bundle adjustment) dell’intero sistema, ricercando punti omologhi (almeno 8) sui vari fotogrammi. Si attiverà quindi la collimazione dei punti, che sarà favorita da uno zoom automatico contestuale. Una volta collimato lo stesso punto sulle tre foto il vertice (locator) sarà memorizzato e numerato progressivamente in modo automatico. La fotomodellazione Non è importante che i punti facciano materialmente parte del’oggetto da restituire, ma si deve aver cura di posizionarli per quanto possibile ai bordi dell’area interessata e su piani diversi di profondità. La fotomodellazione Raggiunto il numero di 8 punti, sufficienti per generare le equazioni di osservazione che consentono di risolvere le 8 incognite del sistema, il programma visualizzerà un messaggio di avvenuta calibrazione e nella “scene browser area” un codice di colore comunicherà la qualità dei residui sui vari punti, derivante, come sempre, da una compensazione ai minimi quadrati. Verde, giallo e rosso qualificheranno i residui secondo tre successivi livelli di qualità. La fotomodellazione A questo punto il sistema è calibrato ed è possbile aggiungere ulteriori locator (che si riveleranno molto utili, come vedremo) sia con lo scopo di migliorare la calibrazione, sia come semplice ausilio per la successiva modellazione. In questa fase il sistema guiderà l’operatore mostrando, ad ogni successiva collimazione, le “rette omologhe” proiettate sulle altre immagini, ossia le direzioni lungo le quali i punti si dovrebbero trovare per verificare l’intersezione delle rette stesse. La fotomodellazione Sarà poi possibile rafforzare la calibrazione aggiungendo “condizioni” geometriche”, come ad esempio angoli retti, o punti che definiscono un piano, e definire un sistema arbitrario cartesiano di orientamento e una scala del modello tramite una misura di riferimento. La fotomodellazione Il modello, a questo punto può essere misurato direttamente, aggiungendo altri marker (locator) in posizione opportuna che non entreranno più nel meccanismo della calibrazione. Sarà possibile misurare sia distanze che angoli. La fotomodellazione Passiamo ora alla fase più interessante, quella della modellazione tridimensionale e della estrazione delle texture. Una volta definiti i marker in modo opportuno, questo possono essere utilizzati per inserire nel modello direttamente delle primitive grafiche tridimensionali: facce, cubi, cilindri, sfere, dischi. Selezioniamo il cubo … La fotomodellazione Utilizzando opportunamente i marker, posizioniamo il solido dimensionandolo correttamente. La forma si trova ora nello spazio virtuale dell’oggetto, generato dall’intersezione spaziale delle varie immagini. La fotomodellazione Possiamo quindi passare direttamente, come detto, all’estrazione delle texture. Selezioniamo innanzi tutto il cubo appena realizzato. Il programma selezionerà automaticamente l’immagine nella quale ogni faccia dell’oggetto 3D costruito compare al meglio, ne estrarrà la corrispondente porzione per proiettarla sulla faccia stessa “raddrizzandola” La fotomodellazione Il risultato finale sarà qualcosa di simile a questo … e sarà possibile selezionare la modalità di visualizzazione del modello “vestito”, le texture estratte, o gli oggetti 3D inseriti nello “spazio foto”. Ovviamente sarà anche possibile esportare le immagini raddrizzate per ulteriori utilizzi, o editarle direttamente all’interno del programma, ad esempio per eliminare ombre, disturbi, o altro. La fotomodellazione Ripetendo le operazioni descritte in modo opportuno si può proseguire al completamento del modello 3D, raggiungendo risultati molto interessanti. Ricordiamo che, in questo caso, non è stato prodotto “solo” un modello fotorealistico, ma si tratta di una restituzione tridimensionale completa, misurabile e verificabile nei suoi parametri di precisione. La fotomodellazione Quello che abbiamo visto era solo un primissimo approccio al programma, che ha potenzialità molto superiori. La modellazione, ad esempio, può essere spinta a livello di grande dettaglio e raggiungere effetti veramente straordinari di realismo. La fotomodellazione Innanzi tutto è possibile intervenire sulle primitive tridimensionali e modificarne la forma, e la giacitura in modo ad poterle adattare alla realtà tridimensionale del monumento. La fotomodellazione È anche possibile operare più avanzate forme di editing, “tagliando” facce, estrudendo porzioni o arrotondando gli spigoli, e così via, o lavorando con una modellazione per profili. La fotomodellazione Vediamo di seguito alcuni esempi di realizzazioni e progetti in corso … Loggia del Romanino. Fabio Remondino Chateau Foro dediTarascon. Pompei. Tudor Fabio Driscu Remondino La fotomodellazione È di piena evidenza che la realizzazione di progetti complessi implica un’attenta valutazione delle risorse necessarie e un accurato progetto di prese per assicurarsi che ogni particolare dell’oggetto sia perfettamente visibile su almeno due fotogrammi La fotomodellazione Vediamo qui, con immagini tratte sempre dal libro di Livio del Luca, altri esempi di progetto di prese. La fotomodellazione con nuvole di punti La fotomodellazione a nuvola di punti (Photo-based scanning) ha le sue origini in due diversi settori disciplinari: la fotogrammetria, ed in particolare la creazione di modelli digitali del terreno su base fotogrammetrica e, d’altro canto, la stereocomparazione (autocorrelazione) nella computer vision. Negli anni ‘70 queste ricerche furono portate avanti soprattutto da Marr e Poggio, con gli studi sulla visione stereoscopica umana, che pensarono di applicare alla teoria della visione computerizzata. I primi algoritmi di autocorrelazione furono applicati in fotogrammetria a partire dal sistema WILD AC1 per approdare alle prime versioni di ELCOVISIO 10, impiegato inizialmente per controlli dimensionali industriali. Pian piano, a partire dagli anni ’90, queste tecniche cominciarono a diffondersi grazie alla diffusione degli scanner e alla conseguente apertura alla fotogrammetria digitale e furono impiegati, appunto, per la generazione semiautomatica dei Modelli Digitali del Terreno. Da qualche anno sono disponibili software commerciali in grado di produrre risultati eccellenti a costi molto contenuti ( < 3000 $). EOS System Photomodeler Scanner I programmi di fotomodellazione più evoluti sono in grado quindi di compiere un ulteriore passo in avanti e calcolare automaticamente la posizione spaziale di tutti i pixel delle coppie di fotogrammi che riproducono la superficie del medesimo oggetto, generando delle nuvole di punti tridimensionali analoghe a quelle dei laser scanner (dense surface modeling). La superficie di interesse deve essere ripresa con una coppia di fotografie sovrapponibili, ottenute posizionando la camera approssimativamente alla stessa distanza dall'oggetto e con lo stesso orientamento. La fotomodellazione con nuvole di punti Il software mette a confronto le coppie di fotogrammi scomponendoli in una griglia di piccoli riquadri; per ciascun riquadro di una delle due immagini va alla ricerca di quello che nell’altra immagine presenta le maggiori analogie. I riquadri omologhi vengono quindi automaticamente associati e registrati. Tenendo conto della geometria interna della camera e della sua posizione nello spazio — che può essere determinata dal sw stesso, come detto sopra, fornendogli determinati parametri — il programma riesce di conseguenza a orientare i singoli riquadri; affinando la sua analisi trova quindi le coordinate di tutti i punti visibili che definiscono la superficie dell’oggetto, corrispondenti ai pixel delle fotografie, proiettandoli nello spazio 3d (nuvola di punti). La fotomodellazione con nuvole di punti Anche il processo di “calibrazione” delle fotocamere può essere in qualche modo automatizzato se si impiegano particolari marker nelle prese. La nuvola di punti può essere convertita in una mesh a triangoli (TIN) che viene poi rivestita con texture fotografiche. Il risultato finale è pertanto identico a quello di un rilievo effettuato con il laser scanner. Il programma di fotomodellazione dispone di un set di strumenti che consentono di editare la nuvola di punti e la mesh esattamente con le stesse procedure: chiusura di buchi, pulizia dei punti fuori posto, ecc. Il modello tridimensionale può essere eventualmente esportato in un CAD dove sarà oggetto di ulteriori elaborazioni. La fotomodellazione con nuvole di punti Rispetto al laserscanner questa tecnica riesce a garantire in certe condizioni il medesimo livello di precisione e presenta il vantaggio di comportare costi enormemente inferiori, grazie anche alla sua maggiore versatilità. Il risparmio è soprattutto sull’hardware che è costituito esclusivamente dalla macchina fotografica. Le applicazioni poi sono praticamente illimitate e vanno da quelle “forensi” all’ingegneria, dalla medicina alla conservazione dei monumenti, ecc. La fotomodellazione con nuvole di punti Se l’immagine è nitida, se le angolazioni delle coppie di fotogrammi sono corrette e se i parametri della geometria interna della camera sono noti al programma, si possono ottenere rilievi con una precisione inferiore ad un pixel, valore che può corrispondere a meno di un cm reale nel caso delle riprese di un edificio. L’accuratezza del rilievo può essere in ogni modo facilmente verificata misurando all’interno del modello 3d le distanze fra alcuni punti ben riconoscibili e di cui si conoscono le distanze reali. La duttilità del sistema consente inoltre di adattare il procedimento di costruzione 3d alle differenze morfologiche che si riscontrano tra le varie parti dell’oggetto di interesse; i volumi più schematici potranno essere restituiti per mezzo di una fotomodellazione su base geometrica, mentre le parti più complesse saranno ricavate dalle nuvole di punti. I due tipi di modelli possono essere gestiti dallo stesso programma e associati in un unico file La fotomodellazione “globale” Per concludere questo percorso nella fotomodellazione vediamo un programma molto particolare: Google SketchUp, arrivato oggi alla verisione 8. La fotomodellazione “globale” Innanzi tutto SketchUp è un programma per il disegno tridimensionale e il texturing avanzato di modelli. Il WEB è pieno di tutorial sull’uso di SketchUp: non ci soffermeremo quindi sui fondamenti operativi, anche perché il disegno in questo ambiente è veramente intuitivo. Vorrei invece soffermarmi un po’ su una delle potenzialità maggiori di SU, cioè la modellazione tridimensionale bidirezionale dalle foto. Iniziamo col richiamare i fondamenti della prospettiva, convergenza delle linee parallele, conservazione della verticalità, ecc. La fotomodellazione “globale” Partiamo dalla modellazione 3D dalle foto. Anche in questo caso usiamo, in partenza, un’immagine “sintetica” e importiamola utilizzando l’opzione “Use as New Matched Photo). La fotomodellazione “globale” Una volta importata l’immagine, il programma materializza una griglia e delle linee verdi e rosse che possono essere trascinate fino a materializzare gli allineamenti orizzontali nel mondo reale. Naturalmente è possibile zoomare per aumentare l’accuratezza dell’operazione. La fotomodellazione “globale” A questo punto è fondamentale posizionare anche l’origine degli assi della foto (linea blu): è sufficiente trascinarla in corrispondenza di un punto notevole dell’edificio da costruire, rispetto al quale si possa definire la verticalità. La fotomodellazione “globale” La finestra di dialogo consente di definire molti parametri operativi, come la trasparenza della foto e del modello in costruzione e il passo della griglia di riferimento. La fotomodellazione “globale” A questo punto è possibile cominciare a costruire l’oggetto nello spazio prospettico tridimensionale della foto, utilizzando tutti i tools di disegno di SU. È importante partire sempre dall’origine, in modo da evitare possibili errori sulla giacitura dei piani, ovvero utilizzando gli “snap” da punti già inseriti. La fotomodellazione “globale” Se si parte a costruire facce o linee da punti generici c’è il rischio di inserire elementi che, da un particolare punto di vista, sembrano corretti, ma che in realtà sono completamente sbagliati. Si può verificare agevolmente la congruenza geometrica del modello utilizzando il tasto “Orbita”: La fotomodellazione “globale” È invece possibile, come detto, utilizzare i tasti di snap e partire da punti noti già inseriti, magari forzando l’ortogonalità delle linee rispetto agli assi fondamentali del sistema. La fotomodellazione “globale” Vediamo ora alcuni consigli pratici per scattare le foto, che vanno per altro bene in qualsiasi situazione anche per gli altri programmi. 1. Evitare, per quanto possibile, ostacoli o oggetti interposti 2. Non utilizzare immagini ritagliate: occorre prestare particolare attenzione, in questo caso, se si usano immagini prese da libri o riviste 3. Utilizzate, per quanto possibile, linee dell’oggetto per definire orizzontali e verticali. Spesso l’appoggio a terra può trarre in inganno. La fotomodellazione “globale” Vediamo ora un caso pratico: partiamo con l’importazione della foto e cominciamo a definirne i parametri prospettici allenando le orizzontali e le verticali. La fotomodellazione “globale” Una volta completato l’orientamento della foto e il calcolo dei parametri di deformazione geometrica possiamo cominciare direttamente a modellare, ad esempio costruendo un “muro” La fotomodellazione “globale” Da questo muro, con il comando “estrusione”, possiamo realizzare l’intero volume del primo blocco, ovviamente accettando le approssimazioni di questa fase. La fotomodellazione “globale” Possiamo poi continuare a costruire la scena attraverso la modellazione di volumi semplici, sempre verificando la corretta giacitura di quanto realizzato. La fotomodellazione “globale” È poi possibile importare altre foto, da diversi punti di vista. Per poterle utilizzare occorre ripetere l’operazione di orientamento e ruotare il modello in modo che la visualizzazione sia simile a quella della foto La fotomodellazione “globale” Alla fine occorre posizionare l’origine nella medesima posizione della foto precedente, sullo stesso angolo dell’edificio La fotomodellazione “globale” Riattivando la visualizzazione del modello sarà possibile verificare il corretto posizionamento e la messa in scala del modello stesso rispetto alla nuova foto. Occorre ricordare che non sarà mai possibile arrivare ad un “esatta” sovrapposizione fra modello e foto, ma lavorando correttamente i risultati che si possono ottenere sono veramente notevoli La fotomodellazione “globale” Vediamo qui una prima “approssimazione” del modello finale, realizzabile in poco tempo. Come sempre possiamo definire i livelli di trasparenza degli oggetti presenti nell’area di lavoro La fotomodellazione “globale” Siamo giunti in dirittura di arrivo. A questo punto è possibile proiettare direttamente le foto sul modello, applicando un texturing fotorealistico di notevole qualità. La fotomodellazione “globale” Continuando con le altre foto e selezionando di volta in volta le facce appropriate possiamo arrivare a completare il modello. La fotomodellazione “globale” Abbiamo già visto alcuni dei modelli realizzati con SketchUp, La Basilica di San Pietro, il Colosseo, … in rete sono reperibili centinaia di modelli che possono essere importati e utilizzati da SU. La fotomodellazione “globale” Ma un ulteriore, ancora più interessante, livello di approfondimento riguarda il carattere “globale” della modellazione interattiva. SketchUp, infatti, è intefacciato direttamente con Google Earth ed è possibile realizzare un’attività di modellazione bidirezionale ricavando informazioni fotografiche per la modellazione e inserendo i modelli realizzati direttamente in Google Earth. La fotomodellazione “globale” Il sistema consente di individuare un edificio e mette a disposizione le varie foto scattate per ottenere le viste prospettiche, come un catalogo, o persino inserite tridimensionalmente nell’ambiente di lavoro. La fotomodellazione “globale” In questo modo la modellazione può avvenire direttamente “on line” e la disponibilità dei modelli 3D a livello mondiale sta costantemente sviluppandosi. La fotomodellazione “globale” Abbiamo già avuto modo di vedere, nell’UD precedente, alcune “istantanee” di Venezia … La fotomodellazione “globale” … e vediamo ora New York … La fotomodellazione “globale” … Il Cairo … Conclusioni Si conclude qui questa sesta Unità Didattica, e con essa il Corso di rappresentazione che ci ha portato dal Disegno dal vero a mano libera alla modellazione tridimensionale globale di Google … Vorrei terminare da dove abbiamo cominciato, con le parole di Gaspare de Fiore, che invece ci ha lasciato da poco, e a cui vorrei dedicare questo corso … "...Disegnerai con la mano quello che vedi, che senti e che pensi...". … non si disegna soltanto quello che si vede con gli occhi della fronte ma anche quello che si vede con gli occhi della mente, e insieme si disegna anche quello che si pensa e che si sente. Insomma, … non si disegna soltanto con la mano, ma anche contemporaneamente con la mente e con il cuore, … il disegno nasce dal sentimento e dalla ragione”. (Gaspare De Fiore)