Untitled - Politecnico di Torino

annuncio pubblicitario
Fabrizio Valpreda
VIRTUAL DESIGN
possibilità progettuali e comunicative del digitale
“quaderni di design”
Time&Mind Press
Torino, 2004
ISBN 88-901128-3-2
I recenti anni di sviluppo di tutto ciò che, digitale, si
esprime con una sequenza di zero e uno, hanno
visto proliferare strumenti software sempre più
sofisticati che spesso travalicano le capacità
dell'utente finale ponendolo in una condizione di
inferiorità espressiva.
Il distacco tra strumento e utente è paradossale
poichè il miglioramento dei software dovrebbe
portare nella direzione opposta; purtroppo accade
sempre più spesso che funzioni nuove non sono
untilizzate ma al contrario costituicono una
complicazione in più per chi, in ultima analisi, deve
imparare a progettare o, più semplicemente,
“consegnare il lavoro in tempo”.
Si vuole in questa occasione presentare alcune
considerazioni, sulla base di esperienze didattiche e
professionali, che vorrebbero spezzare una lancia
in favore di un minimalismo strumentale opposto al
pachidermico incalzare di software complessi,
pesanti, costosi, e, per questo, spesso
sottoutilizzati, se non lesivi dell'efficienza.
Efficienza che non deve essere considerata solo in
termini monetari ma prima di tutto in termini di
rapidità di esecuzione di compiti basilari come quelli
del disegno 3D e della visualizzazione del progetto:
il designer deve poter dominare tutte le fasi del
progetto fin dalle prime fasi del lavoro e combattere
con i software non aiuta a porsi nella giusta ottica
progettuale.
In questo senso è importante definire una cultura
del progetto virtuale in cui si chiarisca fin da subito
l'importanza fondamentale del cosa in
contrapposizione al come.
La figura del virtual designer: richiesta e offerta
sul piano formativo del Corso di Laurea in Virtual
Design del Politecnico di Torino
Il corso di laurea in Graphic and Virtual Design nasce dalle ceneri
della vecchia scuola di Tecniche e Arti della Stampa: questa, da
diploma, è stata trasformata in un corso di laurea.
Riteniamo fondamentale in questo corso che l’approfondimento
delle tematiche della grafica e della virtualità sia svolto fornendo agli
studenti una base culturale che serve da fondazione alla
preparazione complessiva: questa caratteristica è da noi fortemente
voluta per dare la possibilità ai ragazzi di produrre progetti che
posseggano un valore aggiunto rispetto all’esistente e che abbiano
una continuità di valore nel tempo.
Nella virtualità si verifica troppo frequentemente
un uso
indiscriminato delle tecnologie informatiche sacrificando con troppa
facilità il contenuto del progetto a favore delle tecniche di
rappresentazione: si manifesta quindi un marcato scollamento dalla
formazione culturale che costituisce invece il vero motore del
progetto. In questo senso noi cerchiamo di dare da una parte una
grossa formazione culturale e parallelamente una preparazione
tecnica specifica mirata alla definizione del progetto.
Un’altra delle caratteristiche del corso è il numero chiuso: si è
deciso di accettare un numero ridotto di studenti, solo ottanta, per
concentrare le risorse didattiche sulla preparazione professionale di
alto livello. Riteniamo di avere delle grandi responsabilità
nell’insegnamento e il nostro obiettivo risulta quindi essere la
creazione di professionalità che siano spendibili nel mercato del
lavoro.
All’interno del Laboratorio Modelli Virtuali del Cisda mi occupo di
insegnamento delle tecniche di rappresentazione del progetto di
architettura e di design con l'uso di strumenti informatici. In questa
ottica negli ultimi anni ci siamo resi conto che uno dei problemi più
importanti e più pressanti da risolvere non è tanto l'insegnamento
dello strumento informatico quanto la relazione tra l’oggetto da
rappresentare e la sua rappresentazione: infatti quello che si è
perso nel tempo è la percezione della realtà fisica che ci circonda a
favore della simulazione che un computer può farne. Il problema è
legato al fatto che mentre da un lato lo studente si presenta molto
flessibile nell'apprendimento delle tecniche, trova molte difficoltà nel
momento in cui, appresi gli strumenti di modellazione, di
illuminazione e di texturing, deve applicarli alla soluzione di un
problema reale quindi alla rappresentazione di un progetto vero e
proprio o di un oggetto esistente. Ciò che abbiamo quindi cercato di
fare è tentare di smontare il problema suddividendolo nelle sue parti
principali. Ci siamo quindi chiesto cosa poter fare quando dobbiamo
insegnare a dei ragazzi che sono molto veloci ad apprendere l'uso
dei programmi ma hanno delle difficoltà nella relazione tra reale e
virtuale.
Il primo obiettivo è chiarire da subito l’identità dello strumento
informatico per estrapolare da esso le caratteristiche fondamentali e
le differenze tra i diversi tools a disposizione; ancora più importante,
anche se solo apparentemente superfluo, risulta essere la necessità
di chiarire la finalità degli strumenti: sono semplicemente programmi
che servono a rappresentare la realtà, non a riprodurla.
L’operazione di “dissassemblaggio” della realtà conduce a quelli che
sono i tre ingredienti principali della nostra “torta digitale”, ovvero la
scena tridimensionale: il modello, la luce ed i materiali.
Questi tre elementi vengono spesso trascurati o, al contrario,
addirittura troppo elaborati dallo studente che, trovandosi a
disposizione innumerevoli funzionalità nei software, arricchisce il
modello tridimensionale di dettagli che il risultato finale non
evidenzierà oppure trascura elementi fondamentali come lo studio
delle ombre e delle penombre che la luce indiretta genera in una
qualsiasi scena.
Senza entrare nel merito delle diverse tipologie di rappresentazione
fotorealistica o non fotorealistica, quello che vogliamo cercare di
capire è quali sono i problemi legati a questo binomio reale-virtuale.
Il primo è quindi un problema di modellazione.
fig.1
oggetti in shading con caratteristiche di modellazione a diversi livelli
di dettaglio
Osservando fig.1 a partire dal lato sinistro si osserva una primitiva
tridimensionale di tipo cilindro costruita secondo le sue
caratteristiche teoriche cioè l'estrusione di un cerchio lungo l'asse
perpendicolare al cerchio stesso con un'altezza e un diametro dati.
Questo tipo di oggetto teorico in realtà non esiste per cui nel
momento in cui si modella una forma di questo genere si devono
introdurre quelle deformazioni che la natura dell’oggetto provoca,
procedendo quindi ad approssimazioni successive: in questa fase
nascono i primi problemi poichè gli studenti si trovano spesso nella
possibilità e nel desiderio di sfruttare computer e programmi molto
potenti e vengono invogliati ad addensare le informazioni.
In fig.2 si può osservare un esempio di ottimizzazione dei parametri
di illuminazione e texturing in cui la scena iniziale è stata ridotta
come numero di poligoni e la luce indiretta è stata calcolata con una
tecnica mista di luci aggiuntive e Global Illumination portando i tempi
di calcolo ad un decimo rispetto alle impostazioni iniziali senza
ridurre in modo percettibile la qualità dell’immagine.
fig.2
interno con illuminazione di tipo misto scanline/raytrace e G.I.
L'obiettivo principale che ci poniamo durante le lezioni è quindi
quello di far sempre ragionare gli studenti in merito allo scopo da
raggiungere: insegnare loro un uso ottimizzato delle tecniche che
consenta di ottenere esattamente i risultati voluti concentrandosi fin
da subito su di essi e non sui software utilizzati per ottenerli. Allora
nella riproduzione del cilindro di cui sopra si può passare ad un
accenno di spigoli nelle due facce superiori e poi a un leggera
flessione ad esempio allo scopo di riprodurre una parte di tronco di
legno (fig.3).
Il problema successivo in ordine di importanza è quello della luce
che in realtà risulta essere uno dei più complessi e anche quello che
riesce a fare la differenza.
fig.3
il modello con texturing a diversi livelli di dettaglio
Si preferisce, nel percorso didattico, dare priorità alla luce e al suo
comportamento nella realtà poiché il propagarsi della radiazione
luminosa nell’ambiente che ci circonda fornisce, molto più del
colore, la tridimensionalità agli oggetti.
Penombre, colore della luce, profondità di penetrazione negli spazi
chiusi sono caratteristiche che possono dare ad un ambiente
totalmente bianco quel carattere che spesso manca in immagini
ricche di texture e materiali sofisticati.
Analogamente alla luce si deve affrontare il tema dei materiali: la
loro preparazione va guidata con un percorso conoscitivo del
progetto in cui colore, riflessioni diffuse e speculari, rugosità e
imperfezioni vengono calibrate allo specifico scopo di ottenere il
risultato voluto, senza lasciarsi influenzare dalle possibilità tecniche
offerte dai software; quando queste costituiscono, come spesso
accade, un vincolo stringente, si deve operare allo scopo di
trasformare i limiti del programma in vantaggi operativi.
Le immagini seguenti sono un esempio del lavoro svolto secondo i
criteri esposti.
La luce e gli strumenti per la sua simulazione
L’illuminazione di interni
Un progettista che utilizza il computer per simulare, verificare e
presentare i propri progetti con le tecnologie attuali non può
prescindere da un legge mai scritta che recita più o meno così: “il
perfetto strumento informatico di simulazione della luce non esiste”
Questa affermazione, per essere l’incipit di un articolo che intende
analizzare le attuali metodologie di simulazione del comportamento
della luce, può suonare pessimistica, ma in realtà conduce al
nocciolo del problema della visualizzazione tridimensionale digitale
di una scena simulata con software commerciali. Una qualsiasi
simulazione virtuale di un progetto architettonico non può essere
effettuata con una sola tecnica, perché nessuna tecnica da sola è in
grado, ad oggi, di restituire risultati “assoluti”. Questo significa che
di volta in volta si utilizzerà la più opportuna tecnica di simulazione
del comportamento della luce.
Di seguito saranno analizzate le potenzialità delle tecniche di
rendering attualmente disponibili nei software commerciali
comunemente utilizzati dagli architetti per la visualizzazione, la
verifica e la presentazione dei progetti. Si tratta di programmi di alto
livello qualitativo che offrono in genere un completo set di strumenti
per le più diffuse necessità progettuali.
Gli algoritmi base di simulazione
Nel corso degli ultimi anni si sono consolidati fondamentalmente tre
algoritmi che consentono di simulare in 3D il progetto
architettonico/illuminotecnico: Radiosity, Global Illumination (G.I.) e
Scanline/Raytracing.
Senza entrare troppo nel dettaglio dei suddetti algoritmi proviamo a
dare una loro descrizione di massima per capire soprattutto quali
siano i vantaggi e gli svantaggi di ciascuno di essi.
Primo per nascita e diffusione, il metodo Scanline/Raytracing
calcola il solo apporto di luce diretta, senza nessuna possibilità di
prevedere il viaggio della radiazione visibile, una volta che questa
abbia colpito gli oggetti e non considera quindi le riflessioni
secondarie.
Con questo metodo, velocissimo nel calcolo, è necessario ipotizzare
il comportamento della luce e introdurre nella scena sorgenti virtuali
aggiuntive che simulino la diffusione indiretta da un oggetto all’altro.
La Global Illumination (G.I.) è un metodo di calcolo il cui sviluppo
deriva dall’algoritmo Raytracing. Viene utilizzato per le sue
caratteristiche di estrema flessibilità ed efficienza: il suo
funzionamento, concettualmente semplice prevede l’emissione di
raggi di luce (chiamati photons per ricordare i fotoni propri della
radiazione luminosa) dalle sorgenti presenti in scena. A partire da
alcuni punti, (definibili numericamente dall’utente) delle superfici
illuminate direttamente, viene emessa una serie di raggi secondari
(anche questi definibili dall’utente) che colpiscono gli oggetti
circostanti in un processo iterativo la cui fine è imposta dall’utente. Il
tutto viene calcolato per l’immagine statica allo scopo di risparmiare
sui tempi di calcolo: in pratica i raggi che, rimbalzando colpiscono
oggetti nascosti al punto di vista scelto per l’immagine, vengono
trascurati. Nel caso in cui sia necessario realizzare un’immagine da
un diverso punto di vista sarà possibile utilizzare la mappa di raggi
(photon map) già calcolata incrementandola solo con i nuovi raggi
necessari.
Il metodo Radiosity calcola la luce indiretta attraverso la
suddivisione delle superfici in mesh, a densità variabile,
caratterizzate da poligoni più piccoli in prossimità delle zone di
contatto tra diverse superfici.
L’algoritmo di tipo Radiosity viene utilizzato soprattutto nei casi in cui
risulti necessaria una verifica scientifica del reale bilancio energetico
all’interno di un ambiente. É infatti possibile “interrogare” i risultati
del rendering per conoscere le condizioni di illuminazione degli
oggetti a seguito della radiazione diretta ed indiretta (riflessioni
secondarie) avendo come risposta dal software valori
numericamente corretti. I valori calcolati sono ottenuti a partire dai
dati teorici di riferimento della ripartizione spaziale dell’intensità
luminosa degli apparecchi di comune produzione e/o
dell’illuminazione naturale dovuta al sole ed alla diffusione dovuta
all’atmosfera terrestre, nei diversi giorni dell’anno.
Con la suddetta tecnica è possibile utilizzare, attraverso opportuni
formati (come, ad esempio il formato IES), i files di descrizione degli
apparecchi illuminanti, simulando in questo modo le diverse
condizioni di illuminazione con l’utilizzo di diversi tipi di sorgenti
artificiali.
Non ultima risulta essere estremamente interessante la possibilità di
navigare in tempo reale la scena 3D grazie al fatto che la soluzione
radiosity viene salvata nel file del modello 3D e può essere
ricaricata automaticamente alla sua riapertura, senza necessità di
ricalcolare il rendering, poiché il bilancio energetico della radiazione
luminosa è indipendente dal punto di vista.
Il metodo Scanline/Raytracing, nonostante risulti apparentemente
inutile agli scopi specifici della verifica illuminotecnica del progetto
architettonico, (dove, in genere, la maggior parte dell’illuminazione
dipende dalla componente indiretta), viene ancora massicciamente
utilizzato grazie alla eccellente velocità di calcolo ed alla grande
flessibilità data dal fatto che la luce può essere “pilotata”. Per questo
viene specialmente utilizzato per immagini che hanno uno scopo
comunicativo e non per verifiche illuminotecniche: vedremo tuttavia
come, nonostante i suddetti limiti, questo metodo riservi, se
correttamente utilizzato, delle gradite “sorprese”.
Pregi e difetti
A questo punto la domanda che può sorgere nel lettore è: “ma
allora quale tecnica devo utilizzare per la visualizzazione del mio
progetto?”
La risposta è, come spesso accade nel mondo dell’informatica,
dipende.
Dipende prima di tutto dallo scopo che si vuole raggiungere: la
simulazione illuminotecnica oppure la verifica dei materiali e delle
finiture superficiali oppure ancora la semplice presentazione del
progetto.
Dipende dal budget a disposizione: tecniche più sofisticate
richiedono in genere tempi di calcolo molto più onerosi e hardware
più potente.
Dipende, almeno per gli studi di progettazione più piccoli, dalle
conoscenze già acquisite sui vari software e dalla possibilità di
allargare il know-how a nuove tecniche, magari non sempre
utilizzabili, quindi non meritevoli di investimento.
Tuttavia, indipendentemente dagli obiettivi da raggiungere, dal
denaro a disposizione e dal numero di persone nel gruppo di lavoro,
se è vero che nessuna delle tecniche descritte è perfetta, come
facciamo a sfruttare al meglio ciascuna di esse e come è possibile
verificare le differenti prerogative nelle diverse condizioni di utilizzo?
E ancora, è possibile utilizzare un metodo misto che tragga da
ciascuna delle tecniche suddette solo il meglio che è in grado di
fornire?
Certamente le risposte sono positive: anche nei campi di
applicazione più estremi, come ad esempio gli effetti speciali
cinematografici, le tecniche miste sono quelle che da sempre
consentono di ottenere i migliori risultati.
Ciò che faremo ora è sperimentare quanto detto su un esempio
pratico: cercheremo di riprodurre le stesse condizioni di
illuminazione naturale e artificiale con le tre tecniche descritte e
confronteremo i risultati dal punto di vista qualitativo e dei tempi di
rendering (ovviamente a parità di macchina di calcolo).
Illuminazione naturale
fig.4
Scena di prova, versione shaded
La scena di prova (fig.4) è un classico esempio in cui l’apporto della
luce indiretta è fondamentale, costituendo così una palestra di prova
ardua e inflessibile per un software di rendering: una stanza
illuminata da una finestra che lascia entrare la luce solare che incide
sul pavimento. All’interno della stanza sono disposti alcuni tipici
oggetti che consentono di vedere il comportamento della
simulazione nelle zone di penombra e nelle parti più critiche, ossia
le aree di contatto tra diverse geometrie.
Alcuni oggetti in scena (la parete a sinistra in mattoni a vista ed il
pavimento in doghe di legno) sono costituiti da materiali con
caratteristiche superficiali diverse cha danno origine a rugosità e
riflessioni. Gli altri oggetti sono privi di particolari caratteristiche
superficiali e sono dotati di semplici colori uniformi. Bisogna tenere
presente che i software commerciali attualmente disponibili
considerano tutti gli oggetti uniformemente diffondenti; le specularità
sono trattate a livello visivo. Il comportamento energetico in
riflessione di uno specchio (ad es. la riflessione di un fascio
luminoso) può essere simulato con la tecnica del calcolo delle
cosiddette caustiche, della quale non tratteremo nella presente
analisi.
fig.5
Scena di prova, simulazione calcolata con algoritmo
scanline/raytracing
Il metodo scanline/raytracing (fig.5) fornisce risultati variabili a
seconda della capacità dell’operatore di utilizzare le fonti luminose
del software a disposizione: essendo il metodo suddetto privo della
possibilità di calcolo della luce indiretta risulta infatti necessario dare
luce dove questa non può essere calcolata automaticamente.
fig.5a
Scena di prova, disposizione delle sorgenti virtuali aggiuntive per
l’algoritmo scanline/raytracing per la simulazione della componente
diffusa
In fig.5a si può vedere la disposizione di sorgenti aggiuntive che
nella realtà della scena di esempio non esistono; tali sorgenti,
opportunamente configurate consentono di simulare rapidamente la
luce diffusa. Tale configurabilità è il trucco che consente
all’operatore di simulare la luce diffusa, altrimenti non calcolabile in
automatico dal metodo utilizzato.
Il metodo scanline/raytracing risulta quindi essere estremamente
efficiente (15min:38sec) nonostante sia ovviamente necessaria una
grande esperienza da parte dell’utente per ovviare alle mancanze
del software: una configurazione non corretta delle sorgenti
aggiuntive restituisce un’immagine qualitativamente inaccettabile.
Con la G.I. si può ottenere il calcolo della luce diffusa ma soprattutto
si riescono a simulare automaticamente tutti i tipi di materiali
immaginabili: dalla rifrazione alla diffrazione, dalla traslucenza alla
riflessione sfocata, fino al displacement mapping per le rugosità
superficiali complesse.
Fig.6
Scena di prova, simulazione calcolata con algoritmo GI
In fig.6 si può osservare l’estrema qualità ottenibile con il calcolo G.I
(3h:07min:25sec):
il
metodo
infatti,
come
anticipato
precedentemente, calcola la luce diffusa solo per le parti della
scena che si vedono dal punto di vista prescelto. Per renderizzare
altri punti di vista si devono incrementare le informazioni della
photon map con un calcolo aggiuntivo delle componenti trascurate.
L’algoritmo radiosity, fisicamente corretto, genera un illuminazione
estremamente verosimile e diffusa correttamente nella scena;
mostra tuttavia il fianco nella qualità dei materiali: rifrazioni,
traslucenza e soprattutto rugosità superficiale, caratteristiche tutte
ottenibili con i materiali a disposizione dei più diffusi software di
rendering, si perdono o vengono pesantemente semplificate (fig.7).
fig.7
Scena di prova, simulazione calcolata con algoritmo radiosity
Osservando l'aspetto delle pareti in mattoni ed intonaco si deduce
che l'effetto di rugosità viene simulato con grande qualità solo con i
metodi scanline/raytracing e G.I. La qualità dei metalli e delle
riflessioni sfocate (mensola libreria a sinistra e piede del tavolino al
centro) è ottima solo nel calcolo G.I. mentre negli altri presenta
artefatti e macchie non verosimili.
L’unica possibilità per ovviare al problema è salvare la soluzione
radiosity e ricalcolare l’immagine con un metodo raytracing che
supporti le caratteristiche di cui sopra.
I tempi di calcolo per l’immagine di fig.4 non sono elevati
(1h:20min:45sec) e comunque compensati dal fatto che, definito
l’impianto luci, il calcolo viene effettuato una sola volta per qualsiasi
punto di vista da cui si decida di “fotografare” il modello.
Illuminazione artificiale
Interessante a questo punto è verificare i concetti esposti finora in
una situazione di simulazione di luce artificiale. La stessa scena
utilizzata per il caso dell’illuminazione naturale è anche banco di
prova per l’illuminazione artificiale. Valgono quindi le stesse
considerazioni sulle caratteristiche dei materiali presenti in scena
già esposte.
Per simulare l’illuminazione artificiale, è’ stato inserito un corpo
illuminante (plafoniera da ufficio con due tubi fluorescenti) a centro
volta e annullato completamente il contributo della radiazione
naturale (scena notturna). Nuovamente è stata calcolata la
simulazione con i tre metodi esposti finora.
Le osservazioni fatte precedentemente risultano essere tutte
confermate, si nota però che le differenze tra i vari metodi di calcolo
si accentuano.
Osservando le figg. 8, 9 e 10 si nota che gli algoritmi
scanline/raytracing (fig.8) e G.I. (fig.9) accentuano il contrasto tra
zone illuminate e zone in ombra, dando così agli oggetti una
maggiore tridimensionalità. Nuovamente è stato necessario
aggiungere delle sorgenti virtuali per simulare la componente diffusa
nel caso dell’algoritmo scanline/raytracing.
Con il metodo radiosity (fig.10) le penombre sono molto penalizzate
e l'immagine risulta decisamente più piatta; si osservi, ad esempio,
anche in questo caso la resa del muro in mattoni a vista e le pareti
intonacate. Questo metodo tuttavia consente una simulazione più
corretta dell'illuminazione complessiva della scena poiché è l’unico
che tiene conto della reale ripartizione spaziale dell’intensità
luminosa dell’apparecchio in scena (curve fotometriche). Negli altri
casi (scanline/raytracing e G.I.) è l’utente a definire la ripartizione
della radiazione luminosa della sorgente, imponendo un cono di
apertura del fascio luminoso. L’algoritmo radiosity tiene inoltre conto
dell’effettiva composizione spettrale della radiazione luminosa e
della sua influenza sulla resa dei colori delle superfici presenti nella
scena. Nel caso della G.I. questo calcolo viene effettuato in modo
analogo ma senza alcun riferimento alla composizione spettrale
della radiazione luminosa.
fig.8
Scena di prova, simulazione calcolata con algoritmo
scanline/raytracing, illuminazione artificiale
fig.9
Scena di prova, simulazione calcolata con algoritmo GI,
illuminazione artificiale
fig.10
Scena di prova, simulazione calcolata con algoritmo radiosity,
illuminazione artificiale
Tabella 1 caratteristiche delle immagini e tempi di calcolo
Immagine
Algoritmo di
calcolo
Risoluzione[3 Tempo di calcolo
00 dpi]
fig.2
Scanline/
Raytracing
2300x1725
pixel
15min:38sec
fig.3
G.I
2300x1725
pixel
3h:07min:25sec
fig.4
Radiosity
2300x1725
pixel
1h:20min:45sec
fig.5
Scanline/
Raytracing
2300x1725
pixel
13min:26sec
fig.6
G.I
2300x1725
pixel
1h:31min:17sec
fig.7
Radiosity
2300x1725
pixel
45min:56sec
fig.A
Scanline +G.I.
3000x2000
pixel
4h:21min:33sec
Conclusioni
Introducendo le varie tecniche di calcolo ci siamo chiesti quali
fossero i vantaggi e gli svantaggi presenti in ognuna di esse e se
fosse possibile utilizzare con profitto tecniche miste per trarre da
ciascuna di esse il meglio di quanto offrono in termini di qualità della
scena e tempi di calcolo. Come abbiamo visto è confermata
l’asserzione iniziale di questo articolo secondo cui la perfetta tecnica
di simulazione ancora non è disponibile nei software commerciali.
Ogni algoritmo presenta vantaggi e svantaggi, il trucco è nel riuscire
a sfruttare al meglio i vantaggi che ognuno è in grado di fornire.
L’immagine di apertura del presente articolo è una scena
sensibilmente più complessa di quella utilizzata come banco di
prova per i test. Le superfici hanno caratteristiche complesse e gli
algoritmi di calcolo sono applicati in modo tale da rendere al meglio
ogni aspetto. Per ottenere questo risultato è stata utilizzata una
tecnica mista G.I./scanline per ridurre drasticamente i tempi di
calcolo (4h:21min:33sec). La tecnica radiosity non è stata applicata
in quanto sono presenti superfici con materiali caratterizzati da
rugosità complesse: questi materiali possono essere riprodotti in
modo corretto solo con il binomio G.I./scanline. Inoltre non era
richiesta, nel caso specifico, una analisi illuminotecnica con
apparecchi a complessa ripartizione spaziale dell’intensità luminosa
e le sorgenti usate non introducono problemi sulla resa dei colori dei
materiali presenti in scena.
Il risultato è un’immagine fortemente d’effetto con una buona resa
realistica a fronte di un impegno di tempi di calcolo relativamente
modesto.
L’illuminazione di esterni
Nel presente articolo si affronta in modo analogo la situazione
dell’illuminazione di esterni.
Qual è il motivo che spinge ad analizzare questa situazione di
illuminazione separatamente dalla precedente?
La risposta sta nelle tecniche utilizzate per il calcolo
dell'illuminazione: alcune, già utilizzate negli interni, vengono
sfruttate in modo diverso negli esterni, altre sono invece
parzialmente o del tutto nuove e si utilizzano specificatamente nel
calcolo dell'illuminazione di esterni.
Da notare, come già fatto in precedenza, che la metodologia di
lavoro qui analizzata non considera i software scientifici di alto livello
in grado di fornire dati quantitativi esatti, ma costituisce un esempio
delle possibilità di rappresentazione tridimensionale, con software
commerciali, che, in fase di progettazione o per scopi di
comunicazione, i professionisti (architetti, designer, progettisti)
utilizzano frequentemente.
L’illuminazione degli esterni e le tecniche di simulazione.
Nella fig.11 si può vedere il modello utilizzato per il test: un edificio a
due piani con un contesto circostante (progetto arch. Renzo
Raimondi).
Il modello costituisce un classico esempio di scena in esterno e
verrà sottoposto, come nel caso degli interni già citato, a rendering
in condizioni di illuminazione naturale (caso diurno) e artificiale
(caso notturno).
Le tecniche per simulare l'illuminazione in esterni differiscono dal
caso degli interni poiché le condizioni ambientali al contorno in cui si
trovano ad essere gli oggetti nel caso di esterni o di interni sono
fortemente differenti, soprattutto per quanto riguarda il caso
dell’illuminazione naturale.
Infatti, mentre nel caso degli interni con luce solare si ha una
preponderanza di illuminazione indiretta e diffusa dagli oggetti
presenti in scena, nel caso di esterni si ha una preponderanza di
luce diretta proveniente dal sole e, soprattutto, proveniente dalla
diffusione del cielo.
fig.11
Modello utilizzato per il test
Ciò che quindi si deve replicare è proprio questa situazione,
schematicamente raffigurata in fig.12 in cui un gruppo di primitive
solide appoggiate su un piano viene illuminato da una sorgente a
raggi paralleli che simula il sole (A) e da una calotta semisferica che
simula la volta celeste (B).
fig.12
Schema di illuminazione per esterni
Nel caso, invece,dell’illuminazione artificiale di esterni, non è più
necessario tenere nella giusta considerazione i contributi delle interriflessioni delle superfici illuminate, come invece era di importanza
rilevante nel caso dell’illuminazione di interni. Infatti nel caso di
esterni il maggior contributo all’illuminazione proviene direttamente
dagli apparecchi di illuminazione presenti nella scena.
Gli algoritmi di simulazione utilizzati per simulare le condizioni di
illuminazione di esterni, come il caso della scena di test, sono i
seguenti:
scanline/raytracing
radiosity
global illumination
ambient occlusion
global illumination con HDRI
Le prime tre tecniche non verranno utilizzate nel calcolo della scena
di test poiché meno performanti delle ultime due che costituiscono
quindi i nuovi approcci al rendering di esterni e che rivoluzionano
metodi e tempi di lavorazione di una scena 3D.
L'Ambient Occlusion (AO) è una tecnica efficacissima che,
sfruttando il raytracing, proietta raggi da una calotta ipotetica (non
fisicamente presente in scena) allo scopo di colpire gli oggetti da
tutte le direzioni generando in questo modo penombre tanto più
realistiche quanti più sono i raggi emessi dal sistema (chiamati
samples). E’ una tecnica molto flessibile (con pochi raggi si genera
un disturbo nell'immagine ma si possono effettuare velocissime
prove di illuminazione in diverse condizioni) e potente che produce
solo luce diretta ma è facilmente integrabile, con una efficace
tecnica mista come accennato in, con altre sorgenti luminose.
La Global Illumination nel caso dell’illuminazione di esterni è
efficacemente integrata con le immagini HDRI (High Dynamic
Range Image) dell’ambiente circostante in cui il modello virtuale è
inserito, per ottenere i migliori risultati.
Le immagini HDRI sono il risultato dell'unione di diverse immagini
dello stesso soggetto, in questo caso il contesto, fotografato in
diverse condizioni di esposizione: la composizione di queste in una
sola immagine consente di salvare le informazioni di illuminazione
all'interno del file stesso.
La differenza tra un immagine tradizionale e una HDRI sta nel fatto
che nella prima il pixel assume un colore fisso compreso tra 0 e i
milioni di colori disponibili in funzione del numero di bit
dell’immagine: usualmente le immagini sono a 24 bit che
corrispondono a 16,8 106 colori, in alcuni casi si hanno immagini a
48 bit, per un totale di 2,8 1014 colori. Le immagini HDRI sono a 96
bit le informazioni contenute all’interno si ampliano in modo
esponenziale: 7,9 1028 valori per ogni singolo pixel!.
Il risultato finale di questa tecnica è dato da immagini ad alto
realismo in cui le componenti diretta, diffusa e speculare vengono
simulate con estrema semplicità con il solo utilizzo di un immagine
ambientale.
Il lato negativo risiede nei tempi di preparazione dell'immagine
panoramica , e nei tempi di calcolo del rendering finale.
Il test
Nella nostra prova applicheremo le due tecniche suddette
confronteremo tempi e risultati alla stessa scena di test di fig.11.
evidenzieranno le specifiche caratteristiche di ogni tecnica e
definiranno gli ambiti di applicazione specifici e i vantaggi
ciascuna.
e
Si
si
di
Il caso dell’illuminazione diurna
Nelle figg. 13 e 14 si possono osservare i risultati dell'applicazione
delle due tecniche ad una situazione di luce diurna.
fig.13
Illuminazione diurna con AO
fig.14
Illuminazione diurna con HDRI
I diversi tempi di calcolo (rispettivamente di 1h:15min per AO e
3h:27min per HDRI), dovuti al diverso tipo di metodo utilizzato (AO
non calcola la luce indiretta), dichiarano immediatamente il diverso
tipo di approccio alla simulazione che i due algoritmi possiedono.
Indubbiamente superiore come qualità, il metodo HDRI consente un
maggior controllo dell'illuminazione, ma diventa scarsamente pratico
in tutti quei casi (sempre molto frequenti) in cui la qualità assoluta si
deve parzialmente sacrificare in favore di tempi di produzione stretti.
L'AO si mostra quindi vincente in tutti quei casi in cui si richiede
rapidità di configurazione e calcolo: è sufficiente impostare un
corretto valore di “samples” ed ottenere in questo modo diverse
immagini di prova calcolate in poche manciate di secondi per poi
aumentare la definizione dei samples solo nelle immagini finali.
Il caso dell’illuminazione notturna
In questo caso il netto vantaggio dell'AO si esprime ancor meglio
poiché il contesto notturno in cui il modello virtuale è inserito non
produce grandi effetti sull’illuminazione artificiale dello stesso.
Quindi con la tecnica Global Illumination con immagini HDRI,
l'apporto di illuminazione dall’ambiente circostante, in particolare
dalla volta celeste, sostanzialmente buia e comunque priva di forti
contrasti, non restituisce risultati utili ed il lavoro di preparazione
dell'immagine ambientale non viene ripagato da un incremento
rilevante della qualità del risultato.
Nella preparazione di una scena notturna si deve ovviamente tenere
in considerazione l'introduzione di luci che simulano le sorgenti
artificiali presenti nella realtà.
Nella scena di test sono state utilizzate delle tradizionali sorgenti
virtuali di tipo spot e area light che opportunamente calibrate
forniscono la resa adeguata di lampioni, lampade da interni e altri
apparecchi tipici di una scena di questo tipo.
Il risultato dell'illuminazione dei due motori di resa dell'illuminazione
artificiale si può osservare nelle figg. 15 e 16 dove, rispettivamente,
AO e HDRI riportano risultati estremamente simili con tempi tuttavia
decisamente a favore di AO: 2h 43min per AO e 5h:07min per
HDRI.
Dalle prove effettuate si deduce una reale operatività dello
strumento di AO nel caso di illuminazione di esterni.
fig.15
Illuminazione notturna con Ambient Occlusion
fig.16
Illuminazione notturna con HDRI
Tabella 1 Caratteristiche delle immagini e tempi di calcolo
Immagine
Algoritmo di
calcolo
Risoluzione
[300 dpi]
Tempo di
calcolo
AO
1725 x 1078
pixel
1 h 15 min
Fig. 14
GI con HDRI
1726 x 1078
pixel
3 h 27 min
Fig. 15
AO
1725 x 1078
pixel
2 h 43 min
Fig. 16
GI con HDRI
1726 x 1078
pixel
5 h 07 min
Fig. 13
E’ importante sottolineare che solo la tecnica Radiosity consente di
considerare l’effettiva ripartizione spaziale dell’intensità luminosa
degli apparecchi presenti nella scena. Nel caso dell’illuminazione di
esterni, questa tecnica non viene utilizzata poiché praticamente non
esiste un ambiente ristretto di cui calcolare l’effettivo bilancio
energetico interno. Infatti nel caso notturno, l’apporto delle interriflessioni delle superfici presenti in scena è praticamente nullo e la
simulazione con le tecniche quivi descritte fornisce risultati
estremamente soddisfacenti.
Conclusioni
Il caso preso in esame ha evidenziato l’utilizzo di un metodo di
lavoro specifico del rendering di esterni in cui la scena è stata
ottimizzata al particolare scopo.
Vi sono tuttavia casi in cui i metodi esposti si applicano a scene di
interni riconducibili alla situazione degli esterni: il modello virtuale ha
dimensioni trascurabili rispetto all’ambiente circostante e/o alla
sorgente illuminante (caso illuminazione naturale in esterni).
Tipica è la situazione in cui un oggetto, contenuto all’interno di uno
spazio chiuso ha dimensioni relativamente piccole rispetto
all’ambiente che lo contiene: anche il caso dell’inserimento di un
oggetto virtuale appoggiato su un tavolo in una stanza reale, può
quindi essere efficacemente risolto con le tecniche esposte in
questa occasione.
Lo sfondo sarà costituito da un’immagine ambientale reale della
stanza e l’oggetto modellato virtualmente verrà illuminato, posto su
un tavolo, coerentemente con l’illuminazione dell’ambiente reale di
sfondo.
In fig. 17 si può osservare un caso tipico in cui gli oggetti sono stati
illuminati con l’utilizzo di Ambient Occlusion.
fig.8
Rendering di interni con Ambient Occlusion
Da aggiungere a questo punto un doveroso riferimento agli
strumenti utilizzati per questo test di resa.
Tutti i rendering del presente articolo sono stati realizzati con
Blender, uno strumento di modellazione, animazione e rendering
Open Source (quindi assolutamente gratuito, anche per utilizzo di
tipo commerciale) che si è dimostrato non solo affidabile ma anche
professionalmente operativo al pari di blasonati software che, oltre
ad essere estremamente costosi, risultano sempre più ridondanti e
pesanti dal punto di vista della gestione (oltre i 100 Mb di spazio
installato su disco).
Non ultimo il vantaggio di essere completo di tutte le funzioni
necessarie ad un software di questo tipo, tutte comprese in un file di
installazione di meno di 3Mbyte.
Sicurezza attiva e passiva in moto, simulazione di
dinamica ed eventi
L’aver affrontato un tema complesso come quello della sicurezza in
moto, è stato di stimolo per la progettazione vera e propria ma
soprattutto per la fase di impostazione del lavoro.
Se all’inizio del lavoro le idee, ma soprattutto i sogni, erano quelli di
riuscire a creare qualcosa di rivoluzionario, con lo svilupparsi della
ricerca, l’affinamento delle conoscenze ci ha portato a considerare
tutto il progetto in un’ottica più realistica.
Si è lavorato così in modo verosimile, totalmente estraneo agli
esercizi di stile tipici di carrozzieri e stilisti.
In testa alla lista esistevano dei problemi che, tradotti in esigenze,
hanno richiesto soluzioni.
Queste raramente passano attraverso il semplice esercizio al
tecnigrafo (o al computer) di tracciatura di forme a prescindere dalla
reale dinamica del caso.
Nel disegno industriale si deve tenere conto, molto di più che in
architettura, di tempi, costi, pesi, producibilità, diffusione sul mercato
e vendibilità.
Per questo si è prestata particolare attenzione alla semplicità e alla
possibilità di realizzazione con tecnologie già presenti sul mercato.
La soluzione adottata può valere per tutti gli scooter in commercio,
essendo questi ultimi molto simili tra loro nelle dimensioni, struttura
del telaio, distribuzione di pesi e volumi e soprattutto perché tutti
dotati di scudo anteriore.
Le poche ricerche fino ad ora condotte nel campo della “moto
sicura”, sono sempre state un riuso dei concetti propri della ricerca
automobilistica, e pertanto non specifiche. Come già puntualizzato,
la moto, non è l’auto, sotto nessun aspetto, e come tale va trattata a
parte, tenendo conto delle esigenze specifiche. I risultati ottenuti nel
campo automobilistico possono essere utili, ma non devono essere
il punto di partenza, né quello di arrivo, ma solo strumento di
ricerca.
La moto è un veicolo il cui mercato esiste grazie alla passione di chi
la usa.
E’ un mezzo di trasporto più disagevole dell’auto, ma nelle città dal
traffico sempre al limite del collasso per ingorghi e problemi di
parcheggio, è un mezzo di locomozione che vive ora una nuova
giovinezza. Sono in tanti ormai a pensare che i vantaggi siano
superiori ai disagi intrinseci delle due ruote, e che forse sia meglio
preoccuparsi di casco, guanti, una maglia in più, piuttosto che
passare la giornata prima fermi in coda, poi lottando, senza
esclusione di colpi, alla ricerca dell’ambito parcheggio.
Se questo non bastasse ancora, pensiamo all’ambiente: le auto in
genere, mediamente con una capienza di cinque posti, vengono
utilizzate dal solo conducente, occupano 5 volte lo spazio di uno
scooter, ed inquinano da 30 a 40 volte di più.
Dare un’immagine di maggior sicurezza a un mezzo di trasporto
simbolo del rischio per antonomasia, porterebbe forse ad evitare
che tanti diventino forzatamente utenti di un mezzo delle cui
dimensioni non necessitano effettivamente se non per l’idea che
“grosso è più sicuro”, rendendo meno congestionato il traffico in
città. Perché quello che interessa a tutti non è forse il raggiungere la
meta senza sforzo, velocemente, senza avere problemi di posteggio
e soprattutto in modo efficiente?
Ma qui siamo di nuovo sconfinati nei sogni dell’inizio... il progetto
presentato non cambierà il mondo dei trasporti, ma costituisce un
verosimile punto di partenza per ulteriori ricerche.
Un oggetto di produzione industriale ha, nella maggior parte dei
casi, dimensioni a misura d’uomo. La moto non viene meno a
questa regola.
L’utilizzo di uno scooter di produzione ha permesso di confrontarsi
direttamente con la realtà fisica delle parti.
E’ stato necessario intervenire direttamente sul mezzo per
verificare, purtroppo per ora solo staticamente, ingombri, percentili,
e interferenze reciproche dei vari elementi.
Legno, poliuretano espanso, stucco, colla vinilica, vernici all’acqua,
sono stati strumenti che hanno consentito la modellazione reale in
scala al vero, con ricadute progettuali importantissime.
Una volta realizzato il modello, però, restava un’incognita: il suo
comportamento dinamico. Avrebbe funzionato o no? La risposta a
questo quesito sarebbe venuta da una sperimentazione sul campo
troppo costosa.
Di conseguenza è stato simulato virtualmente il comportamento in
caso di urto.
L’utilizzo del computer ha consentito di verificare le ipotesi,
visualizzando attraverso animazioni, la sequenza di impatto, sia nel
caso normale, che nel caso con la protezione passiva dello scivolo.
Il computer è stato perciò uno strumento fondamentale per la
verifica delle ipotesi progettuali.
La piattaforma hardware utilizzata è stata un Personal Computer
basato su processore Intel Pentium (180 MHz di cpu clock) con 64
Mb di RAM e scheda grafica Matrox Millenium (4 Mb di Wram). Con
software Autodesk 3D Studio 4, 3D Studio Max e AutoCAD r12,
sulla base del rilievo dimensionale dello scooter Skipper, sono state
realizzate sia la modellazione tridimensionale che le prove
dinamiche dell’intero contesto progettuale. E’ stato pertanto
verificato il comportamento e la funzionalità dell’oggetto con costi
decisamente più contenuti della realizzazione di prove di crash.
Prove che possono essere realizzate solo dalle grandi industrie con
investimenti molto elevati.
BIBLIOGRAFIA
•
F. Valpreda, Le tecniche di simulazione digitale per la
comunicazione del progetto, Luce n.2 anno 2004]
•
Antonio A. Bianco, Blender 2.32, Computer Grafica, Tecniche
e Applicazioni n°35 aprile 2004
•
Ton Roosendaal e aa., The Official Blender 2.3 Guide
•
V. Mazza, Architettura virtuale – Chiostro 3D Professional n°5
dic 2000/gen 2001
•
S. Testoni, Rappresentazione ed analisi del modello digitale
in architettura 3D Professional n°7 apr/mag 2002
•
A. Rinaldi, Tecniche d'illuminazione 3D Professional n°9 dic
2003/gen 2004
•
J. Birn, Digital Lighting & Rendering New Riders, 2000
•
M. Derwyn, M. Harrison, M. Blaisdell, Motorcycle collision
experiments
SAE papers 700897
•
K. Langwieder, Collision characteristics and injuries to
motorcyclists and moped drivers
SAE papers 770920
•
P. M. Watson, Features of the experimental safety motorcycle
SAE papers 796010
•
A. Searle, J. A. Searle, The trajectories of pedestrian,
motorcycles, motorcyclists, etc., following a road
accident
SAE papers 831622
•
F. B. Cassan, J. C. Vincent, A. Fayon, C. Tarriere, Investigation
of a series of representative experimental collisions
between automobiles and two wheeled vehicles, with
specific analysis of severity of head impacts
IRCOBI 1984
•
J. Grandel, D. Shaper, Impact dynamic, head impact severity
and helmet’s energy absorption in
motorcycle/passenger car accident tests
IRCOBI 1984
•
K. D. Kulby, C. R. Buse, Motorcycle post-accident inspection
techniques
SAE papers 850064
•
J. Grandel, D. Shaper, Motorcycle collision with passenger
cars. Analysis of impact mechanism, kinematics, and
effectiveness, of full face safety helmets
SAE papers 850094
•
B. P. Chinn, P. Hopes, M. A. Macaulay, Leg protection for
riders of motorcycles
SAE 856121
•
M. Danner, K. Langwieder, A. Sporner, Accident of
motorcyclists. Increase of safety by technical measures
on the basis of knowledge derived from real-life
accidents
SAE papers 856123
•
H. Takodoro, S. Fukuda, K. Miyazaki, A study of motorcycles
leg protection
SAE 856126
•
G. L. Donne, P. D. Hopes, Motorcycle rider protection in
frontal impacts
SAE 856128
•
J. V. Ouellet, H. H. Hurt, D. R. Thom, Collision performances
of contemporary crashbars and motorcycle riders leg
injuries
SAE 870603
•
G. Bocchi, La simulazione al computer del comportamento
dinamico del telaio motociclistico
in Moto Tecnica, anno 2, n° 1, aprile 1988
•
S. Colombo, Una struttura ben calcolata è tutta salute
in Moto Tecnica, anno 2, n° 2, maggio 1988
•
M. Riccardi, BMW, la moto pensa alla sicurezza
in Motociclismo, anno 79, n°11, novembre 1992
•
F. Fazi, Stile e produzione di massa. L’esperienza Piaggio
in Moto Tecnica, anno 6, n° 12, dicembre 1992
•
F. Fazi, Sicurezza passiva anno zero
in Moto Tecnica, anno 7, n° 1, gennaio 1993
•
P. Beducci, Dossier: l’industria della motocicletta
in Tecnologie Meccaniche, anno 27, n° 1, gennaio 1996
Alcuni siti web di riferimento
www.blender.org
www.blender3d.org
www.elysiun.com
www.3dtotal.com
www.cgchannel.com
Scarica