aggiungere profondità (quella vera) ad una foto digitale la regola

aggiungere profondità (quella vera) ad una foto digitale
ovvero ricostruzione dello zbuffer e applicazione di un filtro con il sequencer di blender e altre applicazioni
powered by BullX
Scopo di questo tutorial è di fornire ad un'immagine 2D informazioni relative allo Z buffer della scena allo
scopo di postprocessarla per ottenere un effetto (realistico) di DOF (profondità di campo)
Per iniziare ci serve la fotografia che vogliamo processare, ho utilizzato la stanza di venere della casa di
Petrarca per il semplce fatto che è un ambiente estremamente semplice.
Come potete vedere la fotografia è tutta a fuoco, il fotografo non ha scelto di concentrare l'attenzione su un
piano focale particolare, come, invece, vogliamo fare noi.
La “grande idea” consiste nel ricreare in maniera più o meno precisa l'ingombro spaziale della scena in tre
dimensioni utilizzando il nostro fidato blender, per poi poter estrarre i dati relativi alla distanza dalla camera e
creare una maschera che ci consenta l' applicazione del DOF.
Per ricreare la scena in 3D esistono approcci differenti, in questo caso ho cercato di ricavare le misure della
stanza dalla fotografia stessa, e ho posizionato ad occhio la camera tramite la tecnica scientifica altrimenti nota
come “piccoli aggiustamenti successivi”
la regola dell' approssimazione.
Non sarà necessario ricostruire in maniera fedele e dettagliata
ciascun elemento tridimensionale della stanza, basterà usare un può
di bun senso e tenere conto dei piani focali di nostro interesse.
In fondo stiamo processando l'immagine per “perdere informazione”
e sappiamo tutti quanto sia facile ingannare il cervello umano anche
senza una grande precisione.
Sull'immagine sono riconoscibili i riferimenti usati per la stima delle
proporzioni
lo spazio virtuale.
Le immagini mostrano la ricostruzione dell'
ambiente in 3D, si noti che gli oggetti sono
modellati solo a livello di ingombro,
dettaglio più che sufficiente per l'effetto
desiderato.
Per ottenere un modello visivo della distanza di ciascun pixel dalla camera (estrazione dello Zbuffer) viene
assegnato al modello un materiale shadeless con una texture di tipo ” blend”, i dettagli di questa ed altre
tecniche possono essere ricavati da qui: http:/ / blenderartists.org/forum/showthread.php?t=66055
i nodi.
L' ultima cosa che ci resta da fare è utilizzare il compositor a nodi di blender per ottenere l'immagine finale.
il risultato finale.
altre possibili applicazioni.
La tecnicea della ricostruzione di un ambiente sintetico per la creazione di informazioni aggiuntive utili a
processare immagini digitali va oltre l'esempio del deep of field.
E' infatti possibile sfruttare tutti i dati che siamo in grado di “creare” in blender, come ad esempio il vettore di
velocità di un offetto in movimento, che ci consntirebbe di aggiungere motion blur ad una foto scattata con
tempi brevissimi, o ltre tecniche come il camera mapping per creare stereoscopie da una singola immagine.
E' importante notare che moltissimi effetti di post produzione possono essere realizzati in maniera più che
credibile utilizzando solo informazioni 2D, è quindi utile valutare caso per caso se sia realmente necessario
l'utilizzo di tecnologie 3D per la creazione di informazioni aggiuntive.
É inoltre possibile sfruttare la tecnica descritta (come suggerito da Gillan) su file renderizzati con altri motori di
rendering, nel caso questi non disponessere di funzionalità quali il DOF, il MBLUR, ecc.
note.
Il compositor a nodi a cui si fa riferimento in questo tutorial è presente a partire dalla versione 2.42 di Blender.
Sito ufficiale
www.blender.org/
community internazionale
www.blenderartists.org
community italiana
www.kino3d.com
camera calibration script
blix.sourceforge.net
powered by BullX