ACCADEMIA DI BELLE ARTI DI BRERA corso di laurea in PITTURA TESI DI LAUREA L’EVOLUZIONE DELL’IMMAGINE ELETTRONICA NEL CINEMA Relatore Prof. Giacomo Agosti Prof. di Indirizzo Giuseppe Maraniello Candidata: Silvia Erika Venturino Anno Accademico 1999/2000 INTRODUZIONE Il cinema, per sua stessa natura, è sempre stato un mezzo di comunicazione intimamente connesso alla tecnica e alla tecnologia. Nel corso della storia le innovazioni tecnologiche lo hanno sempre aiutato e accompagnato nella sua evoluzione tecnica ed artistica, aprendo nuovi spazi e possibilità alla creatività degli autori. Era quindi inevitabile che, al sopraggiungere delle tecnologie digitali ed elettroniche esso ne risultasse profondamente influenzato e trasformato, sia nelle dinamiche creative sia in quelle produttive e persino nelle modalità di fruizione. Nel corso di questo lavoro, intendo esplorare le ragioni e la storia dell’inevitabile connessione tra il cinema e la tecnologia, vedere come questa si realizza oggi nei vari livelli della produzione cinematografica ed esaminare come il rapporto con i nuovi strumenti ha già mutato il modo di realizzare ed intendere il cinema, influenzandone il linguaggio e le dinamiche. Quali e quante mutazioni ci possiamo aspettare per il futuro, cosa succede all’identità del cinema quando è possibile generare delle scene realistiche con un sistema di animazione computerizzato, oppure modificare fotogrammi o intere sequenze con l’ausilio di un programma di disegno digitale; o ancora tagliare, distorcere, allargare e montare immagini digitalizzate così da ottenere un’assoluta credibilità fotografica, senza di fatto aver filmato nulla? In questo contesto, traccerò una definizione del cinema digitale, analizzando i tratti comuni di un gruppo di software e di hardware che stanno rimpiazzando la tecnologia del cinema tradizionale. Nella sezione dedicata al “Making of”, descriverò le tecniche utilizzate per la creazione degli effetti speciali di alcuni tra i film più importanti che in quest’ultimo ventennio hanno contribuito allo sviluppo della computergrafica nel cinema. Infine le mie modeste conclusioni, renderanno sicuramente omaggio alla creatività e alla libertà che oggi possiede colui che decide di esprimersi attraverso l’immagine visiva. 1 CINEMA, TECNICA E TECNOLOGIA: Fin dalla sua nascita è chiaro ed oggettivo che cinema e tecnologia sono legati in maniera strettissima da un cordone ombelicale. Prima del cinema l’elemento in movimento era separato visivamente dallo sfondo statico, come dimostrano le lastre meccaniche o il Praxinoscopio di Reynaud (1892), con le sue pantomime disegnate. Lo stesso movimento era limitato e coinvolgeva solo una figura ben definita, non l’intera immagine. Con il crescere dell’ossessione per il movimento, tipica della fine dell’Ottocento, divennero molto popolari quegli strumenti in grado di animare più immagini contemporaneamente. Tutti dallo Zootropio al Phonoscopio, dal Tachyscopio al Kinetoscopio di Edison (1892-96), la prima macchina cinematica moderna ad utilizzare una pellicola, si avvalsero sistematicamente di sequenze ripetibili all’infinito. Il cinema, o meglio, il cinematografo, nasce alla fine dell'Ottocento, al termine del periodo industriale classico, inventato da scienziati (da tecnici) che erano al tempo stesso imprenditori. Nasce come evoluzione della fotografia, come fotografia animata, come mezzo di studio del movimento animale. “La natura colta sul fatto”: così i fratelli Lumière definivano la loro invenzione, il cinematografo. Mezzo straordinario capace di riprodurre, meglio di ogni altro allora esistente, il movimento della vita. Molti sono stati gli scienziati che si sono dedicati al perfezionamento del cinematografo. I fratelli Lumière perfezionano tecnicamente il dispositivo, ma soprattutto per primi se ne servono per filmare scene di vita quotidiana, pubblica o privata, gettando così le basi per l'uso del cinematografo come nuovo mezzo di comunicazione. A simboleggiare la stretta connessione tra la loro invenzione e la tecnica, la meccanica, i loro primi film, nel 1895, raffigurano treni in movimento, operai che escono dalle loro fabbriche: il matrimonio tra il cinema e l'industria, la tecnica, venne così perfettamente esemplificato. Ma a questa ottica realista nel linguaggio cinematografico si opporrà presto un altro francese, George Meliès, che per primo invece intuirà e sfrutterà le enormi potenzialità fantastiche, oniriche, immaginative offerte da questa tecnologia, fondando su questa un vero e proprio nuovo linguaggio. Da allora si è protratta per molti anni, sino ai nostri giorni, questa contrapposizione tra gli alfieri del realismo cinematografico e i sostenitori della spettacolarizzazione, dell'immaginazione, del fantastico nel cinema. Possiamo dire sin da ora, che il dibattito attuale tra chi è pro e chi è contro l'uso dei dispositivi digitali nel cinema contemporaneo è sicuramente figlio di quelle prime contrapposizioni. 2 Quindi, il cinema nasce già intimamente connesso alla tecnologia, come dispositivo tecnico, e, dal punto di vista del suo linguaggio espressivo, con il passare degli anni e con l'evolversi della tecnologia, sarà segnato e indirizzato da questo legame simbiotico. Il primo grande e palese esempio di ciò viene dal passaggio dal muto al sonoro a cavallo degli anni Venti e Trenta. L'avvento della parola nelle pellicole cinematografiche comportò una vera e propria rivoluzione, sia dal punto di vista estetico che da quella produttivo ed economico. I film muti avevano elaborato un'estetica prettamente visuale, che aveva influenzato anche le strutture di base e le caratteristiche dei generi cinematografici. Molti autori ed attori (si veda per tutti il caso di Chaplin) che avevano fatto dell'assenza della parola il principio strutturale del loro cinema, non sopravvissero al passaggio, e se lo fecero, non riuscirono a adeguarsi al nuovo mondo del sonoro. Grazie al sonoro vecchi generi si avvantaggiarono rispetto ad altro (come la commedia rispetto alla comica slapstick), altri nascono exnovo, come il musical. Dando maggior realismo al dispositivo cinematografico, il sonoro ha inoltre incentivato lo sviluppo di generi che sono invece il contrario del realismo, come il fantastico e la fantascienza. Questa del sonoro è stato l'innovazione tecnologiche che più radicalmente e rapidamente ha trasformato il linguaggio cinematografico. Dagli anni Trenta in poi una serie d’incessanti innovazioni si susseguono: il colore, il grande schermo, la pellicola pancromatica, nuovi obiettivi per le cineprese. Tali innovazioni incidono in ogni modo anch'esse sulla forma film, sulle possibilità espressive, sulla creatività degli autori. Ma forse nessuna in maniera così radicale come per l'avvento del sonoro. Una volta stabilitosi come tecnologia, il cinema tagliò tutti i ponti con le proprie origini. Tutto ciò che aveva caratterizzato le immagini in movimento prima del ventesimo secolo, (la costruzione manuale delle immagini, le sequenze circolari, la natura discreta del movimento e dello spazio), fu delegato al parente bastardo del cinema, al suo surrogato alla sua ombra: l’animazione. L’animazione del xx secolo divenne un deposito in cui accumulare le tecniche del diciannovesimo secolo spazzate via dal cinema. Nel xx secolo l’opposizione tra gli stili del cinema e dell’animazione hanno definito la cultura dell’immagine in movimento. L’animazione mette in primo piano il proprio carattere artificiale, ammettendo apertamente di lavorare con immagini che sono semplici rappresentazioni. Il suo linguaggio visivo è accostabile più alla grafica che alla fotografia. È discreto e discontinuo: personaggi ritratti con tratti sommari che si muovono davanti a sfondi statici e dettagliati, movimenti irregolari e frammentari (opposti all’uniformità impersonale del cinema) e, uno spazio costruito dalla sovrapposizione di strati diversi di immagine. 3 Al contrario il cinema si sforza di cancellare qualsiasi traccia del suo processo produttivo, incluso il tentativo di farci credere che le immagini sono pure e semplici registrazioni e non ricostruzioni. Il cinema nega anche che la realtà ritratta non esiste al di fuori dell’immagine cinematografica, cela che l’immagine sia nata fotografando uno spazio di per sé inesistente e impossibile, costruito con modelli, specchi, filtri e combinazioni di illusioni ottiche. Il cinema finge di essere una semplice registrazione di una realtà già esistente. L’immagine pubblica del cinema si fonda sull’aura della realtà catturata sulla pellicola, diffondendo l’idea che il cinema fotografi ciò che esiste e non ciò che non è mai esistito. Tant’è che gli effetti speciali, (dall’uso di specchi e miniature a quello di filtri e trucchi in fase di sviluppo), sono stati spinti alla periferia del cinema sia dagli storici sia dai critici. Oggi con il passaggio ai mezzi digitali, queste tecniche dimenticate si riconquistano il ruolo della prima donna. In questo contesto la costruzione manuale del cinema digitale, rappresenta un ritorno alle pratiche precinematografiche del diciannovesimo secolo, quando le immagini erano dipinte a mano e animate artigianalmente. E' forse l'ultima delle innovazioni tecnologiche, quella di cui vogliamo parlare più diffusamente, quella che, per la dirompenza con cui si è imposta, per la profondità delle modificazioni estetiche e linguistiche che permette, è l'unica che si può porre allo stesso livello del sonoro: la tecnologia digitale. 4 DALLA MECCANICA ALL’ELETTRONICA Abbiamo detto come il cinema nasca alla fine del diciannovesimo secolo, al termine del periodo industriale e di come ciò sia significativo del suo rapporto con la tecnica. Ma abbiamo anche visto come esso subisca una rapida evoluzione tecnologica, produttiva, linguistica nel corso degli anni Trenta. E ciò è ancor più significativo, poiché quel decennio è il decennio dell'esplosione dell'elettronica, della evoluzione della radio e della televisione, il decennio di origine della tecnica e della tecnologia audiovisiva. Il cinema incarna in sé questo passaggio dalla meccanica all'elettronica, concretizza un ibrido tra le due tecnologie. Le fa proprie entrambe e si accompagna ad esse sino ad oggi. Oggi, l'era digitale, l'era in cui gli atomi sono destinati a trasformarsi inevitabilmente in bit. Oggi si è giunti ad uno stadio in cui non solo il prodotto cinematografico (cioè il film) ma anche tutta la sua industria ed il suo ciclo produttivo sono ridefiniti dall'apporto di computer. Stesura della sceneggiatura, riprese, effetti speciali, montaggio, postproduzione: sono tutte fasi in cui i computer hanno assunto ruoli di primissimo piano. Prima di affrontare il lungo discorso sugli effetti speciali, affrontiamo brevemente altri campi di utilizzo del computer, quali ad esempio il montaggio o anche il momento creativo. Per quanto riguarda il montaggio, il processo è stato estremamente semplificato e velocizzato dai supporti elettronici. Grazie ad essi il montaggio, da lungo e complesso qual era, con l'uso di chilometri di pellicola e moviole, si può oggi realizzare digitalmente: le scene, precedentemente digitalizzate e salvate su hard disk, vengono tagliate, spostate, assemblate sullo schermo del PC. Ciò permette un grande risparmio di tempo, in quanto è possibile al regista e al montatore di realizzare numerose versioni di montaggio in breve tempo, aumentando così le possibilità di scelta artistiche del regista. Il lavoro del regista è semplificato dal computer persino nel momento creativo vero e proprio, grazie alla possibilità di realizzare delle "anteprime digitali" delle sue idee. Il regista di oggi ha una libertà simile a quella che possiede uno scrittore di fronte ad una pagina bianca, o un compositore di fronte allo spartito, cioè ha la possibilità di realizzare, seppur in maniera provvisoria, la sua intuizione momentanea, mediante una realizzazione digitale della scena che ha in mente, con costi e tempi di molto inferiore ad una prova in "girato tradizionale". Il computer permette di realizzare e fissare visivamente quella che può essere l'intuizione di un momento. 5 Ci siamo così avvicinati a quell'utilizzo delle nuove tecnologie che più di tutti gli altri influenza il linguaggio cinematografico e l'approccio stesso dei registi ad esso: l'immagine digitale vera e propria, l'effetto speciale. 6 IL CINEMA DIGITALE Piuttosto che filmare la realtà, oggi è possibile creare delle sequenze cinematografiche con l’ausilio di un programma di animazione in tre dimensioni. Perciò la ripresa dal vivo perde il ruolo di materia prima della costruzione cinematografica. Una volta digitalizzata (o registrata direttamente in formato digitale), la realtà filmata si libera del legame indicale che costituiva la relazione privilegiata del cinema tradizionale. Il computer non distingue tra immagini ottenute fotograficamente e quelle create da un programma di disegno o di animazione in 3D: per un computer le immagini sono tutte uguali, perché sono costruite con lo stesso materiale - il pixel. E i pixel, indipendentemente dalla loro provenienza, si prestano a essere facilmente alterati, sostituiti e scambiati. La ripresa diretta viene così degradata al livello di una qualsiasi soluzione grafica, identica alle altre immagini create manualmente. Se nel cinema tradizionale la ripresa dal vivo non veniva rimaneggiata, ora funziona come un materiale grezzo, destinato alla composizione, all’animazione e al morphing. Così, mentre il realismo visivo resta delegato al processo cinematografico, il cinema ottiene la plasticità che fino a poco tempo fa era esclusiva della pittura e dell’animazione. Il risultato è un nuovo tipo di realismo che potrebbe essere descritto come "qualcosa che è pensato per sembrare possibile, per quanto sia irreale". In passato il montaggio e gli effetti speciali erano attività rigidamente separate. Il tecnico di montaggio lavorava sull’organizzazione di una sequenza di immagini, mentre l’elaborazione diretta dell’immagine spettava a chi si occupava degli effetti speciali. Il computer distrugge questa separazione. Grazie ai programmi di disegno o all’elaborazione algoritmica, la manipolazione di una singola immagine è semplice quanto il montaggio: entrambi si riducono a un semplice 'taglia e incolla'. Come suggerito dal nome di questo comando, l’elaborazione delle immagini digitali (o dei dati digitali) non è sensibile alle differenze di spazio e tempo, né a quelle di scala. Perciò riordinare una sequenza di immagini nel tempo, ricomporle in un solo spazio, modificare alcune parti di un’immagine o cambiare un solo pixel sono ormai operazioni molto simili l’una all’altra, sia a livello pratico sia a quello concettuale. Dati i principi appena formulati, possiamo definire il cinema digitale con questa equazione: cinema digitale = ripresa dal vivo + pittura + elaborazione delle immagini + montaggio + animazione computerizzata a due dimensioni + animazione computerizzata a 3D. La ripresa dal vivo può essere ottenuta con pellicola, video o direttamente in formato digitale. La pittura, l’elaborazione delle immagini e l’animazione appartengono tanto all’elaborazione di immagini già 7 esistenti, quanto alla creazione di nuove immagini. In realtà nel cinema digitale crolla la distinzione tra creazione ed elaborazione delle immagini - che invece era fondamentale nel cinema tradizionale (riprese vs. sviluppo in camera oscura; produzione vs. postproduzione); ora ogni immagine - indipendentemente dall’origine passa attraverso una lunga serie di programmi prima di entrare nel film. La ripresa dal vivo è ormai una semplice materia grezza destinata all’elaborazione manuale: animazione, inserimento di immagini in 3D completamente costruite al computer, pittura ecc. Le immagini finali risultano costruite manualmente partendo da diversi elementi, per lo più creati dal nulla e modificati a mano. Perciò il cinema digitale è una forma particolare di animazione che utilizza la ripresa dal vivo come una tra le varie materie prime disponibili. Nato dall’animazione il cinema ha costretto l’animazione in un ruolo marginale, ma solo per trasformarsi infine in una particolare forma di animazione. La relazione che lega il cinema tradizionale agli effetti speciali ha seguito un percorso simile. Gli effetti speciali diventano la norma nel nuovo cinema digitale, dopo essere sopravvissuti ai bordi del cinema, dove erano stati cacciati a causa della loro natura artigianale. E lo stesso si potrebbe dire a proposito della relazione tra produzione e post-produzione. Tradizionalmente il cinema si basava sulla strutturazione della realtà fisica, riorganizzata nel set, secondo il gusto dell’art director e del regista. La manipolazione della pellicola (ad esempio, con stampe sofisticate) è sempre stata una pratica secondaria se paragonata alla manipolazione diretta della realtà, prima della ripresa. Nel cinema digitale la pellicola impressionata non è più il fine del cinema, ma solo una materia prima destinata a essere elaborata in un computer, dove di fatto si procede alla costruzione reale delle scene. In questo senso, la produzione diventa il primo passo della postproduzione. Nel suo studio sulla fotografia digitale, William J. Mitchell (The Reconfigured Eye, 1992) concentra la nostra attenzione su ciò che definisce la "mutabilità intrinseca" dell’immagine digitale: "La caratteristica essenziale dell’informazione digitale è che può essere manipolata facilmente e molto rapidamente. Si tratta solo di sostituire nuovi bit a quelli vecchi... Gli strumenti che i computer utilizzano per trasformare, combinare, alterare e analizzare le immagini, sono essenziali per il programmatore quanto i pennelli e i pigmenti per un pittore". Come sottolineato da Mitchell, la mutabilità intrinseca cancella le differenze tra fotografia e pittura. E - dal momento che il cinema è una sequenza di foto - possiamo estendere la definizione di Mitchell al cinema digitale. Così la pellicola diventa una serie di dipinti creati da un artista che manipola le immagini, una per una o tutte insieme. 8 Siamo abituati a pensare al computer come portatore dell’animazione, ma in realtà il risultato che ci troviamo ad affrontare è l’esatto opposto: ciò che prima veniva registrato automaticamente con la macchina da presa, ora viene dipinto a mano, fotogramma dopo fotogramma. E le immagini non sono più una dozzina, come accadeva nel diciannovesimo secolo, quanto una teoria infinita di fotogrammi. Possiamo additare un’altra somiglianza con il cinema delle origini: la colorazione manuale dei fotogrammi, per ricreare diverse ambientazioni. Oggi molti degli effetti speciali digitali si fondano su questo semplice metodo: modificare a mano migliaia di immagini. I fotogrammi sono ridipinti o per creare dei filtri, o per cambiare direttamente le immagini - come, ad esempio, in Forest Gump, in cui il presidente Kennedy è tornato a parlare grazie all’alterazione delle sue labbra, ritoccate fotogramma dopo fotogramma. Il film completamente digitale può permettersi di creare un ambiente totalmente differente e non legato in alcun modo al mondo fisico cui siamo abituati, come del resto fa l’animazione tout court; d’altra parte avendo la possibilità di creare oggetti e corpi in tre dimensioni, le immagini di sintesi possono usufruire di una coerenza dei movimenti e degli ambienti impensabile per un cartoon classico, e più vicina alle regole di un film live. Nasce così il concetto di animazione digitale, che da un bozzetto su carta passa lo storyboard nel computer per sviluppare, con l’animazione appunto, l’ambiente e i personaggi 3D. Il passaggio alla pellicola allora assume un ruolo di secondo piano, un riversamento su supporto classico di un materiale assolutamente nuovo, che del sistema fotografico potrebbe benissimo fare a meno. Inoltre tutto ciò che è creato al computer possiede una luminosità propria, poiché sfrutta la luce endogena dei pixel per ricoprirsi di colori brillanti e molto saturi, in tal modo le sfumature non sono ben calcolate al computer e ciò va a vantaggio di una rappresentazione non verosimile e dunque di un’estetica simbolica del digitale, che gli deriva principalmente dal videogioco. 9 ELABORAZIONE DIGITALE DELLA PELLICOLA Come fanno i 'maghi' dei visual effects ad aggiungere alla pellicola scenari, uomini e qualunque altro elemento digitale? Questo paragrafo nasce con l'intento di spiegare brevemente, e senza troppe pretese, i procedimenti fondamentali seguiti per creare l'universo immaginario della computer grafica. Il primo passo da compiere è l'inserimento nel computer del negativo con le riprese: a tale scopo gli esperti di CG ricorrono a speciali apparecchiature, i laser scanner (i più usati sono quelli della Silicon Graphics): queste macchine potentissime catturano le immagini fotogramma per fotogramma ad una risoluzione non inferiore ai 2000x1500 dpi, al fine di mantenere inalterate le tonalità di colore delle riprese. In questo modo, ogni immagine, memorizzata sugli hard disk dei vari computer collegati allo scanner, assume dimensioni variabili tra i 20 ed i 30 MB; considerando che per produrre una normale pellicola cinematografica sono necessari 24 fotogrammi al secondo, si può intuire la potenza di elaborazione e memorizzazione di queste macchine. Una volta acquisita tutta la pellicola, il montatore, che ha l'intero film compresso su file, può procedere agli interventi in modo non-lineare: dal fotoritocco, all'effettistica, all'animazione bi e tridimensionale, le possibilità offerte all'operatore per modificare il materiale in postproduzione sono innumerevoli. Terminata questa fase ed effettuata l'integrazione tra tutti gli elementi aggiunti e quelli preesistenti, i dati devono essere nuovamente trasferiti su pellicola: lo strumento addetto a questa funzione è il Digital Recorder, un apparecchio estremamente sofisticato che, con un raggio laser, incide i fotogrammi su un nuovo negativo. 10 IL DIGITALE COME LINGUAGGIO Le tecnologie digitali, svincolate finalmente da un utilizzo circoscritto alla realizzazione di spettacolari spot pubblicitari o film di fantascienza, stanno diventando uno dei tanti strumenti di cui un regista può disporre per creare la sua opera, così come la macchina da presa o gli attori in carne ed ossa: un potenziale incredibile, che solo pochi filmaker sanno sfruttare con naturalezza: il rischio di farsi prendere la mano dalle nuove tecnologie rimane alto, così come la riluttanza di alcuni a confrontarsi con qualche cosa che non rientra nel bagaglio delle loro conoscenze. Secondo Robert Legato, responsabile degli effetti speciali di megaproduzioni come Apollo 13 e Titanic (gli omìni che cadevano in mare da centinaia di metri sfiorando le eliche della nave erano sue creaturine digitali, non credo che uno stuntman possa avere tanto coraggio…), solo pochi registi (ovviamente tutti statunitensi), tra cui Cameron, Zemeckis e Spielberg riescono a sfruttare con maestria le immagini sintetiche, perché sanno pensare gli effetti prima di realizzarli, e non sono messi in imbarazzo dal fatto di trovarsi a girare alcune scene in cui il set è composto da un unico schermo blu (che verrà sostituito solo sulla pellicola dall'effetto creato dal computer) e magari da un solo attore che deve fingere di interagire con un ambiente che non esiste (per ora!). Inoltre il regista non deve necessariamente sapere come funziona il giochino, c'è chi se ne occupa al posto suo: lui può pensare a scrivere il film senza porsi limitazioni, sapendo che non sarà necessario aspettare la stagione delle piogge tropicali per girare una scena con gli attori inzuppati da un acquazzone, ma basterà simularne uno che sembri vero, per cui lo spettatore non debba nemmeno porsi il problema sulla sua effettiva natura. Effetti speciali funzionali al racconto, invisibili, pervasivi e probabilmente sempre meno percettibili, dato che il cinema, cambiando il suo linguaggio, sta modificando la nostra concezione della realtà. Le immagini digitali, irreali, immateriali, vengono oggi utilizzate in due direzioni opposte, ma che inseguono la stesso scopo: quello di dare un corpo a flussi di bit, ed integrare questi flussi con le fisicità del reale. Da un lato le animazioni digitali vengono usate per creare sullo schermo qualcosa di totalmente inesistente, di palesemente irreale, come nel caso, ad esempio dei mostri alieni di Man in Black o di Starship Troopers. In questo caso la creatura che si vuole rappresentare sullo schermo è già nella sua concezione qualcosa di non reale, e l'immagine digitale può interagire con gli elementi reali del film senza paura di creare contrasto. 11 Addizionando il computer alla sua tradizionale tecnologia ottica, il cinema può dare corpo e credibilità nella narrazione ai sogni ed agli archetipi dell'uomo, incarnandoli nelle animazioni computerizzate. Dall'altro gli effetti digitali sono anche e soprattutto usati per ricreare qualcosa di reale, di esistito o persino esistente, ma che è impossibile realizzare in maniera tradizionale. La grande conquista del digitale in questo caso è di integrare perfettamente nell'immagine filmica, gli elementi digitali e quelli reali, rendendo impossibile allo spettatore di distinguere ciò che è stato effettivamente girato dalla cinepresa e ciò che è invece stato realizzato da un computer. Viene abolita (o almeno si tenta di abolire) la distinzione tra immagini referenziali ed immagini sintetiche. Come sostiene Robert Legato, che ha realizzato tutti gli effetti speciali del Titanic di James Cameron, "per il Titanic le novità sono state nel creare acqua sintetica e persone sintetiche, acqua e persone digitali, e nell'utilizzarle insieme in modo tale da dare un'impressione più naturale e reale possibile, affinché non si avesse l'impressione di un effetto speciale. Siamo stati in grado di alternare immagini reali ed immagini digitali, in modo che gli spettatori non distinguessero più quelle reali dalle altre. Nel momento in cui gli spettatori non distinguono più le immagini reali da quelle digitali, allora il film viene giudicato come tale e non come un successo dell'impiego di nuove tecnologie, proprio perché in tal modo lo spettatore si dimentica della tecnologia che viene impiegata… …. La nave sembra una vera nave, così come tutto il resto: questo è il risultato positivo nell'impiego degli effetti speciali. Le immagini vengono montate in sequenze che alternano quelle reali e quelle digitali. Ripeto: l'aspetto più interessante del film in generale, a mio avviso, è stato quello di rendere il massimo del realismo, affinché tutto fosse altrettanto realistico ed efficace delle riprese dal vivo. Quando nell'immagine ci sembra di vedere il vero Titanic, proviamo delle emozioni. Penso che questo sia stato un grande risultato." Nell'uso di queste nuove tecnologie all'interno delle opere cinematografiche si tende ad un doppio processo: una realizzazione del virtuale insieme ad una virtualizzazione del reale, entrambi i processi tesi ad una fusione tra i due mondi. Le immagini digitali sono il frutto di una rivoluzione tecnologica che segna la fine del secolo ma sono anche l'espressione della mutazione del nostro sguardo. Uno sguardo che si spinge oltre il visibile e che cerca nuove angolazioni per raccontare la vita. Essa si manifesta infatti attraverso uno sguardo estremamente ravvicinato, e la valorizzazione del dettaglio serve a spostare l’attenzione dalla linearità del racconto al meraviglioso, allo spettacolare. 12 Il dettaglio il particolare non sono più parte di una totalità, indizio di un sistema in cui sono inseriti ma sono essi, pienamente autoreferenziali, rinviano solo a se stessi. Lo sguardo deborda dal quadro, allarga i confini del visibile, raggiunge mete impossibili all’occhio umano. Esterno e interno perdono i loro confini, punti di vista impossibili diventano reali, il nuovo spazio narrativo diventa talmente malleabile da rendere visibile la traiettoria di una pallottola, come dimostrano le ardite sequenze di Matrix nell’ossessività del punto di vista che mette a fuoco brandelli di una realtà restituita attraverso processi di pianificazione ed esaltazione dei dettagli e dei particolari. In questo contesto il fine è rispecchiarsi nella propria scrittura che diventa spettacolo di sé si fa performance, diventa oggetto visivo e spaziale. Il medium non è più la realtà ma diventa rappresentabile il pensiero, l’idea….. È il firmamento di un nuovo cinema tecnologico inconfondibile, che esula dalle classificazioni dei generi conosciuti, che si pone come spettacolo totale, dove la contaminazione dei modelli narrativi é costante e dove diventa determinante il come si mostra. 13 IMMAGINI SINTETICHE La storia della computer grafica inizia nel 1962 presso la Boing Company (USA). In quanto società di progettazione, la BC era interessata a sperimentare un mezzo che "simulasse" un progetto in maniera scientificamente corretta. La prima immagine elaborata da William Fetter non a caso fu quella di due piloti nella cabina di pilotaggio per verificarne l'ingombro e la cosa ancora più curiosa è che questa immagine finì pochi anni dopo (nel 1968) a Londra in "Cybernetic Serendipity" una delle più importanti mostre curata da Jasia Reichart dedicata alla nuova arte tecnologica. In questa prima decade la produzione della computer grafica interessa società pubbliche e private: dai centri come la Bell and Telephon Lab nel New Jersey, alle Università come quella dell'Illinois diretta da Charles Csuri, uno dei principali artefici della sperimentazione dei nuovi mezzi in campo artistico. Gli ingegneri e i tecnici informatici sono dunque i primi veri "artefici "di questo nuovo corso nella storia della rappresentazione per immagini, anche se quasi immediatamente i laboratori si aprono agli artisti provenienti dall'arte visiva più o meno tradizionale. La produzione di immagini sia statiche che animate in quegli anni spazia soprattutto in ricerche di tipo astratto: elaborazioni su pattern e textures ottenute sviluppando programmi appositi in cui la funzione random ad esempio veniva vista come equivalente del principio di casualità in arte. La ricerca è "aperta", il campo totalmente da esplorare e le sorprese non mancano. E' il periodo in cui si gettano le basi grammaticali e sintattiche di un nuovo linguaggio che solo oggi sta raggiungendo la sua maturità. Dopo gli anni ottanta, caratterizzati da una sperimentazione finalizzata alla ricerca e alla messa a punto di algoritmi per la rappresentazione realistica tridimensionale e animata, la ricerca di un linguaggio più evoluto cresce tappa dopo tappa e le applicazioni si infittiscono in campo televisivo e pubblicitario. La vena artistica tuttavia non si esaurisce. Convive con una spinta alla sperimentazione orientata alla commercializzazione di sistemi grafici "chiavi in mano". Si allarga insomma il campo di azione di queste immagini frutto di una tecnologia digitale sempre più avanzata. Nell'ultimo decennio la rappresentazione sintetica sta ottenendo sempre maggiori riconoscimenti da parte di artisti, registi, creativi che la utilizzano e la integrano nei loro progetti di comunicazione. Molteplici sono i fattori che spiegano questa recente evoluzione. In primo luogo, gli sviluppi tecnologici, soprattutto la maggior potenza dei computer e il miglioramento delle prestazioni software. La diffusione inoltre delle tecnologie (dovuta al progressivo abbattimento dei costi) e 14 la relativa facilità d'uso dei programmi di grafica tridimensionale, trattamento digitale, ha reso gli strumenti più accessibili a molti. Anche la formazione alle nuove immagini si è nel contempo ampiamente diffusa in ambito universitario, presso le scuole d'arte, istituti pubblici e privati. Il mercato delle immagini di sintesi si è rivolto prima alla televisione, poi ha guadagnato terreno all'interno del mondo pubblicitario o nella produzione di filmati di comunicazione aziendale. Negli ultimi tempi si è scatenata soprattutto l'industria dei sogni: il cinema con le "nuove immagini" sta vivendo una nuova stagione; sono sempre più frequenti infatti i film basati su effetti speciali digitali. Anche l'industria della multimedialità ricorre a questo genere di rappresentazione per la realizzazione di interfacce grafiche, per la creazione di ambienti tridimensionali off line (cd-rom etc) e on line (internet, programmi televisivi etc). Il numero di società dedicate a questo genere di produzioni, continua a salire, segno che dimostra la reale vitalità di un settore che è rimasto a lungo ai margini della produzione audiovisiva, nonostante sia stato accolto molto favorevolmente sin dall'inizio, dal grande pubblico. Si moltiplicano anche gli appuntamenti internazionali. Il Siggraph negli USA e' il momento più alto di incontro per monitorare lo stato dell'arte della computer grafica mondiale e per spingere lo sguardo avanti sui prossimi traguardi. Un grande fascino emana da queste immagini che devono parte della propria magia al modo in cui sono realizzate. Non bisogna tuttavia sottovalutare la portata e l'influenza di questi nuovi dispositivi, destinati a rimuovere i limiti della creazione senza che il potere della tecnologia soffochi la capacita' di invenzione e la creatività. Le immagini di sintesi sono il frutto della rivoluzione delle tecnologie digitali che segnano la fine del secolo e aprono la strada a nuove forme di creazione e di conoscenza. Generare immagini manipolando linguaggi matematici, far leva sulle molle dell'interattività, sia nel rapporto tra l'artista e il suo lavoro che tra il pubblico e l'opera, sono il risultato della grande evoluzione della nostra cultura dell'immagine. La realtà virtuale, la televirtualità, le autostrade informatiche fanno parte di questo scenario, si inseriscono in questo cammino tracciato, dicevamo, non più di trenta anni fa dalla nascita della grafica computerizzata. 15 IL NUOVO CONTESTO TECNOLOGICO Vediamo ora quali modifiche ha introdotto la tecnologia più recente nelle tradizionali tecniche di ripresa, animazione, post-produzione ecc. Verso la metà degli anni '70 le tecniche informatiche applicate al disegno progettuale e alla generazione di immagini animate escono dalla fase sperimentale e cominciano a diffondersi nel mondo della produzione vera e propria. Fino a quel momento parlare di immagini elettroniche significava soprattutto far riferimento alla televisione e alla registrazione videomagnetica, dunque a sistemi riproduttivi di tipo analogico. Per il montaggio delle immagini il termine di riferimento, anche in TV, era ancora rappresentato dal montaggio cinematografico (l'immagine televisiva veniva infatti trasferita su pellicola, per l'editing finale si usavano taglierine e incollaggi nonché le stesse moviole meccaniche adottate nel cinema). Gli effetti speciali nel cinema e nella produzione televisiva si basavano tutti su trucchi ottico-meccanici. I sistemi in uso facevano capo soprattutto alle lavorazioni in truka (stampatrice ottica in grado di consentire sovrimpressioni, mascherini, dissolvenze ecc.) e alla macchina da ripresa usata tradizionalmente per le animazioni, consistente in una camera disposta su uno stativo verticale in grado di effettuare zoomate e carrellate su un piano orizzontale in cui si disponevano i disegni o le fotografie da riprodurre. Piano a sua volta composto di parti mobili, in grado cioè di scorrere e ruotare mediante dispositivi più o meno automatici, ovvero manovelle e motorini elettrici (banco di ripresa). La titolazione di un film o di un programma televisivo era ancora ottenuta con procedimenti totalmente manuali: scritte realizzate con tempere e pennelli su cartoni neri o su fogli di acetato trasparente, caratteri trasferibili applicati con la procedura della decalcomania (che furono introdotti solo alla fine degli anni '60), elaborazioni grafiche in bianco e nero basate sulle procedure fotomeccaniche (retini tipografici, stampe al tratto, ovvero prive di mezzi toni). Ma ecco in quegli anni i primi registratori e i primi mixer in grado di consentire il montaggio e la manipolazione elettronica delle immagini. Vengono introdotte anche le prime titolatrici dotate di un generatore automatico di caratteri tipografici. Sul finire degli anni '70, mentre l'industria informatica si avvia a lanciare sul mercato i primi home computer, la post-produzione televisiva comincia ad includere un nuovo tipo di trattamento delle immagini, consentito dai primi generatori di "effetti digitali" inseriti nei mixer più sofisticati (effetti cosiddetti di squeeze zoom, ovvero riconducibili a rapide "evoluzioni" o traiettorie visive basate su moltiplicazioni, ingrandimenti e riduzioni delle immagini nello schermo manovrabili in tempo reale). 16 Il teleschermo si frantuma e si dinamizza attraverso il continuo sdoppiamento di una cornice capace di generare al suo interno una vertiginosa proliferazione di ulteriori cornici. Nell'80 al caleidoscopico repertorio dei nuovi mixer si aggiunge la possibilità di un maggiore controllo dell'intervento sulle immagini grazie all'introduzione delle prime "tavolette grafiche", ovvero di sistemi grafico-pittorici digitali in grado di interagire in tempo reale con l'immagine video. La nuova macchina è destinata quindi non più al montatore ma al grafico, non riguarda più solo la possibilità di elaborare contributi grafici per la post-produzione televisiva, ma consente di produrre ex novo una serie di "quadri" ottenuti per lo più con una simulazione elettronica delle tecniche manuali tradizionali (acquerello, gessetto, aerografo, collage ecc.). In altri termini, con la nuova "tavolozza elettronica" (Paint Box, dal nome del modello più noto e diffuso nel broadcasting TV) è possibile non solo il trattamento elettronico di immagini acquisite in vario modo e da varie fonti (telecamere su banco di ripresa, videonastri, immagini video in presa diretta ecc.), ma si può produrre un’intera animazione frame by frame, inquadratura per inquadratura. Sempre nei primi anni '80, anche il cinema comincia ad avvalersi dell'elettronica per introdurre nuove possibilità espressive nel proprio linguaggio. Le reti televisive cominciano a dotarsi anche di nuove sigle grafiche: i prodotti più richiesti per ostentare il proprio aggiornamento tecnologico erano dei logotipi animati realizzati con tecniche di simulazione tridimensionale. Prodotti che, in quegli anni, comportavano ancora un notevole impegno per le reti sia in termini economici sia per le difficoltà logistiche, progettuali e realizzative implicate. Alla metà degli anni '80 il mondo del personal computer, che nel frattempo si è espanso a livelli di massa grazie soprattutto all'effetto trainante dei videogiochi, si arricchisce di una nuova "filosofia" che riguarda soprattutto le procedure operative, l'interazione dell'utente con la macchina. Si utilizza un nuovo tipo di interfaccia grafica che simula nello schermo "finestre" e "scrivanie", ovvero un ambiente familiare in cui può muoversi agevolmente anche chi non sa nulla di programmazione o di tecniche informatiche. Nasce la cosiddetta editoria personale o da scrivania (desktop publishing), una realtà presto destinata ad interessare direttamente anche il mondo della grande editoria e della grafica professionale. Comincia anche a delinearsi la potenzialità multimediale del computer domestico: all'inizio si tratta di semplici archivi, data base o schedari ipertestuali personalizzabili, sorta di agende elettroniche in cui è possibile inserire suoni, disegni, piccole animazioni. Si tratta già di qualcosa di non riducibile ad un comune programma per l'archiviazione dei dati, utile solo per mettere un po' d'ordine in una massa d'informazioni eterogenee: la flessibilità operativa del nuovo sistema ipertestuale permette di considerarlo un vero e proprio sistema di 17 programmazione, un linguaggio peraltro assai evoluto, in quanto basato su un approccio intuitivo e non già sulle astrazione numeriche del "linguaggio macchina". Negli anni '90 la nuova prospettiva multimediale si diffonde a livello di massa. Il tema della Realtà virtuale diventa all'ordine del giorno. Le reti telematiche diventano una realtà comune, condivisa da milioni di persone ormai in grado di "navigare" in Internet. Le TV satellitari o via cavo rappresentano ormai dimensioni mediatiche in veloce espansione, sempre più basate sull'integrazione e sull'interattività tipica degli strumenti digitali. Nello stesso tempo, la nuova grafica cinetica e multimediale raggiunge una fase di maturità nella quale non c'è più posto per l'ingenua euforia tecnologica dei primi anni '80. Le reti televisive sono sempre più pressate dalla necessità di diversificare e specificare la propria offerta di programmi in un panorama saturo di immagini e tendente all'omologazione che, proprio per questo, impone una rigorosa definizione dell'identità visiva di ogni emittente (occorre insomma rendersi riconoscibili tra migliaia di canali). La comunicazione visiva riconquista così un ruolo essenziale nella dimensione strategica del coordinamento d'immagine, ma questa volta gli aspetti audiovisivi, cinetici, multimediali, tendono ad essere prevalenti rispetto alle tradizionali applicazioni editoriali, ovvero quelle relative alla "carta stampata". Nel frattempo molte figure professionali si sono riconvertite in relazione ai nuovi sistemi produttivi per non estinguersi del tutto. Nelle nostre mappe mentali la dimensione alfabetica, la tradizione tipografica da cui è sorta la comunicazione visiva in senso moderno, è ormai inestricabilmente connessa con la nuova iconografia digitale e con la dimensione avvolgente di una plurisensorialità divenuta interamente programmabile. 18 LA COMUNICAZIONE TELEVISIVA Il linguaggio videografico nelle sigle istituzionali Le sigle dei programmi televisivi cominciano a configurarsi in termini dinamici, a proporsi come un prodotto audiovisivo completo, capace di riassumere in pochi secondi un messaggio a volte anche molto complesso. La sigla funziona come una soglia paratestuale che introduce il testo vero e proprio predisponendo psicologicamente alla visione e all'ascolto del programma che segue.. Ma è anche un prodotto comunicativo autonomo che spesso ha una funzione insieme "metalinguistica" (rispetto al contesto cui rinvia) e autoreferenziale in ragione del proprio carattere di messaggio a dominante estetica (dove cioè l'apertura verso una molteplicità di significati e l'attenzione rivolta alle modalità compositive o all'efficacia degli stimoli sensoriali assumono un ruolo preponderante). La sigla diventa insomma un'ancora sinestetica, qualcosa che fa scattare nello spettatore una sorta di riflesso condizionato, proprio come il suono delle campane del paese annuncia il giorno di festa, crea un'atmosfera, predispone la mente al rito collettivo, raduna la gente nella piazza o nella chiesa. Per approfondire il discorso sulla sigla bisogna però affrontare il tema del progetto grafico applicato alla comunicazione audiovisiva. C'è un aspetto, in particolare, che occorre circoscrivere, quello della sigla come marchio istituzionale di una rete televisiva. Se dunque la sigla videografica assume un ruolo istituzionale (Station Ident ) come impostare la strategia progettuale? Bisognerà probabilmente concepirla fin dall'inizio nel quadro complessivo di un’immagine coordinata: essa sarà il nucleo vivente, l'elemento generativo di tutti gli altri elementi di una linea grafica. Marchio e logo andrebbero dunque concepiti già in vista di una processualità e di un uso legato alle dinamiche audiovisive delle tecniche d'animazione. Graphic Design e Storyboarding Un campo elettivo di applicazione dei metodi qui proposti è quello del progetto grafico applicato ai media a sviluppo temporale. Sebbene qualsiasi testo presuma uno sviluppo sequenziale e un tempo di lettura, qui non intendo riferirmi ai tradizionali supporti editoriali, per esempio libri o riviste, ovvero prodotti cartacei in genere, bensì al settore in continua espansione che si avvale di supporti audiovisivi e multimediali: da quelli tradizionali, sia fotochimici ( film, multivisione con diapositive), che elettronici (televisione, home video), a quelli più recenti basati sulla tecnologia informatica (strumenti digitali, programmi e 19 interfacce per computer, compact disc, reti telematiche, ipermedia, sistemi di realtà virtuale). Durante gli ultimi decenni abbiamo verificato una progressiva tendenza all'integrazione tra le sfere produttive dell'industria editoriale, di quella cinetelevisiva, nonché di quella discografica, nel segno unificante dell'informatica e delle tecnologie digitali. Informazione e spettacolo, cultura e telecomunicazioni, formazione e pubblicità, rappresentano ormai delle realtà operative facilmente integrabili, rese omogenee da una medesima tecnologia dominante. Pressoché tutti i prodotti non cartacei a sviluppo temporale che possono richiedere l'intervento qualificato di un graphic designer (film, video, canali e programmi televisivi, pagine Internet, audiovisivi didattici, multivisioni, prodotti ipermediali, insegne cinetiche su schermi programmabili ecc.), esigono, almeno per ottenere risultati potenzialmente eccellenti, un’accurata pianificazione della sequenza di quelle inquadrature che occorre presentare al pubblico in un determinato ordine (non necessariamente univoco o lineare) e prevedendo uno sviluppo del messaggio per un certo arco di tempo. L'aspetto forse più difficile da controllare per chi si è specializzato nella comunicazione visiva, riguarda la necessità di coniugare le immagini con i suoni in un processo dinamico che richiede particolari attitudini e conoscenze tecniche. Ma questa difficoltà è notevolmente ridotta dall'uso di un metodo progettuale che può tradurre in forma grafica sia la dimensione sonora, sia l'evoluzione cinetica delle forme, mediante opportune notazioni convenzionali. Del resto sono a volte gli stessi strumenti digitali odierni a suggerire la possibilità di gestire entità eterogenee, come immagini e suoni, attraverso un medesimo procedimento di visualizzazione o uno stesso sistema operativo. Ciò può favorire il dialogo tra professionisti ed esperti in discipline anche molto distanti tra loro. E dunque rendere più agevole il lavoro di équipe. Già oggi i programmi usati, ad esempio, da un musicista per comporre brani musicali al computer, sono sostanzialmente simili (parlano lo stesso 'linguaggio iconico') di quelli usati da un grafico per elaborare immagini. Se può essere facile, anche per un osservatore ingenuo, capire cosa stia facendo un tizio alle prese con tela, pennelli e tubetti di colore, o un altro intento a muovere le mani sulla tastiera di un pianoforte, non così semplice è attribuire al primo colpo d'occhio un ruolo professionale specifico a qualcuno la cui attività prevalente consista nel muovere manualmente un mouse fissando con lo sguardo il monitor di un computer. Un tempo il grafico lavorava esclusivamente con testi e immagini statiche e bidimensionali destinati ad essere riprodotti con un qualche procedimento di stampa. Oggi nel curriculum di ogni graphic designer si trova, in genere, una maggior varietà di settori d'intervento: oltre al progetto grafico per la stampa editoriale troviamo sempre più spesso 20 sigle televisive, sequenze di tipografia cinetica, impaginazioni di siti Internet, interventi grafici per filmati pubblicitari, interfacce di sistemi multimediali. Qualsiasi progetto d'immagine coordinata di un qualche rilievo implica ormai il probabile ricorso a varie applicazioni "sequenziali" che possono giovarsi di un uso mirato e consapevole dei metodi di storyboarding. Uno dei principali settori d'intervento per l'esperto in grafica cinetica è quello della comunicazione televisiva. Le reti televisive tradizionali utilizzano l'etere come canale di trasmissione. Oltre alla trasmissione via etere, esiste oggi la possibilità d'inviare programmi televisivi attraverso il cavo e il satellite. Le tecnologie digitali, unite all'uso dei più evoluti sistemi di trasmissione, consentono di sviluppare una comunicazione bidirezionale tra utenti di personal computer che è destinata col tempo a ridurre la centralità della ormai concettualmente obsoleta TV generalista, quella cioè che tratta un po' di tutti gli argomenti e invia ad una massa più o meno indifferenziata di utenti messaggi a senso unico (privi di feedback, ovvero della possibilità di una puntuale risposta del destinatario in grado d'influenzare lo svolgimento del processo comunicativo). Già oggi l'uso del cavo consente di sviluppare una comunicazione più mirata, tendenzialmente interattiva, basata sulle richieste specifiche dell'utente. Anche la TV satellitare, consentendo la copertura di territori ben più vasti dei confini nazionali, tende a specializzarsi in senso tematico (su scala planetaria anche occuparsi di un singolo argomento, per quanto d'interesse "minoritario", può rivelarsi un buon affare). Inoltre, proprio l'adozione di una scala transnazionale, con la conseguente esigenza di ovviare alle difficoltà legate alle barriere linguistiche e ai diversi contesti culturali, spinge i produttori a fare un ampio uso della comunicazione visiva. Oltre alla necessità di distinguersi, di rendere riconoscibile il proprio messaggio tra una molteplicità di emittenti, le reti televisive devono ovviamente promuovere continuamente la loro immagine al fine di accrescere il numero dei propri utenti, di mantenere stabile nel tempo il buon rapporto di empatia già stabilito con un certo numero di spettatori, nonché di ancorare l'utente alla programmazione quotidiana mediante continui richiami seduttivi tesi ad evitare che questi cambi canale approfittando magari di qualche "punto debole" del flusso audiovisivo (ad esempio, i momenti di passaggio tra un programma e l'altro). In questo contesto, il ruolo strategico del Graphic design può essere decisivo. Anche per le reti televisive vale la regola che l'elemento su cui si fonda l'intero progetto dell'immagine coordinata è rappresentato dal marchio d'identificazione. Marchio e/o Logo rappresentano dunque quel centro visivo e concettuale che dovrebbe riassume, già al primo colpo d'occhio, la "missione" fondamentale, l'identità stessa dell'emittente (il suo modo di costituire un punto di vista, una mappa della realtà). Ogni punto di vista 21 è necessariamente parziale, tanto più quando pretende di essere rivelatore di una presunta realtà oggettiva. Ma oggettivo, per così dire, può essere solo l'occhio in quanto cosa, in quanto concreta entità percettiva, non lo sguardo che esso dischiude o il mondo che esso traduce in una mera proiezione visiva. Un’emittente può, certo, risultare più o meno credibile. Ma questa immagine positiva dipende in larga misura dal modo in cui presenta anzitutto se stessa e costruisce la propria identità produttiva. Il Logo è l'impronta visiva che trasforma un’organizzazione necessariamente anonima e collettiva in un soggetto dotato di un carattere unico e inconfondibile, di una precisa "personalità". Senza una firma autenticata che attesti l'identità di un soggetto determinato, difficilmente una qualsiasi testimonianza può risultare credibile. Allo stesso modo, senza un logo (l'equivalente simbolico di una firma), una qualunque emittente non potrebbe neppure essere riconosciuta come tale o distinguersi dalle altre. Per questo ogni rete televisiva ha un suo logotipo animato (Station Ident) che viene trasmesso continuamente durante la programmazione giornaliera per segnalare ai telespettatori la presenza costante di un soggetto che si assume la responsabilità di quanto trasmesso e per ricordare, a chi si fosse casualmente "messo in ascolto" (o, meglio, in contatto visivo), su quale canale è sintonizzato il suo televisore. Il logo dell'emittente avvia un gioco di scatole cinesi: la rete stessa è il contenitore più grande, al cui interno possiamo trovare i singoli programmi (che a loro volta avranno bisogno di un involucro e di un segnale d'identificazione). Ciascun programma può prevedere una sigla animata, titoli di testa o di coda ed eventuali altri elementi di titolazione elettronica basati su scritte in movimento (tipografia cinetica), oltre che un certo numero di altri contributi grafici (indici segnaletici o cornici d'impaginazione, intersigle, cartine geografiche, tabelle e diagrammi esplicativi, illustrazioni e animazioni di vario genere, scenari virtuali ecc.). Più tutti questi elementi, per quanto necessariamente eterogenei, appaiono "pensati" e integrati tra loro, ispirati ad una medesimo repertorio linguistico, collegati da una coerente linea grafica, più il messaggio complessivo dell'emittente risulterà originale e ben configurato rispetto al target di riferimento. La risultante globale di tutte le componenti sensoriali "periferiche" (i processi di configurazione linguistica), unite a quelle "centrali" riferibili ai contenuti specifici dei programmi trasmessi, determina l'Immagine in senso ampio di un'emittente. Entro tale accezione allargata del termine immagine, è chiaro che al Graphic design, inteso come ambito professionale che pur si occupa in prevalenza di aspetti visivi, non può essere attribuita la responsabilità esclusiva dell'efficacia del risultato finale, ma solo dell'aspetto strettamente legato alla messa a punto, per grosse linee, di un progetto unitario, di un manuale d'immagine 22 coordinata e di un uso adeguato delle strategie di storyboarding. Il cuore di tale progetto sarà, come sempre, costituito dal Logo - o meglio, trattandosi nella grafica TV di concepire immagini semoventi - dal Logo pensato fin dall'inizio come un oggetto dinamico (una sorta di creatura vivente, capace di crescere e di camminare con le proprie gambe). Il progetto di uno Station Ident richiede dunque, in forma più o meno esplicita, la definizione di un più ampio contesto d'immagine coordinata (Identità di Rete). “CORPORATE IDENTITY = significa unità di contenuti, dichiarazioni e comportamenti di un'azienda o di un'organizzazione”. “CORPORATE DESIGN = significa che l'espressione centrale di un'impresa - dunque la sua 'filosofia' - deve essere visualizzata nei prodotti e quindi essere riconoscibile per l'utente (identità interiore ed esteriore, coerenza di espressione tra interno ed esterno)”. (Cfr. Bernhard E. Bürdek, 1991) Corporate identity di una rete televisiva: q premesse metodologiche q ideologia (idea-guida) q logo (struttura e verifiche a tutti i livelli e con tutti i supporti) q marchio (genesi, struttura, posizionamento, verifiche) q metamorfosi del marchio q versioni tridimensionali del marchio q lettering televisivo e tipografico q relazioni previste tra marchio e logo q videografica (sigle, supporti informativi, inserti, illustrazioni, identificazione e impaginazione di programmi, riferimenti per effetti speciali, sistemi modulari per processi automatici) q grafica editoriale per stampati e oggetti promozionali (penne, orologi, bottoni, magliette ecc.) q pagine per Internet q set-design (scenografie, arredamenti) q elementi architettonici di valore simbolico e allestimenti per esposizioni o manifestazioni culturali in genere q design dei costumi q design del suono q autopromozione di rete e promozione programmi 23 MARCHIO E LOGO AL CENTRO DELL'IMMAGINE COORDINATA Nella comunicazione mediatica c'è il problema di conferire una personalità riconoscibile non solo al singolo programma o prodotto audiovisivo ma anche all'emittente che lo propaga via etere o lo irradia via satellite o lo invia in rete attraverso un cavo. In questo contesto, il ruolo strategico dei segnali visivi d'identificazione, o meglio di quelle componenti spesso considerate del tutto periferiche, quasi fossero mere cornici decorative rispetto ai contenuti trasmessi, non può che rivelarsi invece d'importanza decisiva nello stabilire e mantenere un contatto "empatico" con lo spettatore. Non tutti, ovviamente, posseggono gli strumenti culturali per rendersi conto che, anche in questo settore, è spesso la qualità di un progetto d'insieme ben coordinato a fare la differenza. Committenza e strategie progettuali Come in tutte le attività progettuali, le prestazioni professionali del Graphic Designer si basano sul rapporto con una committenza e sull'analisi rigorosa delle esigenze poste in gioco dalla richiesta che di volta in volta viene formulata. Esistono vincoli interni alla disciplina (necessità metodologiche, limiti tecnici, regole da rispettare e di cui il "profano" può ignorare del tutto l'esistenza). Ma esistono anche parametri esterni che dipendono solo dal particolare contesto entro cui si colloca questo o quell'intervento (caratteristiche del destinatario a cui ci si rivolge, risorse economiche impegnate per l'operazione, situazione determinata dalla concorrenza ecc.). Il colloquio preliminare con il cliente deve dunque essere considerato uno dei momenti chiave dell'esercizio professionale, e deve prevedere uno scambio di informazioni che sia il più ampio e completo possibile. Solo una corretta impostazione o riformulazione del problema può rendere efficace la ricerca di una soluzione da proporre. Solo un accordo iniziale sui criteri di valutazione del prodotto può scongiurare imbarazzanti equivoci o arbitrarie ingerenze altrui sul processo ideativo. In questa fase si definiscono ruoli e competenze, ci si accorda sugli onorari, si acquisiscono informazioni preziose per determinare i requisiti di cui tener conto nel progetto. Le regole da seguire sono quelle tipiche ormai di tutte le discipline del design, applicate e consolidate nel tempo anche dagli operatori impegnati nelle strategie pubblicitarie. Occorre tener presente che uno degli aspetti preliminari e più qualificanti di una strategia progettuale riguarda la capacità di reinquadrare le richieste del cliente cercando di far emergere nel 24 dialogo, al di là delle eventuali ingenuità o idee precostituite dell'interlocutore, l'effettiva natura del problema. Un tipico elenco indicativo dei punti da affrontare nel briefing con il cliente può essere riassunto nel seguente schema: q Condizioni del mercato e Missione del cliente q Posizionamento del prodotto q Obiettivi da conseguire q Destinatari da raggiungere e tipo di rapporto da instaurare q Status desiderato e contesto culturale di riferimento q Messaggio chiave q Tono del messaggio q Informazioni istituzionali o aziendali q Caratteristiche del prodotto q Innovazione da introdurre q Vincoli tecnici q Requisiti di legge q Data di consegna q Formato previsto q Budget stanziato q Specifiche esigenze produttive Le scelte progettuali si baseranno dunque su queste informazioni preliminari raccolte nel colloquio con il cliente. Sarà opportuno in alcuni casi (in base alla psicologia e al ruolo dell'interlocutore) offrire almeno tre versioni alternative del progetto di massima al cliente, in modo che questi non si senta posto di fronte ad una sola ipotesi, ma neppure "preso nel dilemma" di dover scegliere tra due possibilità. Riassumiamo in sette punti gli argomenti da chiarire con le domande rivolte al cliente: 1) - Stato desiderato (obiettivo, risultato perseguito) 2) -Stato attuale (definizione del contesto presente) 3) - Stato problematico (impedimenti e vincoli che ostacolano il cambiamento) 4) - Risorse necessarie per ottenere lo stato desiderato 5) - Criteri adottati per controllare la validità del processo evolutivo intrapreso al fine di raggiungere l'obiettivo prescelto (possibilità di feedback o "retroazione autocorrettiva") 6) - Ricerca mnemonica delle modalità operative già collaudate che, in situazioni analoghe, hanno consentito di perseguire con successo un risultato in base alle stesse risorse attualmente disponibili. 7) - Valutazione anticipata delle risorse che si è disposti ad impiegare per realizzare il nuovo progetto. 25 IL LINGUAGGIO VIDEOGRAFICO Gli stilemi dominanti Quali sono oggi i linguaggi e gli stilemi più usati nella videografica e nell'infodesign? Esiste un rapporto tra questi linguaggi e le avanguardie artistiche più o meno recenti? Viviamo in un'epoca caratterizzata dall'eclettismo e dalla contaminazione dei linguaggi. La tecnologia elettronica e informatica ha contribuito in modo sostanziale a determinare questo contesto storico. La condizione della post-modernità è stata definita in svariati modi all'interno degli ormai innumerevoli contributi teorici, ma sembra comunque connessa strutturalmente con i cambiamenti dello scenario produttivo nella realtà industriale a partire dalla fine di un ruolo egemone delle tecnologie meccaniche. Sul piano dei linguaggi della grafica questi fenomeni hanno portato ad una perdita della centralità ideologica del cosiddetto Stile tipografico internazionale, inteso come quell'approccio sistematico che perseguiva la sintesi geometrica, la costruttività del segno e un ideale riferimento alle metodologie razionali, e che trovava la sua maggiore legittimazione teorica nelle rigorose necessità compositive imposte dalla moderna tipografia meccanica. Anche se, per contro, oggi gran parte delle istanze di un metodo progettuale di ascendenza gutenberghiana sembrano rilanciate proprio dalla diffusione della logica digitale e, dunque, da un’ennesima riscossa, per così dire, dell'uomo alfabetico rispetto alla dimensione iconico-orale implicita nel flusso elettronico della cultura video o paleotelevisiva (quando cioè la comunicazione elettronica era ancora tutta improntata sulle caratteristiche dominanti delle tecniche analogiche). Ecco allora la coesistenza dell'approccio moderno con la deflagrazione, la disseminazione e la contaminazione post-moderna dei linguaggi delle avanguardie artistiche del '900, divulgati ormai a livello di massa proprio grazie alle tecnologie elettroniche, insieme a recuperi di stilemi premoderni, il tutto in un'ottica performativa, ovvero sostanzialmente anti-ideologica e pragmatica. Sul piano della nuova realtà tipografica, emblematica appare la palese influenza odierna (su scala non certo locale, bensì quasi come una sorta di International Style "alternativo") di un linguaggio grafico come quello, ad esempio, di Neville Brody, il quale sfrutta a getto continuo, spesso in anticipo sugli altri autori, la vasta gamma di possibilità manipolatorie offerte dal computer anche nelle più consuete applicazioni editoriali. L'avvento delle tecniche digitali nei linguaggi della videografica ha avuto un evidente impatto innovativo, al punto che l'attuale popolarità di questa disciplina è in gran parte dovuta all'irruzione della computer animation e della post-produzione digitale nella dimensione televisiva, 26 avvenuta all'inizio degli anni '80. La grafica televisiva, ovviamente, esisteva anche prima dell'avvento di queste tecnologie, ma la sua realtà disciplinare (nonché il suo basarsi su tecniche puramente manuali e cinematografiche) non rappresentava certo una novità o un fenomeno che poteva interessare un vasto pubblico, ma solo la cerchia molto ristretta degli addetti ai lavori. Lo sviluppo storico della grafica televisiva è in un certo senso gravato da una sorta di vizio d'origine, poiché agli inizi della storia della televisione (per noi, in Italia, si parla degli anni '50) l'intervento grafico si riduceva sostanzialmente ai rulli di testa e di coda delle trasmissioni. In questo senso la grafica TV si trovava oggettivamente in ritardo rispetto al dibattito culturale che già caratterizzava la grafica della carta stampata. Occorre comunque osservare che gli esordi della televisione italiana furono pur sempre all'insegna di un ottimo progetto d'immagine coordinata, quello impostato da Erberto Carboni, uno dei personaggi chiave del fecondo contesto disciplinare milanese di quegli anni. Accanto a quello decisivo di Carboni, troviamo inoltre i pregevoli benché sporadici contributi di autori come Albe Steiner e Armando Testa. Nel periodo che va dagli anni '50 alla fine degli anni '70 troviamo poi saltuariamente impegnati con la realtà televisiva grafici di grande prestigio come Bruno Munari, Giancarlo Iliprandi, Pino Tovaglia, Hans Waibl, Sergio Ruffolo. Grafici, animatori ed artisti visivi tentarono in vari modi di arginare la "naturale" tendenza del mezzo televisivo a sottrarsi alla logica del progetto e al rigore etico della ricerca applicata alla comunicazione per immagini. Artisti come Pino Pascali ed Eugenio Carmi, animatori come Lodolo, Manfredi e Piludu, grafici come Alfredo De Santis, Piero Gratton e Michele Spera, si misurarono con questo arduo e spesso ingrato compito. Nel 1979 fa la sua prima irruzione nel linguaggio televisivo la dimensione pirotecnica degli "effetti elettronici": si deve un primo sostanzioso apporto in questa direzione al regista bulgaro Valerio Lazarov che utilizzò i nuovi artifici retorici all'interno degli spettacoli di varietà. In seguito, un apporto pionieristico sul fronte delle nuove tecniche di computer graphics fu dato da Guido Vanzetti. Dai primi anni '80 ad oggi la videografica ha attraversato sostanzialmente tre fasi. La prima, che potremmo definire ingenua, si basava sull'uso e sull'abuso degli effetti speciali della post-produzione televisiva. Alcuni registi, come Francesco Crispolti e Sergio Spina, riuscirono comunque a fare un uso non gratuito della grafica elettronica. La seconda, intorno alla metà degli anni '80 (che viveva ancora l'ebbrezza della nuova tecnologia), affermava su scala internazionale la logica omologante dei Flying Logos (logotipi volanti, per lo più cromati e luccicanti, realizzati in 3D); era ancora l'epoca in cui realizzare una sigla tridimensionale comportava un notevole impegno produttivo, dunque 27 un’effettiva possibilità di ostentare pubblicamente le proprie risorse tecnologiche ed economiche. Ogni rete televisiva si sentiva pertanto obbligata a raggiungere quello standard per mettersi al passo con i tempi, per uniformarsi al luogo comune del meraviglioso tecnologico. Anche la Rai introdusse la simulazione tridimensionale nei nuovi logotipi che identificavano le tre reti nazionali con le forme della sfera, del cubo e della piramide (si trattava del primo tentativo di trovare nuove modalità autopromozionali e di coordinamento d'immagine, a partire da un logo, disegnato da Giorgio Macchi, completamente diverso da quello originario di Carboni). Ma lo scenario complessivo risultava ancora sostanzialmente caotico. Le rare eccezioni di uso appropriato e originale delle nuove tecnologie, presenti anche nella TV italiana (pensiamo, ad esempio, alle sigle di Mario Sasso o ai lavori di Mario Convertino a partire dalla trasmissione Mister Fantasy), non potevano ovviamente modificare quella linea di tendenza. Ma bisogna tener conto che anche durante tale periodo continuavano pur sempre gli apporti "esterni" di alcuni artisti come Ugo Nespolo e Pablo Eucharren (chiamati da Mario Sasso a lasciare il loro segno nella linea grafica di Rai Due), di alcuni grafici e designer come Massimo Vignelli, Pierluigi Cerri, Tullio Pericoli, Sergio Salaroli, Ettore Vitale, nonché promettenti giovani leve come Enzo Sferra e Vittorio Venezia. Dopo quella seconda fase ancora euforica, si arriva agli anni '90, quando le reti più lungimiranti cominciavano ad abbandonare l'enfasi tecnologica e ad assumere un atteggiamento più circostanziato e maturo. Da un lato la tecnologia più avanzata entrava a far parte ormai della routine produttiva, determinando un nuovo assetto dell'organizzazione del lavoro, dall'altro lato si riproponeva l'esigenza di uscire dall'omologazione e di ricercare una più specifica identità linguistica e culturale. Con l'avvento della TV via cavo e via satellite tale necessità di trovare un approccio più mirato e meditato alla comunicazione visiva diveniva ancor più evidente. La nascita della rete italiana RAISAT consentiva un’inedita possibilità di sperimentazione linguistica e di programmazione unitaria dell'immagine videografica che inaugurava emblematicamente gli anni '90: un esempio, pressoché unico nel suo genere, d'intervento coordinato in termini globali da uno specialista del settore, Mario Sasso, il quale a sua volta si avvaleva in modo mirato dell'apporto di artisti noti per il loro lavoro quali autori indipendenti (Baruchello, Boetti, Canali, Cucchi, Luzzati, Nespolo, Paik, Plessi). Intanto la TV privata, a cominciare dal gruppo Fininvest, il più importante concorrente della RAI, introduceva una dimensione più veloce e pragmatica nella grafica televisiva, avvalendosi in modo diretto delle esigenze del marketing. Dal 1982 il regista Lazarov si trovò a capo di una struttura operativa (Videotime) cui la Fininvest affidò la produzione coordinata delle proprie sigle di rete. Emblematica appare 28 oggi la dichiarazione di Lazarov che già nel 1986 affermò la non opportunità, forse anche per la rilevata tendenza del telespettatore a fare zapping proprio nei momenti di passaggio tra un programma e l'altro, di produrre sigle più lunghe di 8-10 secondi. Finisce così, nel segno del più lucido realismo commerciale, lo spazio ipotetico della "sigla d'autore", ovvero di un prodotto capace di rendersi in parte autonomo rispetto alle esigenze strettamente segnaletiche di un palinsesto televisivo. Oggi la videografica, dunque, nella sua fase "matura", non può che tornare ad inscriversi nella logica del progetto, dell'identità di rete, di una Brand Identity che trova un luogo esemplare di manifestazione nell'opera in campo internazionale di un designer televisivo che può considerarsi il maggiore esperto in tale settore, l'inglese Martin LambieNair. 29 DECALOGO OPERATIVO Quali conclusioni, naturalmente provvisorie, possiamo trarre riassumendo quanto abbiamo finora esposto? Proviamo a riassumerle in 10 punti. 1) Il segno a mano libera Evitare l'errore grossolano di considerare superata la dimensione espressiva del disegno a mano libera e delle tecniche grafico-pittoriche tradizionali. Occorre invece continuare ad esercitare l'azione congiunta dell'occhio e della mano, ovvero, parafrasando Arnheim, del padre e della madre di ogni espressione artistica visiva. Storicamente il disegno rappresenta nel mondo delle arti visive (che un tempo venivano comprese proprio nella dicitura di "arti del disegno") non solo uno strumento creativo elementare, ma qualcosa di più rispetto ad un mero strumento qualsiasi: esso è stato inteso talora come la forma primaria di manifestazione del pensiero visivo. Con la padronanza del disegno, ad esempio, l'artista rinascimentale ha trovato la possibilità di rivendicare uno statuto teorico, una nuova dignità intellettuale, un ideale margine di autonomia disciplinare all'interno della propria operatività finalizzata. Il termine design testimonia ancora oggi il permanere di questo stretto legame semantico tra competenza grafica e progettualità consapevole. Al punto che il termine composto graphic design apparirebbe quasi ridondante se non fosse giustificato dal riferimento ad un particolare settore applicativo. Sebbene oggi il computer possa tendenzialmente assumere in molti casi, nelle mani del progettista, il ruolo di strumento elementare, una reale competenza nell'uso del computer presume pur sempre che si sappia decidere in quali occasioni tale uso risulta appropriato e conveniente. L'aspetto paradossale, infatti, è che proprio la diffusione del computer ha comportato un rilancio della "manualità" e l'affermazione di un valore aggiunto del segno a mano libera. 2) Lettere dell'alfabeto Ricordarsi che la scrittura alfabetica costituisce ancor oggi una delle strutture portanti della comunicazione visiva, e trattarla dunque come tale: essa è il modello di ogni processo di astrazione del segno, tanto più da quando le sue forme si sono coniugate storicamente con le moderne tecniche tipografiche (sia meccaniche che elettroniche), dunque il lettering e la sintesi grafica rappresentano ancora il termine essenziale di riferimento in ogni strategia di visual design. Occorre forse ritrovare una capacità di stupirsi per l'aspetto enigmatico, diremmo quasi "metafisico" (al pari di un dipinto di De Chirico), che la scrittura può assumere quando si opacizza poeticamente la sua 30 transitività, la sua subordinazione alla sfera dell'utile, alla mera funzionalità informativa. Immaginiamo, sia pure per un attimo, di perdere il codice, la chiave interpretativa che rende trasparente un testo al suo significato convenzionale: insegne luminose tipo Las Vegas, scritte mobili e incisioni marmoree, cartelli segnaletici e targhe di ottone, messaggi promozionali e titoli in video, lapidi e graffiti urbani...tutto ciò potrebbe apparire agli occhi di un ipotetico archeologo del futuro come un corpus frammentario di preziosi "geroglifici"(sacre incisioni) che tanto più sembra riassumere lo "spirito di un'epoca", quanto più se ne sia smarrito il senso immediato, il significato contestuale e letterale, al punto da poterlo leggere, con sguardo straniero, come un'arcana sequela di segni puramente analogici, tracce significanti e tuttavia insondabili. 3) Fotografia e collage Il vasto e fecondo tema della Foto-Grafia (Albe Steiner) si arricchisce oggi di ulteriori spunti critici legati alle più recenti opportunità tecniche. Il taglio dell'inquadratura è un elemento compositivo essenziale sia per il fotografo che per il grafico multimediale. L'inesperto tende ad eludere la necessità di questo "taglio", a mettere tutto in scena, a non utilizzare le potenzialità comunicative del fuoricampo. A volte, per verificare la leggibilità di un testo, il grafico ricorre all'espediente di coprire (tagliare) la metà inferiore delle lettere. L'inquadratura fotografica impone sempre alla nostra immagine del reale una sorta di analoga prova di riconoscibilità del segno iconico. Ma in genere l'interesse estetico di una foto sta proprio nell'effetto décadrage (disinquadratura) che produce rispetto alle convenzioni pittoriche, ai canoni tradizionali della rappresentazione figurativa. E occorre saper trasformare questo limite dell'inquadratura in una deliberata selettività dello sguardo. La logica indiziaria del fotografico attraversa tutta l'arte del nostro tempo. Scrittura "automatica" mediante la luce: il procedimento fotografico ha introdotto la categoria estetica dello straniamento tecnologico, costituendo il paradigma storico di ogni successivo rapporto tra arte e tecnologia. Stampa a contatto, fotomontaggio, collage: le avanguardie artistiche hanno prefigurato l'orizzonte di una scrittura iconica che va ben oltre il più consueto utilizzo in chiave documentaria della fotografia. Oggi, tuttavia, bisogna anche porre il problema etico di un possibile uso disonesto e mistificatorio della manipolazione digitale. (Cfr. Albe Steiner, Foto-Grafia. Ricerca e progetto, Laterza, Bari 1990). 4) Immagini in sequenza Il racconto di una storia mediante un numero necessariamente limitato di inquadrature chiave o immagini salienti pone in gioco le ormai consolidate acquisizioni linguistiche del montaggio cinematografico, ma a queste si possono aggiungere quelle ulteriori modalità di transizione 31 tra un'immagine e l'altra che in parte provengono dal cinema sperimentale o d'avanguardia, nonché dalle tecniche d'animazione tradizionali, ma per altri versi presumono ulteriori artifici o effetti retorici introdotti a partire dalle tecniche elettroniche e informatiche più recenti. Il facile utilizzo delle nuove tecniche di post-produzione, consente ad esempio di giustapporre all'interno della stessa inquadratura diverse fasi di svolgimento dello stesso evento, come ha mostrato esemplarmente Greenaway nel suo Dante's Inferno. Chi opera nei media a sviluppo temporale deve dunque conoscere l'intero arco di queste possibilità espressive. 5) Il movimento del corpo L'importanza del movimento, in particolare di quello relativo alla percezione corporea, quindi al senso cinestetico, tende ad essere sottovalutata da chi opera nel campo della comunicazione visiva. Si tratta bensì di un fattore essenziale anche nel determinare il nostro orientamento nello spazio, dunque il coordinamento e l'efficacia stessa delle nostre azioni. I movimenti e i ritmi corporei rivestono inoltre un ruolo importante nella sfera auditiva o dell'estetica sonora. Lo studio del movimento è ancora oggi una premessa di molte pratiche espressive. L'arte moderna, una volta acquisita sul piano del sapere accademico la morfologia dinamica del corpo umano (la cosiddetta anatomia artistica), si è potuta concentrare nel '900, grazie al cinema, sul flusso reale del movimento corporeo, all'inizio mettendolo spesso in relazione con le metalliche durezze e la geometrica potenza della metropoli paleoindustriale, ovvero con la cinetica delle macchine (l'universo meccanico dell'industria pesante), in seguito sviluppando una ricerca a partire da quel Fluxus multisensoriale ininterrotto che scorre nel sistema nervoso dell'informazione "in presa diretta", condizione evidenziata oggi esemplarmente, su scala planetaria, dalla versione digitale del dispositivo elettronico, dal carattere sempre più avvolgente dell'ecosfera mediatica. Nell'epoca del cyberspace il discorso appare quasi capovolto: ora sono le macchine ad assomigliare sempre più ad un organismo vivente. In ogni caso, anche nel più recente immaginario dell'animazione digitale, la dimensione del movimento resta sostanzialmente antropomorfa: tutto ciò che si muove in qualche modo ci somiglia. 6) Colore ed emozione Un aspetto che non ho trattato, ma che va comunque ritenuto essenziale nel determinare la qualità della comunicazione visiva, è quello relativo all'uso espressivo del colore. Le persistenti ricerche in campo pittorico dell'arte odierna restano un importante punto di riferimento anche per il progettista multimediale. L'implicita vocazione espressionistica, chiamata in causa da ogni poetica tendente a privilegiare l'impatto corporeo della sensazione cromatica (coinvolgente 32 in modo palese la più intima sfera emozionale dell'individuo), rispetto alla neutra riflessività del puro concettualismo, ha sempre fatto nell'arte da necessario contrappunto ad ogni rigoroso "primato del disegno" (o della linea) tipico, ad esempio, dell'approccio costruttivista, in quanto interessato più ai sostantivi (l'oggettività delle strutture portanti) che agli aggettivi (sensazioni ed emozioni contingenti, legate a mutevoli risposte soggettive). La vaghezza del pittorico, insomma, in quanto opposta alla chiarezza del lineare. Ma in pittura il colore è stato pure analizzato con fredda precisione, com'è noto, a partire dal post-impressionismo di Seurat. Scomposto nelle sue componenti primarie alla luce di una visione razionale, scientifica, come quella della moderna psicologia della percezione. Al punto che oggi, del colore, se ne può certo fare un uso assai consapevole: non solo, quindi, come esito di una personale attitudine o sensibilità espressiva, ma come scelta strategica che può essere persino calibrata su presunte attese intersoggettive o sulle esigenze psicologiche di un nostro ipotetico destinatario. 7) Linea del tempo Richiamerò l’attenzione sulla nozione di timeline, ritenuta molto importante per definire non solo l'orientamento nel tempo delle sequenze audiovisive, ma anche per le numerose implicazioni teoriche relative a quelle forme simboliche che, nelle diverse culture, segnano le più comuni modalità di rappresentazione del divenire, dunque l'immagine convenzionale della storicità degli eventi (l'idea stessa di "storia") in un determinato contesto antropologico. Che cosa sia il tempo, il flusso del divenire in quanto tale, è certo una complessa questione ontologica, una dimensione originaria dell'esperienza difficile da definire senza uno spazio di riferimento o in assenza di un qualche orizzonte culturale, filosofico (nonché, forse, "poetico") in base a cui orientarsi. 8) Tecniche come linguaggi Così come le forme della scrittura dipendono anche dagli strumenti utilizzati per scrivere, le nuove tecniche della grafica, benché tendenti alla simulazione delle procedure già collaudate, richiedono l'invenzione di nuovi linguaggi. Occorre non solo fare qualcosa che non sia stato già fatto, ma spesso anche reinventare il modo di fare, ad esempio, trasformando gli eventuali problemi tecnici in opportunità espressive, oppure rinunciando, se è il caso, a delle possibilità tecniche, quando queste non trovano un’adeguata giustificazione in termini di linguaggio. Il compito di un autore è allora quello di saper interpretare le inedite potenzialità espressive degli strumenti che, di volta in volta, si trova ad affrontare. 9) Messaggi multisensoriali 33 Per trarre le opportune conseguenze pratiche dal nostro discorso sulle tre sequenze parallele, suggeriamo di affrontare un tema, un problema comunicativo qualunque, cominciando sempre con l'impostare una mappa delle idee. Al centro della mappa si metterà dunque l'idea-guida, l'argomento da sviluppare. Da questo centro faremo partire tre linee che indicheranno le nostre ormai ben note categorie sensoriali (visiva, auditiva, cinestetica). Le tre linee ci collegano, in sostanza, con tre contenitori (le categorie, appunto). Da ogni contenitore, che nella mappa può essere rappresentato come un cerchio, si dipartono a loro volta un certo numero di grappoli associativi. In altri termini, lo stesso tema solleciterà in noi una serie di libere associazioni, ma l'importante è sviluppare questi concetti in forme concrete, tenendo cioè presenti le possibili implicazioni "estetiche" per ciascuna delle tre modalità sensoriali dominanti. Solo dopo aver costruito la mappa potremo eventualmente procedere all'impostazione di un percorso sequenziale univoco (come quello, per intenderci, di uno storyboard tradizionale), stabilendo altresì un più preciso parallelismo fra le tre colonne previste dal metodo (video, audio, azioni). 10) L'impronta del soggetto Ovvero le strategie di auto-rappresentazione: la traccia, il riflesso speculare o la mappa con cui un autore mette in sigla se stesso, anche quando non intende proporre esplicitamente la propria opera come un vero e proprio autoritratto. Ciascuno di noi lascia, che lo voglia o no, le proprie impronte digitali in quel che realizza operando in un certo modo. La messa in scena della singolarità di un soggetto è un tema chiave della ricerca artistica (l'artista si esprime sempre in prima persona, in quanto soggetto idealmente "autonomo"), ma è anche un tema del Design quando si tratta d'interpretare visivamente la "personalità" di una complessa organizzazione (un'azienda, una rete TV, un ente pubblico) come se questa fosse, appunto, una persona. Nel campo delle strategie di Corporate Design o immagine coordinata, la definizione di cosa sia l'impronta di un soggetto diventa, se possibile, ancora più complicata che nelle pratiche artistiche cosiddette autonome. Problema teorico che il progettista non può ignorare. Egli, infatti, si trova in quella che abbiamo definito una "meta-posizione": non si esprime, come l'artista, in quanto singolo autore, ma per conto di qualcuno o di qualcosa. Tuttavia, anche la soggettività del designer non può non lasciare qualche impronta... 34 INTRODUZIONE ALLA COMPUTERGRAFICA TRIDIMENSIONALE Nel 1987 fece per la prima volta la sua comparsa su un personal computer un programma che permetteva a chiunque di creare le proprie immagini "sintetiche" (opposte cioè a quelle naturali) anche se a costo di fatica e dedizione. Il programma era Sculpt 3D, il computer era l'Amiga, e con poco più di un milione di lire di allora si poteva iniziare ad esplorare il mondo del "ray-tracing", producendo magari un'immagine al giorno. Oggi, con l'equivalente di quell'investimento, si possono realizzare opere di complessità enormemente superiore, sfruttando software sempre più facili ed intuitivi da usare, e computer capaci di produrre centinaia di immagini al giorno. Non può stupire quindi la proliferazione di una nuova generazione di artisti ed aspiranti tali, che fanno del computer il loro strumento d'elezione. Naturalmente il calcolatore non crea nulla da solo, ma rappresenta uno strumento di potenza inaudita, una sorta di leva capace di sollevare l'artista dai compiti più gravosi permettendogli di focalizzare l'attenzione su ciò che più conta: l'Opera. Le basi della tecnica Partiamo quindi da quella che è ancora oggi la pietra angolare delle immagini di sintesi: la rappresentazione poligonale. Per far comprendere al calcolatore concetti come spazio e forma è ovviamente necessario esprimerli con precisione e semplicità. Uno dei primi metodi impiegati e' stato la rappresentazione per poligoni, e specialmente per triangoli (il triangolo è il più semplice tra i poligoni). Volendo istruire il computer a disegnare un singolo triangolo nello spazio è sufficiente indicargli la posizione dei tre punti corrispondenti ai vertici e come questi siano connessi tra loro da linee. Queste informazioni possono essere fornite in molti modi ma il più consueto, che ricorda la tecnica delle proiezioni ortogonali, prevede l'uso di tre viste separate, che rappresentano rispettivamente il sopra, il davanti ed il lato dell'oggetto che desideriamo descrivere. Una volta in possesso delle coordinate, la trasformazione prospettica permette al calcolatore di creare una quarta vista, detta appunto prospettica o tridimensionale, che colloca la figura geometrica nello spazio. Adoperando più punti è possibile rappresentare figure sempre più complesse, pur mantenendo lo sforzo dell'operatore al minimo. Naturalmente la rappresentazione per linee, detta wireframe (a fil di ferro), ha i suoi svantaggi: per un ben noto effetto ottico non e' sempre 35 facile individuare la prospettiva corretta e talvolta una parte che dovrebbe sporgere ci sembra rientrare e viceversa. Una prima soluzione e' quella di adottare una vista con rimozione delle linee nascoste, in questo modo l'immagine precedente appare più chiara e comprensibile e possiamo iniziare ad apprezzarne la natura tridimensionale. Il computer, è in grado di stabilire come disegnare l'immagine in modo che i nostri occhi la percepiscano immediatamente come dotata di spessore. Il successivo miglioramento nella resa dell'immagine si ottiene introducendo un altro elemento fondamentale: la luce. Sappiamo tutti per esperienza come la luce ci fornisca informazioni su di un oggetto: se è lucido o ruvido, se è solido o trasparente, se è morbido o se è duro... possiamo stabilire questo e molto altro semplicemente guardando come esso riflette la luce. Procedendo all'inverso possiamo anche determinare dove si trova la luce semplicemente osservando come essa cade sull'oggetto, come ne disegna i contorni e in quale direzione proietta le ombre. Poiché è sempre la luce che scolpisce le forme davanti ai nostri occhi, possiamo istruire il computer ad imitare il comportamento della luce quando è chiamato a tracciare una superficie curva. La prima tecnica di interpolazione introdotta nel campo della computer grafica che porta il nome del suo inventore è il "Gouraud Shading" (shading = ombreggiatura). L'immagine appare immediatamente più morbida dove serve, più realistica. Purtroppo anche questa tecnica risente di difetti (la natura dei quali esula da questa introduzione, ma che si manifestano come bande discontinue di colore) e questo ha portato un altro ricercatore, Bui Tuong Phong, alla realizzazione del metodo noto come "Phong Shading" usato ancora oggi nella maggioranza dei software 3D. Il risultato, è senz'altro migliore, ed in più mostra un effetto collaterale di questa tecnica detto "colpo speculare". Il colpo speculare è quel punto più luminoso che appare sugli oggetti (in pratica è il riflesso della fonte di luce) fornendo importanti informazioni alla nostra mente sul materiale di cui è composto l'oggetto e sulla posizione delle fonti di luce. Sebbene sia più costoso (in termini di tempo) ed offra risultati migliori, anche il Phong Shading è un’approssimazione empirica delle leggi fisiche che governano l'illuminazione, ed i risultati sono ben lontani da quelli offerti da algoritmi più sofisticati e più lenti quali "Radiosity" che considera la luce per quello che è: energia. Confrontato pero' ad un algoritmo assai più lento e reputato da molti migliore, ovvero il ray-tracing, il Phong Shading e le sue infinite varianti si dimostrano un eccellente strumento capace di creare immagini estremamente realistiche. 36 Verso il fotorealismo Finora abbiamo visto solo oggetti semplici, geometrici, e modelli di illuminazione applicati crudamente sulle superfici. Esistono però numerosissimi metodi per abbellire e rendere più realistiche le immagini; è possibile infatti modellare qualsiasi forma partendo dai triangoli, non solo figure rigidamente geometriche. Una parte importantissima dei software di grafica tridimensionale è il "modellatore", ovvero il modulo dedicato alla costruzione ed alla modifica degli oggetti. Un buon modellatore permette di tagliare, incollare, tornire, perforare, e comunque modificare un oggetto esattamente come si potrebbe fare in un’officina con materiali reali, offrendo in più possibilità di deformazione e manipolazione che non hanno equivalenti nel mondo reale. Il "texture mapping", invece, permette di "dipingere" gli oggetti tanto con immagini reali acquisite mediante digitalizzatori e scanner, quanto con sofisticate procedure matematiche che simulano le proprietà di certi materiali. La resa dell'immagine è decisamente più realistica e credibile rispetto a quella dell'oggetto colorato uniformemente, ed anche qui la natura virtuale del procedimento risparmia all'artista ore di lavoro. Se si è insoddisfatti dal risultato è sufficiente applicare un altra immagine scegliendola dalla lista di quelle disponibili. Altri generi di abbellimento sono quelli che simulano una o più caratteristiche particolari del mondo reale: nebbia, rifrazione, diffrazione, aberrazioni ottiche, pioggia, erosione... Alcuni di questi effetti sono ottenuti mediante varianti del texture mapping, altri con una tecnica detta dei "sistemi di particelle", nella quale milioni di piccoli puntini creano forme soffici nell'universo tridimensionale, altri effetti ancora si avvalgono della geometria frattale per riprodurre il caos della natura. In realtà l'unico elemento di rilievo è quanto bene questi effetti approssimino l'immagine reale che vogliono simulare, e l'unica certezza -potremmo definirla la prima legge della computer grafica- è che quanto migliori saranno i risultati tanto maggiore sarà il tempo impiegato dal computer per ottenerli. 37 L’EVOLUZIONE DELL’IMMAGINE DIGITALE Sulle due pietre miliari che segnano l’inizio del matrimonio tra bit e celluloide gli esperti sono tutti d’accordo: 2001 Odissea nello spazio (1968) di Stanley Kubrick e “Guerre stellari” (1977) di George Lucas. Nell’odissea di Kubrick fece il suo esordio il motion control, un sistema computerizzato per sincronizzare i movimenti della cinepresa e degli elementi scenici che è alla base degli effetti visivi moderni. Mentre il film di Lucas va ricordato non fosse altro perché in quell’occasione il regista fondò l’Industrial Light & Magic, che oggi è uno dei templi assoluti degli effetti speciali. Per le magie digitali vere e proprie bisogna aspettare gli anni Ottanta, quando i supercalcolatori diventano abbastanza potenti ed economici. Così nascono, nel 1982, Tron, dove compaiono immagini di computer graphic simili a quelle dei videogiochi, e Star Trek, l’ira di Khan, con la prima scena realizzata interamente al computer: il ritorno alla vita di un intero pianeta morto. Poi, nel 1988, esce Chi ha incastrato Roger Rabbit di Robert Zemeckis, dove trionfa la tecnica del blue screen: gli attori sono ripresi su uno sfondo blu o verde, “ritagliati” al computer e mescolati ai cartoni animati. Undici anni dopo i fratelli Wachowsky utilizzeranno la stessa tecnica per Matrix, dove Keanu Reeves salta dai grattacieli e corre sui muri grazie agli sfondi creati al computer. Negli anni Novanta gli effetti digitali, ormai, non servono solo per i film di fantascienza: permettono di creare scene “impossibili” ma del tutto realistiche. Ecco allora che in Forrest Gump (1994) Tom Hanks può stringere la mano a John Kennedy, o partecipare ad un talk show con John Lennon. In questo caso, oltre al collage digitale, i computer hanno abbassato la qualità dell’immagine di Hanks per uniformarla alle riprese televisive d’epoca. All’altro estremo, arrivano i lungometraggi interamente al calcolatore. Leader è la Pixar con la serie di Toy story. Ma tra gli effetti digitali più riusciti ci sono senza dubbio le fantastiche creature solido-liquide di The Abyss o di Terminator II, in cui il computer genera le caratteristiche di materiali che non esistono in natura. E nel caso del terribile cyborg T-1000 di Terminator, gli animatori hanno anche dovuto rendere credibile il movimento di un corpo umano generato al computer. Il fatto è che siamo geneticamente programmati per riconoscere i nostri simili e ingannare il nostro occhio non è facile. Un modo è di utilizzare la motion capture, cioè riprendere un attore vero che si muove con spot luminosi piazzati in alcuni punti particolari, come le articolazioni, il bacino, la testa e così via. Questi punti servono poi come riferimento per costruire un’immagine digitale dai movimenti realistici. Anche “Titanic” è popolato di centinaia di controfigure digitali, come i passeggeri che cadono dalla nave che affonda. In questo caso Cameron ha utilizzato il key framing: uno stuntman viene ripreso mentre 38 compie un balzo di pochi metri. I fotogrammi servono poi come punti chiave della sequenza definitiva, mentre lo spazio tra un fotogramma e l’altro viene riempito dal computer. E se comparse e controfigure possono ormai essere sostituite dai loro emuli di bit, gli esperti assicurano che presto potrebbe toccare anche agli attori protagonisti. I maghi della computer graphic sono già al lavoro sui primi sythespian o v-actors, star virtuali cui affidare ruoli veri e propri. 39 II PARTE: Making of 40 2001: A SPACE ODISSEY Stanley Kubrick, 1968 Il 2 Aprile 1968, a Washington, fu proiettata la prima di 2001 Odissea nello spazio. Quattro anni di lavorazione, per il costo complessivo (allora rilevante) di 11 milioni di dollari: un film che cambiò il modo in cui la civiltà occidentale guarda al futuro. Stanley Kubrick diresse, produsse e co-sceneggiò il film insieme ad Arthur C. Clarke, scrittore di punta del genere science-fiction. Kubrick era determinato a fare di 2001 Odissea nello spazio il film tecnicamente più realistico mai realizzato. Mentre molti film di fantascienza di quel periodo illustravano mondi impossibili ambientati in un lontano futuro, Kubrick provò ad immaginare come le cose sarebbero potute andare nel giro di qualche decennio. Basandosi sulle valutazioni e sulle previsioni di consulenti industriali e scientifici, e consultandosi con la NASA, il film risultò realmente credibile. Inizialmente attaccato dai critici per la sua fine ambigua (la nascita del bambino dello spazio che può rappresentare il super-uomo del futuro), 2001 è poi stato riconosciuto come una delle più grandi imprese dell'immaginazione filmica. Nel film, il computer principale della navicella spaziale, Discovery, gioca un ruolo centrale. Originariamente chiamato "Athena", il computer in seguito, grazie al supporto dell’IBM (che fornì il design della macchina), divenne un modello IBM. Ma quando la sceneggiatura cambiò e il computer da amichevole divenne malvagio, l'IBM chiese che il suo nome fosse rimosso dal film. Il nome IBM, infatti, fu cambiato con HAL, ottenuto sostituendo ad ogni iniziale del nome IBM la lettera che la segue nell'alfabeto. Il film si apre su un paesaggio preistorico. Alcune scimmie vivono pacificamente in branchi fino a quando, per una strana congiunzione astrale, combinata con la presenza di un monolite nero, uno dei primati intuisce il possibile uso di un osso come arma. Sono passati quattromila anni, l'uomo ha raggiunto lo spazio e vi compie dei viaggi. Sulla base lunare Clavius viene scoperto un misterioso monolite nero dall'origine sconosciuta, posto in una congiunzione astrale con il pianeta Giove. Viene deciso di mandare una spedizione di ricerca composta da alcuni astronauti (in parte operanti e in parte ibernati) a bordo dell'astronave Discovery, comandata da un sofisticatissimo cervello elettronico, HAL 9000. Durante il viaggio, il computer provoca un guasto che causa la morte di tutti gli uomini, eccetto che del comandante Bowman che, non senza fatica, riesce a disattivarlo. L'astronave, arrivata nei pressi di Giove, finisce dentro ad una sorta di paradosso spazio-temporale, in cui Bowman si vede vecchio e morente e, successivamente, feto astrale destinato alla rinascita. Questo film riveste una grande importanza nell’analisi e nella riflessione sull’uso degli effetti speciali digitali nel cinema. 41 Pur non avendo al suo interno effetti di sintesi si nota un’ossessiva ricerca della perfezione formale dell’opera al fine di conseguire un’assoluta credibilità visiva. Kubrick mette in scena un nulla da visualizzare attraverso un linguaggio cinematografico che ripercorre la sua stessa storia, reinventando una semiotica visiva, no solo del “genere SF”, ma anche del sistema di concepire le immagini. L’opera di Stanley Kubrick si colloca in una sintesi tra quanto insegnato dal “cinematografo” e la potenzialità del cinema d’oggi, ponedosi come nuovo segno nella storia del cinema, come referente obbligato per tutte le storie che richiederanno l’uso degli effetti speciali. 2001: Odissea nello spazio è una superproduzione che impegnò in tre anni e mezzo di lavorazione circa dieci milioni di dollari per realizzare 612 inquadrature e 205 effetti, girati in diciotto mesi di lavorazione, negli studi di Borehamwood, situati nei pressi di Londra e ritenuti nel 1965 i più attrezzati d’Europa. Per Stanley Kubrick era importante ottenere attraverso gli effetti del film un’illusione di realtà totale, proiettare gli spettatori in un infinito del quale nessuno potesse dire che “è sol un trucco”. Gli interventi e la creatività di Douglas Trumbull, (candidato all’Oscar nel 1982 per gli effetti speciali di Blade Runner), furono determinanti per la risoluzione di effetti e l’invenzione di nuovi sistemi di ripresa, come la slit-scan, grazie al quale fu resa possibile la straordinaria sequenza del corridoi di luci. Questa tecnica afferma Trumbull, consente di ottenere due piani di esposizione apparentemente infiniti con una profondità di campo da una distanza di quindici piedi a un pollice dall’obiettivo, con un apertura di diaframma F/1.8 e con un’esposizione di circa un minuto per fotogramma usando una macchina da presa Mitchell 65 mm. E’ come fotografare i fari di un’automobile che avanza nella notte con l’otturatore aperto. La lunga esposizione produce un effetto di striscia luminosa. Se le luci dell’auto vengono spente e accese, cambiano di colore durante l’esposizione, e la qualità e l’intensità delle strisce luminose si modifica. Quest’effetto ottico, prelude già alle future forme e sorgenti luminose generate dalla computergrafica, suggerendo quindi un modello che verrà imitato e rielaborato dai nuovi mezzi in tutti i modi possibili. La ripresa avviene attraverso una fessura praticata su un piano posto davanti alla macchina da presa, in grado di ruotare davanti a una stampa illuminata mossa verso l’obiettivo durante ogni esposizione. I movimenti programmati causano distorsioni controllate delle immagini. Tutti questi movimenti avvenivano automaticamente, in modo tale che l’apparecchiatura potesse ripetere gli stessi passaggi con assoluta perfezione. 42 Si può quindi affermare che la slit-scan, costruita a Borehamwood è senz’altro il precursore di tutti i sistemi di ripresa controllati elettronicamente che avrebbero preso piede negli anni Settanta. Nel 1969 Kubrick vince con 2001: Odissea nello spazio l’Oscar per gli effetti speciali grazie anche al team dei supervisori agli effetti che fu determinante e i cui nomi sono: Douglas Trumbull, Wally Veevers, come capo della parte effetti speciali degli Shepperton Studio si occupò dei modelli. Tom Howard (Oscar per gli effetti speciali del film Blithe Spirit,1946, e Il ladro di Bagdad di George Pal,1959), diresse il reparto degli effetti ottici. Uno dei production designers era Harry Lange, che aveva collaborato per diversi anni con la Nasa visualizzando con il suo talento d’artista le possibili esplorazioni spaziali future. 43 Produzione e Regia: Stanley Kubrick Sceneggiatura: Stanley Kubrick, Arthur C. Clarke, tratto dal racconto "La sentinella" di Arthur C. Clarke. Fotografia: Geoffrey Unsworth Fotografia addizionale: John Alcott, girato in Super Panavision, presentato in Cinerama, Color Metrocolor Effetti speciali e fotografici: Stanley Kubrick Supervisori agli effetti speciali fotografici: Wally Veevers, Douglas Trumbull, Con Pedereson, Tom Howard Scenografia: Tony Masters, Harry Lange, Ernie Archer Direzione artistica: John Hoesli Costumi: Hardy Amies Musica: Richard Strauss, Johann Strauss, Aram Khachaturian, GyorgyLigeti Suono: Winston Ryder Montaggio: Ray Lovejoy Prodotto da: Metro-Goldwyn-Mayer Origine: USA Durata: 141' Distribuzione cinematografica: Metro-Goldwyn-Mayer, Films Incorporated/16 PERSONAGGI E INTERPRETI: Keir Dullea (David Bowman), Gary Lockwood (Frank Poole), William Sylvester (Dr. Heywood Floyd), Daniel Richter (Moon-Watcher), Douglas Rain (Voce di HAL), Leonard Rossiter (Smyslov), Margaret Tyzack (Elena), Robert Beatty (Halvorsen), Sean Sullivan (Michaels), Frank Miller (Mission Control), Penny Edwina Carroll, Mike Lovell, Peter Delman, Dany Grover, Brian Hawley 44 STAR TREK 2: THE WRATH OF KHAN Nicholas Meyer, 1982 Nicholas Meyer dirige con mano sicura questo capitolo della saga fantascientifica più amata da tutti i tempi, ed è un successo. Riccardo Montalban interpreta la parte del malvagio Khan Noonien Singh, che ha sottratto la formula del progetto “Genesis” concepito e sviluppato dall’ex-compagna di Kirk e dal suo legittimo figlio, ed intende usarla a fini non proprio umanitari; ma grazie al sacrificio di Spock l’equipaggio dell’Enterprise e la nave riescono a sottrarsi all’imminente distruzione. …L’Enterprise fa rotta verso la stazione di Regola Uno e Kirk convoca nella sua cabina spock e Mc Cay per mostrare loro che cosa è il Progetto Genesis. Per fare questo egli si collega con l’archivio della Federazione dove gli viene richiesta la prova vocale e l’esame della retina; quindi sullo schermo appare un filmato nel quale la dottoressa Marcus illustra per mezzo di filmati computerizzati la finalità del progetto, (è la prima volta che un’intera sequenza computerizzata viene realizzata appositamente per un film). Carol: “ Cos’è esattamente Genesis? Beh, per semplificare Progetto Genesis è la vita dall’essenza di vita. E’ un processo in cui la struttura molecolare è riorganizzata al livello subatomico nella materia che genera la vita di uguale massa. Lo Stadio Uno dell’esperimento è stato condotto in laboratorio, lo Stadio Due sarà sperimentato in una cultura in assenza di vita. Lo Stadio Tre vedrà il processo tentato su base planetaria. E’ nostra intenzione introdurre il dispositivo Genesis in una zona preselezionata di un corpo spaziale privo di vita, una luna o un altro pianeta inanimato. Il dispositivo viene azionato provocando istantaneamente quello che noi chiamiamo Effetto Genesis. La materia viene riorganizzata e il risultato è una rigenerazione vitale. Invece di una luna morta avremo un pianeta vivente che respira, capace di mantenere qualsiasi forma di vita decidessimo di depositare. ” Spock: “ E’ letteralmente la genesi, ammiraglio ”. Kirk: “ La forza della creazione ”. Genesis Effect Demo è un minuto di effetti speciali generati al computer. Nella sequenza del film la macchina da presa segue nel cosmo la Genesis-bomb (l’esplosione della natura) che vola verso il pianeta morto: una detonazione della superficie, poi fiamme e cataclismi che mutano l’aspetto del pianeta; si formano oceani e continenti, mentre la 45 macchina da presa mostra in un impressionante volo la genesis del mondo, per allontanarsi poi da quella nuova terra. La realizzazione dell’Effetto Genesis fu a cura della Pixar Computer Animation Group, che in quel periodo era la Computer graphic Division della Lucas film Ltd. La Pixar sviluppa tre nuove importanti tecniche di computergrafica, usate per conferire maggior realismo alle immagini: fractal surface, particle system e digital compositing. Fractal surfaces, (usato in questo caso per modellare le montagne) e i particle System, (usati per modellare il fuoco), infine sono state inserite texture e bump mapping. I modelli geometrici di questi oggetti sono generati automaticamente dal computer usando semplici funzioni di probabilità per determinare la loro forma evitando così la descrizione lunga e snervante di ogni dettaglio. Con la funzione di probabilità si può inserire nel computer una descrizione di questo tipo: “ Normalmente una montagna è come ”, e il computer crea qualcosa di nuovo e interessante con parte di tutte le più importanti caratteristiche. 46 Regia: Nicholas Meyer Sceneggiatura: Jack B. Sowards Fotografia: Gayne Rescher, A.S.C. Scenografia: Joseph R. Jennings Musica: James Horner Montaggio: William P. Dornisch Prodotto da: Robert Sallin (USA, 1982) Durata: 108' Distribuzione cinematografica: U.I.P. PERSONAGGI E INTERPRETI James T. Kirk: William Shatner Spock: Leonard Nimoy Dr. McCoy: DeForest Kelley Hura: Nichelle Nichols Pavel Checov: Walter Koenig Scott: James Doohan Hikaru Sulu: George Takei Khan Noonien Singh: Ricardo Montalban Saavik: Kirstie Alley Terrell: Paul Winfield 47 TRON Steven Lisberger, 1982 La Walt Disney insieme al regista Steven Lisberger incoraggiati dal successo riscosso dai videogiochi, creano un film dedicato alla computergrafica tipica del videogioco. Tron il cui nome deriva dal vocabolo electron, rappresenta il mondo gelido dell'informatica. L’intelligenza umana si confronta con un universo apparentemente perfetto, e la lotta contro il potere della tecnologia emerge ancora una volta attraverso le sequenze di questo film. Il regista Steven Lisberger, nella rappresentazione di un accecante e gelido mondo elettronico, insinua il timore della perdita d’identità dell’uomo asservito ad un domani totalmente informatizzato. In Tron si vive lo scontro tra due universi: quello dei creativi e quello dei programmatori; un viaggio allucinante all’interno di memorie e circuiti elettronici. Al centro della vicenda di Tron c’è Flynn, un esperto di elettronica che gestisce una sala giochi e che è stato derubato dei suoi programmi originali da Dillinger. Dillinger è a capo della Encom una fabbrica di apparecchiature elettroniche e software, ma chi realmente dirige la Encom è MPC (Master Control Program), un elaboratore dalle incredibili potenzialità. Flynn, aiutato da due ricercatori, Alan e la fidanzata Lora, tenta di violare le memorie di MPC. Il computer li disintegra, risucchiandoli nel suo universo elettronico. Flynn ora si chiama Clu, e i suoi amici, Alan e Lora, Tron e Yori. Dopo una lunga lotta riusciranno a distruggere la memoria centrale dell’elaboratore e a tornare nella dimensione reale Tron si propose al pubblico come un film dominato dalla presenza delle immagini sintetiche, anche se per buona parte delle sequenze non si trattava ancora di vera e propria animazione digitale, ma piuttosto di massicci interventi di computergrafica all’interno dei singoli fotogrammi, che venivano modificati uno a uno con la tecnica del rotoscoping. Gli attori sono vestiti con tute bianche sulle quali sono state disegnate linee nere per rappresentare i circuiti del computer, filmati su fondo nero (il design dei costumi ha ricevuto una nomination all’Oscar) e le architetture disegnate da fasci di luce (tipo tubi al neon), hanno contribuito al successo del film. Per produrre le necessarie immagini computerizzate furono contattate diverse società: la Robert Abel & Associates, la Stargate Film, la Digital Effects Inc. e la Magi-Synthavision. L’elaboratore Mirage Quantel, ha creato le immagini computerizzate elaborando immagini video. 48 Regia: Steven Lisberger USA, 1982 PERSONAGGI E INTERPRETI Jeff Bridges.... Kevin Flynn/Clu Bruce Boxleitner.... Alan Bradley/Tron David Warner.... Ed Dillinger/Sark/Master Control Program (voice).... Cindy Morgan Lora/Yori Barnard Hughes.... Dr. Walter Gibbs/Dumont Dan Shor.... Ram Peter Jurasik.... Crom Tony Stephano.... Peter/Sark's Lieutenant Craig Chudy.... Warrior #1 Vince Deadrick Jr..... Warrior # Sam Schatz.... Expert Disc Warrior Jackson Bostwick.... Head Guard David S. Cass Sr..... Factory Guard Gerald Berns.... Guard #1 Bob Neill.... Guard #2 49 STAR WARS George Lucas, 1977 La saga di Guerre Stellari Il film ha un’importanza enorme nella storia dell’immagine digitale, in quanto proprio per la sua realizzazione è stata fondata da George Lucas la Industry Light + Magic, allo scopo di creare gli effetti speciali per il film. Il film ha richiesto quattro anni di lavoro di cui due dedicati alla sceneggiatura. “Con Guerre Stellari ho voluto realizzare la fiction hollywoodiana classica, quella di vecchio tipo, tanto apprezzata dai ragazzi, e ho voluto affrontare problemi tecnici molto complicati.” “…Per l’Impero colpisce ancora abbiamo usato tutta l’elettronica possibile… …Con questo film abbiamo inaugurato il Duemila, evitato tutto quanto ci poteva essere di meccanico o manuale nel processo di ripresa, e abbiamo conseguito risultati particolari studiando con i computer le reazioni dell’occhio umano al movimento e al colore. Per questo motivo nel film si ha l’impressione di essere nello spazio e di nuotare nei colori.” “È quello a cui tendo, fare dei film che uno può consumare senza preoccuparsi troppo di sapere bene la storia: musica visiva, immagini musicali…” “Perché voglio farlo con il cinema? Perché io sono soltanto immagini: io sono l’immagine di Godard, di Mizoguchi, di Kurosawa, di Ford, di Bergaman, diFellini. Io non sono che immagini cinematografiche. Io non sono io. Io sono il cinema di Welles…di Chaplin…di…di…” Per Guerre stellari fu creato un laboratorio di modellismo in grado di produrre veicoli spaziali perfetti nei più piccoli dettagli. Per sequenze nelle quali non si possono creare scenari concepiti, si ricorre al matte painting, una tecnica che consente di inserire scenografie disegnate in una live action girata in studio, o in esterni ripresi in parte per essere combinati insieme ai disegni successivamente. Questi disegni vengono realizzati spesso su vetro, con parti nere nelle quali verrà inserita l’azione con gli attori. Vengono usati colori a olio o acrilici per creare mondi fantastici in lontane galassie, bizzarre architetture e qualunque visione suscitata dalla più fervida fantasia. In Guerre stellari sono stati utilizzati 13 matte painting combinate con la live action, utilizzando il sistema della rear projection in un'unica scena. 50 Il sistema di rear screen projection è stato ampiamente usato con i matte painting: dietro il disegno fatto su vetro viene sistemato un proiettore. Si rimuove quindi dal vetro l’area di disegno in cui s’intende proiettare la live action, e sulla finestra creata nella matte painting si attacca un materiale che la trasforma in uno schermo traslucido. La scena proiettata sull’area traslucida viene ripresa dal davanti combinata con il matte painting. Per Il ritorno dello Jedi, nel matte painting del villaggio degli Ewok, furono proiettate in dodici punti diversi direttamente live action, esponendo ripetutamente lo stesso negativo e oscurando le zone di live action già impressionate. L’inizio del film è una straordinaria fusione di live action e numerosi matte painting, ci sono circa sette scene realizzate grazie a questa tecnica combinata con riprese in miniatura attraverso le tecniche del blue screen per creare una straordinaria ambientazione spaziale. La sequenza del “briefing room” mostra le forze ribelli che studiano un displey olografico della luna di Endor e della stazione spaziale Death Star, (la Morte Nera), in costruzione attorno alla sua orbita, protetta da un campo di energia che la nasconde ad occhi indiscreti. William Reeves, della Pixar Computer Animation Group e Tom Duff, degli AT&T Bell Labs, hanno realizzato l’effetto ologramma per la sequenza del film. Le immagini sono state realizzate con un Evans & Sutherland Picture System calligraphic displey, sviluppato in linguaggio C con sistema Vax 11/750 (Digital Equipment Corporation). Si può quindi filmare il tutto direttamente dal displey in formato Panavision a 35 mm. La pellicola ad alto contrasto bianco e nero è stata in seguito colorata e implementata con altri elementi visivi, girati qualche tempo prima nel nord della California e in Gran Bretagna. Lo story-board e il conceptual disegn sono di Joe Johnston della ILM. Ogni fotogramma è composto da otto elementi filmati separatamente e aggiunti alla live action. I matte painting sono stati usati per costruire il paesaggio di Endor, i laghi, i continenti e il campo di forza che avvolge la Morte Nera. La scena si svolge in meno di 40 secondi ma, per preparare il tutto ci sono voluti oltre quattro mesi di lavorazione. Un elemento molto importante è rappresentato dalla corsa delle navicelle di Luke Skywalker all’interno dell’astronave della Morte Nera, poiché anticipa ciò che sarà inventato alla fine degli anni ottanta per i videogame di simulazione di volo, creando nello spettatore un’immedesimazione totale nell’oggetto volante attraverso una nuova grammatica di ripresa, che aggancia la cinepresa e l’occhio dello spettatore alla navicella spaziale. Tale simulazione è molto più facile da realizzare oggi con le cineprese virtuali usate per le immagini di sintesi, ma la possibilità di creare angoli di visuale “digitali” è nata proprio con Guerre stellari. 51 RETURN OF THE JEDI Regia: Richard Marquand Sceneggiatura: Lawrence Kasdan, George Lucas (da un suo soggetto) Fotografia: Alan Hume, Jack Lowin, James Glennon Scenografia: Michael Ford, Harry Lange Musica: John Williams Montaggio: Sean Barton, Marcia Lucas, Duwayne Dunham, Arthur Repola Prodotto da: Howard Kazanjiam, Robert Watts, Jim Bloom (USA, 1983) Durata: 133' Distribuzione cinematografica: 20TH Century Fox PERSONAGGI E INTERPRETI Luke Skywalker: Mark Hamill Han Solo: Harrison Ford Principessa Leila Organa: Carrie Fisher Lando Calrissian: Billy Dee Williams Ben Obi-Wan Kenobi: Alec Guinnes C3PO: Anthony Daniels R2D2: Kenny Baker Chewbacca: Peter Mayhew Darth Vader: David Prowse Voce di Darth Vader: James Earl Jones Yoda: Frank Oz (animazione e design) Imperatore Palpatine: Ian Mcdiarmid Anakin Skywalker: Sebastian Shaw Boba Fett: Jeremy Bulloch 52 THE ABYSS James Cameron, 1989 “Io l’ho toccato con le mie mani e…E non era come un oggetto che avremmo potuto costruire noi! Scivolava…era la cosa più bella che avessi mai visto…Era come una danza di luce.” Pseudopode, questo è il nome con cui è stata definita la creatura, o meglio l’esemplare più spettacolare e poetico realizzato dalla ILM. Pseudopode è la fantasia, l’immaginazione non più mediata, ma immediata dell’idea geniale di Cameron, che grazie all’uso delle tecnologie digitali si rivela anche a noi in tutte le sue forme. È una creatura fatta d’acqua, con la capacità di imitare i volti e i tratti somatici dei personaggi umani venuti a contatto con il suo ambiente. La tecnica per creare l’alieno è piuttosto complicata e l’Oscar per gli SFX se lo sono proprio meritato. I tecnici della Dream Quest e George Joblove della ILM hanno lavorato per giorni su un computer per creare la figura del serpente d’acqua, facendo in modo che sembrasse acqua ammassata insieme e non un guscio di plastica trasparente con dell’acqua colorata. Attraverso un software adeguato, è stata elaborata al computer l’originale forma dell’essere, rivestito di una superficie mobile e trasparente con sfumature colori e riflessi tutti programmati. Sono state prese delle Scan Photo (fotografie passate allo scanner) degli attori di cui Pseudopode avrebbe dovuto riprodurre i lineamenti e sono state elaborate e processate con lo stesso trattamento, indi sono state integrate in fase di montaggio con la live action. George Joblove, della ILM, ha affermato: “La cosa più importante, dopo questo film, è la dimostrazione più evidente di aver segnato il momento più avanzato nell’uso della computergrafica, riuscendo a mettere insieme tecniche diverse per offrire in tal modo ai registi nuove possibilità per esprimere le loro fantasie. 53 Regia: James Cameron Usa, 1989 PERSONAGGI E INTERPRETI Ed Harris.... Virgil "Bud" Brigman Mary Elizabeth Mastrantonio.... Lindsey Brigman Michael Biehn.... Lieutenant Hiram Coffey Leo Burmester.... Catfish De Vries Todd Graff.... Alan "Hippy" Carnes John Bedford Lloyd.... Jammer Willis J.C. Quinn.... "Sonny" Dawson Kimberly Scott.... Lisa "One Night" Standing Captain Kidd Brewer Jr..... Lew Finler George Robert Klek.... Wilhite Christopher Murphy (I).... Schoenick Adam Nelson (I).... Ensign Monk Dick Warlock.... Dwight Perry Jimmie Ray Weeks.... Leland McBride J. Kenneth Campbell.... DeMarco 54 TERMINATOR 2:JUDGMENT DAY James Cameron, 1991 Immagini di un mondo futuro ove guerrieri umani sparano con armi laser contro robot umanoidi. La guerra imperversa senza tregua e dall’alto di una collina un uomo osserva la battaglia. Due Terminator vengono inviati sulla terra a ritroso nel tempo. Il primo terminator (Arnold Swarzneger) è un modello T101, inviato sulla terra dalla resistenza umana per proteggere il loro leader John Connor, figlio di Sarah. L’antagonista è un modello T1000 un prototipo avanzato, mandato sulla terra per uccidere il ragazzo. Dei lampi annunciano l’arrivo del varco spazio-temporale lasciando apparire un modello Terminator che si impossessa di moto, abiti e fucile e inizia la sua missione alla ricerca di John Connor. Intanto un’auto della polizia giunge sul luogo dove sono state osservate delle scariche elettriche e un poliziotto viene assalito dal secondo Terminator (Robert Patrick), il quale prende possesso della sua uniforme e del suo terminale sul quale compone la richiesta di indirizzo del giovane Connor. I due Terminator raggiungono John Connor contemporaneamente e si fronteggiano mentre John, avvertito da un amico che un poliziotto lo stava cercando, fugge a bordo della sua moto. Più volte colpito dal Terminator, il T1000 con un elegante effetto di morphing, assorbe i colpi e si getta all’inseguimento di John. Il Terminetor riesce ad afferrare il ragazzo, caricandolo sulla propria moto, un attimo prima che l’avversario sta per travolgerlo e i due si allontanano velocemente verso la periferia della città. John: “Non te la prendere storta ma…non sarai mica un Terminator?” Terminator: “Sì. Cyborg High System Modello 101. Sono un organismo cibernetico, tessuto vivente su endoscheletro metallico.” John: “Che figata! …non sei qui per uccidermi, questo l’ho capito da solo…Com’è la storia? Terminator: “La mia missione è proteggerti” John: “Ah sì? E chi ti ha mandato?” Terminator: “Tu stesso 350 anni da ora. Tu mi hai riprogrammato per essere il tuo protettore in questo periodo. John: “Ah! …sempre più fico…ma allora quest’altro è un Terminator come te!” Terminator: “Non come me è un T1000 è un prototipo avanzato.” John: “Cioè è più perfezionato?” Terminator: “Sì. Lega polimetallico mimetica” John: “Che cavolo significa?” Terminator: “Metallo liquido.” 55 John: “ Dove stiamo andando?” Terminator: “Dobbiamo uscire dalla città subito” John: “ Io devo passare da casa, voglio prendermi della roba.” Terminator: “Negativo.Il T1000 tenterà certamente di riprendere contatto con te. Quindi John telefona a casa ma non parla con sua madre, anche se la voce è la sua. In realtà e il T1000 che preso l’aspetto della madre adottiva, parla con lui mentre uccide il padre trasformando la mano in un punteruolo affilato. John si accorge che qualcosa non va dal tono di sua madre, e capisce che i suoi tutori sono stati uccisi. Intanto all’ospedale psichiatrico di Los Angeles la polizia cerca di far luce sull’accaduto, interrogando Sarah, (Linda Hamilton), la vera madre di John, che è ricoverata con una diagnosi di sindrome schizzoaffettiva acuta…È convinta che una macchina detta Terminator, un robot dalle sembianze umane, sia stato inviato a ritroso nel tempo per ucciderla. I poliziotti le mostrano delle fotografie, risalenti ad anni addietro quando un “uomo” uccise degli agenti e distrusse una centrale di polizia; lo stesso uomo è stato fotografato oggi mentre portava via suo figlio. Sarah sconvolta decide di fuggire dall’ospedale dove nel frattempo è giunto il T1000, che entra nella clinica psichiatrica e davanti alla reception chiede di Sarah. Pochi istanti dopo deve nascondersi prontamente poiché dei poliziotti stanno uscendo in quel preciso istante e per farlo il cyborg si trasforma nel pavimento sul quale il guardiano sta camminando; appena l’uomo è passato il Terminetor si ricompone assumendo l’aspetto del guardiano stesso, uccidendolo. Ma nel frattempo la donna è riuscita a scappare e si sta dirigendo verso l’uscita. Davanti alla clinica giungono anche John e il Terminator, i due dirigendosi verso la porta dell’ascensore incontrano Sarah, ma in quel preciso istante giunge anche il T1000 e i due terminator si affrontano. Un colpo di fucile in piena faccia al T1000 regala prezioso tempo a i tre, permettendogli di fuggire con l’auto della polizia. Ma la fuga non dura a lungo il cyborg cerca di agganciarsi allungando e trasformando le sue braccia in punte mortali che si conficcano nella lamiera dell’auto. Un colpo secco sparato dal fucile del Terminator alla guida, sgancia la punta del cyborg che viene rigettata sulla strada, dove il T1000 prontamente la riassorbe. I tre cercano rifugio in un garage. Il Terminator allora spiega a Sarah quello che è il progetto Skynet: un computer verrà inserito in tutti i sistemi informatici militari, i quali saranno automatizzati, i bombardieri voleranno senza bisogno di equipaggio e l’intero sistema di difesa prescinderà dalle decisioni umane. 56 Skynet non obbedirà più agli ordini e il 29 Agosto del 1997 sgancerà i missili contro i bersagli in Russia. I tre dopo aver riempito il furgone di armi arrivano alla base dove Dyson sta costruendo il progetto Skynet. Entrano di prepotenza e dopo aver illustrato a Dyson quello che sarebbe potuto accadere in un prossimo futuro, tutti insieme si dirigono al caveau, anticamera del laboratorio per distruggere il progetto Skynet. Dyson da fuoco a tutti i documenti riguardanti l’esperimento e cancella ogni file relativo alla ricerca, mentre Sarah e il Terminetor minano il centro di ricerca. John e Dyson entrano nel caveau e si impossessano dei resti del cyborg. Il cyborg si fa largo tra le forze di polizia che sparano all’impazzata e i tre impossessandosi di un furgone si dirigono verso la statale. Il T1000 è sulle loro tracce e inizia l’inseguimento a bordo di un elicottero. I due si schiantano, il Terminator prende a prestito un camioncino lì davanti, mentre il T1000 elimina il guidatore di una cisterna carica di idrogeno liquido a bassissima temperatura. L’inseguimento termina in una fonderia, dove entrambi i mezzi vengono distrutti, il carico della cisterna investe il T1000 bloccandolo e congelandolo, finché un colpo di pistola del Terminator lo frantuma in mille pezzi. Ma il calore del metallo in fusione della fonderia sta lentamente rigenerando il loro mortale nemico. Pur semidistrutto il cyborg riesce alla fine a scaraventare il T1000 in una vasca colma di acciaio fuso dove finalmente viene eliminato. Strisciando, con un braccio distrutto e il viso che mostra chiaramente la sua natura non umana, il Terminator chiede ora ai suoi amici di distruggerlo. Sarah fa scendere attraverso una carrucola il Terminator nella vasca di metallo fuso. Il Terminator continua a guardare i suoi amici mentre il liquido lo sommerge, il braccio alzato resta ancora un attimo in superficie con il pollice rivolto verso l’alto e la mano stretta a pugno. Poi più niente, il suo visore si spegne per sempre. Prodotto nel 1991 dalla Carolco Pictures, nato dalla fantasia di James Cameron, il secondo episodio di Terminator ha definitivamente abbattuto la barriera che nell’opinione comune voleva l’immagine fotorealistica come necessariamente fotografica e quindi distinta da quella digitale; aprendo la strada all’immagine ibrida che contraddistingue l’attuale concezione di animazione di sintesi. Infatti, con il digitale è possibile trattare film, cartoon, oggetti 3D creati al computer, immagini televisive e altro ancora, allo stesso modo. Il digitale attirando a sé il fotografico lo trasforma in qualcos’altro, in un ibrido che molto spesso tende al design del cartoon. 57 Così in Terminator 2, la lotta disperata tra il cyborg Schwarzi, ormai obsoleto, ed il nuovissimo micidiale T1000 assume i caratteri metamorfici di una sfida generazionale che travalica lo schermo: stopmotion contro morphing, stantuffi meccanici e armi da fuoco contro computer-graphic e morte digitale, muscoli d’acciaio contro perfida dissimulazione virtuale. Vincerà l’antico simbolo positivo del cinema “tradizionale”, ma sceglierà comunque di auto-terminarsi, riunendosi al metallo fuso da cui aveva preso vita: in quella fonderia si consuma il destino del meglio che la tecnologia “manuale” aveva finora espresso, vaporizzato in un girone infernale dal quale risorgerà, trionfante, la tecnologia digitale. Gli effetti digitali sono stati creati dalla ILM, cui Cameron si era già rivolto per The Abyss, 1989. Con Terminator 2 il morphing digitale 3D arriva a livelli di grande qualità e complessità. L’integrazione della computergrafica con la stop-motion utilizzata durante la sequenza di solidificazione-liquefazione-ricomposizione del cyborg nemico, è stato lo scoglio più duro da superare. Cameron non era soddisfatto della sola grafica computerizzata in quanto non riusciva a dare la giusta credibilità, mentre utilizzare la stopmotion sarebbe stato troppo dispendioso in fatto di denaro e di tempo. Si decise quindi di integrare le due cose realizzando in stop-motion solo alcune sequenze: venne creata una miscela d’acqua distillata, gelatina incolore e piccole infiltrazioni di glitter (gel cosmetico con brillanti) e lo si fece scivolare in un letto di plastica trasparente scavata ad arte, in modo da obbligare la mistura a seguire un determinato percorso, quindi si sovrapposero queste sequenze a quelle generate al computer e l’effetto fu davvero sorprendente. 58 Regia James Cameron Usa, 1991 PERSONAGGI E INTERPRETI Arnold Schwarzenegger.... The Terminator (T-800) Linda Hamilton.... Sarah Connor Edward Furlong.... John Connor (Age 10 Robert Patrick.... T-1000 Earl Boen.... Dr. Peter Silberman Joe Morton.... Miles Bennett Dyson S. Epatha Merkerson.... Tarissa Dyson Castulo Guerra.... Enrique Salceda Danny Cooksey.... Tim Jenette Goldstein.... Janelle Voight Xander Berkeley.... Todd Voight Leslie Hamilton Gearren.... Sarah Connor Double Ken Gibbel.... Douglas Robert Winley.... Cigar-Smoking Biker Shane Wilder.... Trucker 59 JURASSIC PARK Steven Spilberg 1993-1997 L’evoluzione della specie Jurassic Park è innegabilmente la realizzazione che ha portato alla vera e propria rivoluzione degli effetti speciali tramite la computergrafica tridimensionale. La perfetta integrazione dei dinosauri in CG con l’azione dal vivo ha dimostrato la superiorità di queste tecniche, rispetto alla tradizionale metodologia dello stop-motion. Diretto da Steven Spilberg, basato sull’omonimo racconto di Micheal Crichton, Jurrasic Park è stato il film che ha permesso di creare l’impossibile rendendolo credibile, di coinvolgere l’immaginario collettivo spostando il confine tra reale e fantastico, al punto di farci credere che su un’isola disabitata, un gruppo di scienziati è riuscito a far rivivere i dinosauri. Il realismo raggiunto dalle creature in CG era stupefacente a tal punto che nel 1994 Dennis Muren, supervisore degli effetti visuali dell’Industrial Light & Magic, ha vinto un Oscar per il suo lavoro. Ma tutto questo era solo l’inizio… Se con Jurrasic Park la computergrafica raggiunge ottimi livelli di integrazione con la live action ne Il Mondo perduto l’ILM si preoccupa soprattutto dell’aspetto psicologico e interpretativo dei personaggi digitali. “Abbiamo cercato di far sembrare che il TRex potesse pensare” afferma il capo animatore Dan Taylor. “Può essere sufficiente anche una rotazione della testa. Ma dà la sensazione che nel suo cervello ci sia qualcosa in più dell’unica preoccupazione di che cosa mangiare subito dopo.” La famiglia dei Tirannosaurus Rex (Trex), composta dalla mamma, il cucciolo e il padre, prima creatura digitale ad essere protagonista di un sequel, hanno una gamma molto più vasta di capacità recitative rispetto ai dinosauri di Jurassic Park. “È come se con Jurassic Park avessimo costruito gli strumenti”, spiega Muren (che anche per questo film dirige gli effetti speciali), “ora stiamo imparando ad usarli e stiamo scoprendo quello che ci permettono di fare”. “La cosa che più mi interessa” continua Muren, “era di progettare scene che non dessero l’impressione di aver limitato la libertà del regista nei movimenti di camera, perché bisognava usare degli effetti speciali…Abbiamo dinosauri che si muovono in ambientazioni di giorno, di notte, con la pioggia, con fumo, nella giungla, in mezzo alle case e in mezzo alla nebbia…” 60 “Se si riescono a realizzare delle scene in cui una creatura sembra totalmente reale e sta balzando su una persona, si raggiunge un realismo scioccante, perché non si è mai visto niente di simile. Il realismo aumenta quando una creatura può afferrare qualcosa direttamente da una persona. Non si deve necessariamente far posare a terra prima l’oggetto e poi farlo prendere dalla creatura. In questo modo la scena risulta più interessante.” In Jurassic Park, c’è una scena forte nella quale il TRex abbassa la testa, tira fuori una persona (stuntman digitale), da una cabina, la tiene ferma per un istante tra i denti e poi la ingoia. Nel Mondo perduto, i dinosauri afferrano le persone, le scuotono e le spezzano in due. Da queste due scene a confronto si può capire come l’evoluzione della CG ha definitivamente rotto il “cordone ombelicale” con la materia, ovvero, non c’è più bisogno di ricreare, paesaggi e personaggi in scala 1: 1 e farli quindi muovere mediante pompe idrauliche e circuiti elettronici; oggi stando comodamente davanti a un monitor si può ricreare un universo di immagini ed emozioni. Penso che uno dei vantaggi sia proprio l’immediatezza che è un fattore determinante nel processo creativo. L’intuizione, l’ispirazione è così fragile e fugace che solo un’esecuzione rapida fa sì che possa essere realmente congelata nella sua essenza. Per gli effetti visuali de Il Mondo perduto, hanno lavorato 25 animatori, capeggiati da Randy Dutra, 30 direttori tecnici, 3 disegnatori e 8 persone per le operazioni di sincronizzazione dei movimenti. Il film comprende circa 190 scene di effetti, delle quali 80-85 includono dinosauri. Complessivamente ne Il Mondo perduto c’è circa un 40% in più di computergrafica 3D rispetto a Jurassic Park (che comprendeva solo 60 scene in CG). Inoltre le scene 3D nel Mondo perduto spesso includono più dinosauri contemporaneamente e rispetto ai dinosauri di Jurassic Park, quelli di Lost World e come se avessero fatto un corso di aerobica. La costruzione dei modelli Una delle persone che ha contribuito alla creazione di stuntman digitali in varie fasi di "divoramento" è stata Paul Giacoppo, che ha supervisionato la modellazione 3D di The Lost World. Oltre agli stuntman, sono stati realizzati modelli 3D anche per veicoli, oggetti di scena e naturalmente per tutte e dieci le specie di dinosauri. I tre dinosauri che ritornano dopo la loro partecipazione in Jurassic Park sono il T Rex, i velociraptor e il gallimimus. I nuovi dinosauri includono lo stegosaurus ("Steg" per gli amici), il parasaurolophus ("Pari"), il pachycephalosaurus ("Paci"), il compsognathus ("Compy"), il gigantesco mamenchisaurus e il triceratops ("Trike"). Quest’ultimo era 61 effettivamente già comparso nel film Jurassic Park, ma in quel caso era stato utilizzato unicamente un modello fisico. C’è anche un pterosauria, una specie di pteranodon. Di queste creature, i "Compy" sono i più piccoli (hanno le dimensioni di una gallina). Gli altri sono grandi, partendo dalle dimensioni di una mucca e arrivando a superare quelle di qualsiasi altro animale attualmente esistente sulla Terra. Lo "Steg" ha grandi placche sul dorso; il "Trike" ha tre corni sul muso; il "Pari" ha un becco d’anatra; il "Paci" ha una testa a cupola con un teschio osseo sporgente; e lo pteranodon è simile a un uccello. Il modello dello stegosauro, come molti altri, è stato costruito in base ai modelli fisici realizzato da Stan Winston, ma poi ha subito delle modifiche. Infatti, il modello di Winston era stato realizzato con la coda bassa, ricalcando un’immagine vista spesso nei documentari. Ma recenti studi di paleontologia hanno concluso, in base all’anatomia delle anche, che gli stegosauri tenevano la coda sollevata. Il modello al computer è stato quindi modificato, trasformando di conseguenza non solo la silhouette dell’animale, ma anche la sua "personalità", dato che la coda alzata gli dava un look più mobile e attento. "La prima domanda che facciamo quando dobbiamo costruire un modello è "da quale distanza lo si vedrà" e "quanto dev’essere dettagliato", spiega Giacoppo. "Dalle risposte, dipende quanto tempo richiede la sua realizzazione". Fortunatamente, lo staff è riuscito a risparmiare un po’ di tempo riutilizzando i modelli del primo film. "La modellazione effettuata per il film originale è stata fatta così bene da essere ancora validissima", afferma. Sono stati in grado anche di adattare il T Rex originale per realizzare la versione "femminile" e quella "baby". Un altro elemento che ha fatto risparmiare tempo è stata la creazione dei modelli con lo stesso numero di CV, in modo da poter riusare l’inviluppo e il socking. "Quando costruiamo un animale, lo suddividiamo in pezzi", spiega Giacobbo. "Questi pezzi vengono poi uniti insieme: le dita alle mani, le braccia alle spalle". La tecnologia di socking della ILM connette i pezzi per realizzare una creatura senza giunzioni. Il software proprietario d’inviluppo controlla il movimento comunicando ai punti di quanto spostarsi e in quale direzione. "Tutto inizia con il modello", afferma Giacoppo. "Se non ci sono abbastanza dettagli, un’area può stirarsi troppo quando si cerca di muoverla. Aggiungendo punti, possiamo mantenere la struttura e la forma". Per i dinosauri presenti anche in Jurassic Park, i modellisti sono potuti partire dai vecchi modelli, e poi arricchirli per ottenere quelli nuovi, per esempio per realizzare un esemplare maschio da uno femmina. Per i nuovi dinosauri, i modellisti hanno usato come punti di partenza i modelli fisici realizzati dallo studio di Stan Winston e alcuni disegni. Tutti i dinosauri sono stati realizzati con i software Alias PowerAnimator e Softimage 3D, e così è stato anche per gli oggetti di scena e i veicoli, 62 alcuni dei quali si sono rivelati molto complessi. In effetti, uno dei veicoli, un doppio furgone, è intricato quasi quanto il drago di Dragonheart, uno dei modelli più complessi mai realizzati dalla ILM. Gli strumenti proprietari Oltre ai software commerciali Softimage e Alias, i modellisti hanno utilizzato anche gli strumenti proprietari della ILM, in particolare uno nuovo chiamato I-Sculpt, sviluppato da Jim Hourihan. "Con I-Sculpt, si può lavorare su un modello come se fosse fatto di creta", afferma Giacoppo. I modellisti hanno usato I-Sculpt per abbozzare rapidamente un oggetto, al quale sarebbero poi stati aggiunti i dettagli con Alias o Softimage. Lo hanno usato anche per aggiungere forme ai modelli creati con Alias e Softimage. Giacoppo spiega la differenza tra i pacchetti commerciali e I-Sculpt: "Normalmente, bisogna muovere dei punti su una spline, e questo modo di operare può essere molto noioso, specialmente su un modello particolarmente denso. Se si deve ingrossare un modello, bisogna gestire molti punti. Con I-Sculpt, si hanno a disposizione sfere d’influenza che permettono rapidamente di tirare, spingere e stirare aree di un modello". I-Sculpt è servito anche per creare forme da usare nelle animazioni secondarie in CARI, un altro strumento software proprietario della ILM che permette agli animatori di manipolare le forme. Invece di usare le tecniche d’inviluppo, gli animatori hanno potuto mischiare e manipolare forme in CARI (che è l’abbreviazione di CARICATURE, un programma scritto, guarda caso, da Cary Phillips) per creare distorsioni volumetriche che permettono a una zampa di espandersi, per esempio, e di spostare la superficie del modello. "L’idea è di creare l’illusione dei muscoli che si muovono sotto la pelle, invece di qualcosa che assomiglia a dei salsicciotti sopra la struttura in wireframe", dice Snow. Taylor spiega come tutto ciò possa influenzare l’aspetto dell’animazione: "In passato, abbiamo cercato di far sembrare pesante un animale in base al modo in cui colpiva il terreno quando camminava. Ma se guardate un elefante, il movimento è talmente fluido che sembra che scivoli. Si ha un senso del peso in base al modo in cui si muovono i muscoli e la pelle". Gli animatori hanno creato i movimenti di massima in Softimage, mentre i dettagli delle animazioni secondarie, come il movimento della pelle e dei muscoli (che Taylor chiama i "datori di vita"), sono stati creati in CARI. Questo programma è stato utilizzato in precedenza per creare l’animazione facciale per Dragonheart. Da allora, la sua capacità di permettere agli animatori di lavorare in modo interattivo con modelli di grandi dimensioni, usando la 63 manipolazione delle forme, è stata estesa. "In CARI, possiamo ottenere rendering molto rapidamente con socking e inviluppi, e possiamo vedere come si comporta la geometria della superficie. Il livello di controllo che abbiamo su pelle e muscoli è notevole. Possiamo ritoccare ripetutamente l’animazione". Quando Taylor e Randy Dutra hanno iniziato ad animare il T Rex per Il mondo perduto, non hanno preso in considerazione il modo in cui si muoveva il modello originale del film Jurassic Park. "Poi ci siamo accorti", racconta Taylor, "che nel primo film la creatura aveva dei tratti caratteristici, come il modo in cui piantava i piedi per terra, che dovevamo replicare. Altrimenti, il nostro T Rex avrebbe fatto la stessa impressione di Mel Gibson che interpreta il sequel di Indiana Jones: un attore bravissimo, ma non è comunque Harrison Ford". Anche l’animazione del gigantesco mamenchisaurus ha presentato non pochi problemi. Questa creatura dal lungo collo poteva raggiungere 15 metri di altezza e 30 metri di lunghezza. Dato che nessun animale attualmente esistente sulla Terra raggiunge quelle dimensioni (per fortuna...), gli animatori non avevano un chiaro riferimento per replicarne i movimenti. Alla fine, si è deciso di utilizzare un’andatura simile a quella della giraffa, che presenta nello stesso tempo caratteristiche di grazia e fluidità, unite a un senso di maestosità. Una delle sequenze di gruppo più complesse del film è quella in cui corrono insieme quasi 50 creature, inseguite dai "cattivi" del film. "Pensavamo di riuscire a gestire interamente la scena con l’animazione di cicli", racconta Snow, "ma questa tecnica è risultata troppo meccanica. Di conseguenza, abbiamo dovuto ritoccare ogni singola creatura per darle un comportamento individuale". Talvolta gli animatori sono riusciti a ottenere un comportamento individuale aggiungendo un salto o una corsa allo script per il ciclo di animazione. Altre volte, hanno dovuto ritoccare l’animazione procedurale. L’utilizzo dei cicli di animazione ha sicuramente facilitato la realizzazione di una scena così complessa, ma lo svantaggio è che questa tecnica può risultare in un’animazione dal look "automatizzato" e ripetitivo. "Stavamo sempre attenti a non incappare nella maledizione dei cicli", afferma Taylor. "Se non ci sono movimenti casuali, i cicli possono realmente "sembrare" dei cicli. Devono invece essere considerati solo una base, qualcosa da cui partire per costruirci sopra. In una mandria di animali che camminano, ci sono movimenti unici tra gli individui, ma ci sono anche movimenti comuni a tutti gli animali. I cicli permettono a più animatori che lavorano sulla stessa scena di partire da questi movimenti comuni. Ma qualche volta è più difficile modificare un ciclo piuttosto che partire da zero. I cicli vanno considerati solo come un altro strumento del proprio arsenale di animatore". D’altra parte, Dennis Muren non è convinto che l’approccio procedurale sia migliore o più efficiente di quello che gestisce l’animazione per ogni singolo animale. "Non ho niente contro i cicli di camminata e di corsa", 64 sostiene, "ma queste tecniche richiedono così tanto lavoro di ritocco per ottenere delle animazioni convincenti, che non sono sicuro che ne valga la pena. Si sostiene che l’approccio procedurale fornisca almeno un punto di partenza, dal quale gli animatori possono partire per apportare i loro ritocchi. Ma è come il gatto che si morde la coda. Si guarda a quanto è stato fatto in modo procedurale, e poi si cerca di aggiungere vitalità all’animazione, ma solo dove si pensa che sia necessario. È molto diverso dal dare vita a ogni personaggio fin dall’inizio del processo di animazione. Non penso che il primo metodo riesca a fornire risultati pari al secondo; ma, realisticamente, l’approccio procedurale è il solo modo per realizzare in tempo sequenze di "massa" come quella del Mondo perduto, considerando il numero di animali da gestire". Mentre gli animatori erano impegnati per impostare le animazioni, Susan Ross si dedicava al disegno delle texture map per i modelli. Per questo lavoro, Ross ha utilizzato il programma di paint 3D proprietario della ILM, Viewpaint, che funziona all’interno di Matador della Avid, un programma commerciale di paint 2D per workstation SGI. I dettagli delle texture map Per Il mondo perduto, Ross ha disegnato tutte le texture dei dinosauri, incluse le versioni maschio e femmina per molte specie, e alcune texture dettagliate per primissimi piani, "fin quasi a livello dei pori", commenta Susan. In Jurassic Park, tutti i dinosauri erano femmina. I dinosauri maschi del Mondo perduto sono molto più colorati. Ross ha lavorato guardando prima i dinosauri nelle immagini dal vivo in forma di modelli fisici, poi in forma di wireframe nelle immagini di match-move, poi animati con una pelle bianca, poi con la stessa illuminazione delle riprese dal vivo, e alla fine "mi occupavo di renderli veramente tridimensionali", afferma. Per ogni dinosauro sono state utilizzate molte texture map: opacity, specularity, bump, color map e, qualche volta, mappe per lo sporco. È stata Ross a disegnarle tutte. Ha iniziato a lavorarci sopra nell’agosto del ’96, impiegando da tre a quattro settimane per dinosauro. "Originariamente, disegnavo le color map senza ombre, poi creavo bump map per creare le pieghe, ma ora ho capito l’importanza di creare le pieghe direttamente nella color map". Uno dei dinosauri di cui è più soddisfatta è lo stegosauro. "In una scena lo si vede passare davanti alla macchina da presa in primissimo piano e camminando lentamente, senza nessun motion blur, quindi ho dovuto veramente disegnarlo fin nei minimi dettagli". Questo lavoro è stato sicuramente facilitato dai recenti aggiornamenti al software proprietario Viewpaint. "Ai tempi di Jurassic Park", racconta Ross, "dovevamo lavorare un po’ alla cieca, cercando d’indovinare quale sarebbe stato l’aspetto finale dei dinosauri dopo che il direttore tecnico aveva aggiunto l’illuminazione e le ombre. Se volevamo che la pelle fosse chiara, per esempio, dovevamo farla 65 ancora più chiara, cercando di compensare lo "scolorimento" dovuto alla successiva applicazione di motion blur e illuminazione. Ora, possiamo vedere contemporaneamente le nostre color, bump e specular map; possiamo anche modificare l’illuminazione per farla assomigliare a quella della scena finale". Le mappe disegnate venivano poi prese in carico da un direttore tecnico, che applicava gli algoritmi procedurali scrivendo shader di Renderman per dare al modello il suo aspetto finale. Si è trattato di un processo interattivo. "Qualche volta potevamo sistemare le cose in maniera procedurale negli shader; altre volte, dovevamo farlo ritoccando le texture", spiega Miyashiro. L’illuminazione e il compositing Una delle scene del film più complesse da realizzare è stata quella in cui corrono quasi 50 creature contemporaneamente sullo schermo. "Dovevamo gestire un’illuminazione particolare su molte creature, e integrare il tutto in modo realistico in una scena dal vivo". In altre parole, bisognava inserire creature in CG in una scena con uno schema complesso di luci e ombre. Inoltre, le creature interagivano con l’ambiente, saltando su oggetti, sollevando la polvere, correndo in mezzo a fumo e fuoco, e attaccando le persone. Jack Mongovan, supervisore al rotoscopio, ha lavorato a questa scena per mesi, ritoccando le immagini di background in modo da poter comporre le creature in CG e gli effetti in CG. La scena è stata filmata utilizzando dei cavalli. "Presentano il vantaggio di continuare a correre", dice ridendo Mongovan. Poi ha dovuto cancellare i cavalli e i riferimenti posizionati sul terreno per far capire al resto del team la velocità alla quale scorreva il terreno. In alcuni casi, ha potuto utilizzare strumenti che lo facevano automaticamente. Per i "match mover" (responsabili della sincronizzazione tra immagini dal vivo e digitali) Terry Chostner e Dave Hanks, il compito era di creare un file 3D che imitasse o corrispondesse alle immagini di sfondo, e di creare una telecamera virtuale che imitasse la macchina da presa reale utilizzata per le riprese dal vivo. Gli animatori avrebbero potuto poi posizionare le loro creature e gli effetti in questo set virtuale. Per creare il set virtuale, i match mover hanno cercato di ottenere le misure esatte sul luogo delle riprese. "Avevamo bisogno delle distanze dalla macchina da presa degli oggetti nel campo di vista, e delle dimensioni di quegli oggetti. Più misure riuscivamo a ottenere, e meglio era". Hanno creato il set virtuale in una versione di Softimage che hanno adattato per gestire un loro tipo di telecamera. "Abbiamo inserito nel software gli obiettivi della macchina da presa", spiega Chostner. "La nostra speranza era di avere anche l’altezza della macchina da presa e la sua inclinazione di base". 66 Poi sovrapponevano all’immagine di sfondo la visuale in prospettiva da loro creata, e muovevano la telecamera fino a quando non corrispondeva con l’azione dal vivo. "Questo film è stato molto difficile", dice Chostner, "a causa della quantità d’interazione con l’ambiente. Non era facile ottenere delle buone misure". "In questo film abbiamo alcune scene in pura CG, un po’ di bluescreen e alcune miniature", dice Snow, "ma la maggior parte sono state riprese sul luogo". È stato compito dei direttori tecnici prendere tutti questi pezzi e metterli insieme. "Ricevevamo contributi di varia natura per tutto il giorno", dice Miyashimo. "File di animazione, rotoscopio, pezzi da modellisti, oggetti di scena, match-move. Li abbiamo messi tutti insieme e li abbiamo illuminati. Per ottenere dei rendering fotorealistici, ci siamo ispirati alle luci dei set cinematografici, non solo agli shader. Se sul set c’era una luce da 10K, cercavo di simularla". "Per quel che riguarda l’illuminazione, abbiamo dovuto affrontare la sfida di riuscire a ottenere i valori tonali che corrispondessero alle immagini di sfondo", afferma Muren. "In molte scene, avevamo tonalità basse, tonalità alte e quasi nessuna tonalità intermedia, quindi ottenevamo delle silhouette debolmente illuminate che erano molto, molto nitide. L’illuminazione del Mondo perduto è molto diversa da quella di Jurassic Park. È molto più suggestiva, terrorizzante. Tutti i rendering, i compositing e le riprese dovevano essere perfetti per funzionare insieme". Quando Muren stava valutando se lavorare a questo film, la gente gli chiedeva perché volesse farlo. "Mi domandavano: "Perché fare The Lost World? Lo avete già fatto". Mi sono tornati alla mente i tempi di Jurassic Park, quando molti mi chiedevano: "Perché usare la CG?". Quando sento queste domande, penso di essere sul punto di fare qualcosa di nuovo, perché la gente non riesce a capirlo e a vederlo. Si ha la possibilità di arrivare a un livello superiore, e il trucco sta nel capire qual è e come si fa ad arrivarci. Non volevo creare qualcosa che sembrasse Jurassic Park Lato B. Volevo capire qual era il passo successivo. Parte di questo passo è consistito nell’aspetto dei dinosauri, nel modo in cui si muovono e interagiscono, e nel modo in cui sono state progettate le sequenze. La combinazione di tutti questi elementi ha permesso di arrivare a un risultato superiore". Come ama dire Ben Snow, bisogna cercare nuovi modi per rendere sempre migliore la magia degli effetti speciali. 67 Regia: Steven Spielberg Sceneggiatura: David Koepp, dal romanzo "Il mondo perduto" di Michael Crichton Fotografia: Janusz Kaminski Scenografia: Rick Carter Musica: John Williams Effetti speciali dei dinosauri in Full motion: Dennis Muren Effetti speciali dei dinosauri in Live action: Stan Winston Effetti speciali dinosauri: Michael Lantieri Prodotto da: Gerald R. Molen, Colin Wilson (USA, 1997) Durata: 134' Distribuzione cinematografica: UIP PERSONAGGI E INTERPRETI Ian Malcolm: Jeff Goldblum Sarah Harding: Julianne Moore Roland Tembo: Pete Postlethwaite Peter Ludlow: Arliss Howard John Hammond: Richard Attenborough Nick Van Owen: Vince Vaughn Kelly Curtis: Vanessa Lee Chester Dieter Stark: Peter Stormare Ajay Sidhu: Harvey Jason 68 APOLLO 13 Ron Howard, 1995 Chi lavora nel campo degli effetti visuali deve accettare, come ironia di questo tipo di occupazione, che i risultati dei suoi migliori sforzi risultino spesso completamente invisibili. Questo è vero in particolar modo nel film Apollo 13 della Universal, dov'è difficile individuare qualsiasi elemento di computergrafica, anche se gli effetti sono presenti in tutto il corso del film. Come esempio prendiamo la sequenza del lancio. Se credete che sia reale, avete appena fatto un grande complimento alle qualità artistiche di chi lavora alla Digital Domain (Venice, California, USA). Anche se erano disponibili le riprese NASA del lancio dell'Apollo 13, non erano di qualità cinematografica. L'intera sequenza, quindi, è stata realizzata con miniature (il razzo) e computergrafica (tutto il resto, incluso lo sfondo). Per creare le nuvole di vapore acqueo, il fuoco e i detriti prodotti dalla propulsione, gli specialisti hanno utilizzato sistemi particellari. Per creare il fondale di Cape Canaveral, hanno sviluppato una tecnica molto intelligente basata sulla mappatura di aree di fondale su oggetti 3D. Questo ha permesso dei movimenti di camera d'effetto, in stile ripresa-dal-vivo della sequenza di lancio, che in effetti è stata girata in uno studio in motion-control. “Rob Legato, supervisore agli effetti visuali per Apollo 13, realizzava un movimento di camera, e noi dovevamo creare un fondale che gli si adattasse”, dice Kevin Mack, direttore artistico degli effetti digitali alla Digital Domain. Gli artisti sono partiti da riprese filmate da Legato a Cape Canaveral in un periodo di due settimane. “Sono state effettuate proprio all'inizio del progetto”, riporta Mack, “al punto che non era ancora stato preparato lo storyboard. Quindi Legato le ha realizzate in modo da avere in seguito la massima flessibilità”. Una ripresa che ha richiesto questo tipo di flessibilità era un movimento di camera costituito da “una gigantesca carrellata lungo la torre di lancio verso il basso, seguita da un'inclinazione verso l'alto”, spiega Mack, descrivendo la ripresa in motion-control della "miniatura" (alta sei metri) del razzo. Gli artisti degli effetti visuali dovevano sostituire il fondale verde della ripresa con un ambiente realistico che si adattasse al movimento di camera di 180 gradi con rotazione e cambiasse prospettiva di conseguenza. Per creare questo ambiente, una specie di set virtuale realistico, si sono ispirati alle tecniche utilizzate per realizzare mappature ambientali nella grafica 3D e ai piani multipli della cel animation. Per prima cosa, hanno creato modelli in wireframe del razzo con il software Prisms della Side Effects da usare come riferimenti per la ripresa. 69 Anche i dati di motion-control della camera sono stati portati in Prisms. Poi, Kevin e Martha Snow Mack hanno selezionato le riprese dal filmato girato da Legato e le hanno manipolate per creare un'ambientazione contestualmente accurata e per farle legare tra di loro. Hanno rimosso edifici, aggiunto erba alla piattaforma di lancio e creato una continuità d'illuminazione e di nuvole. “In un paio di riprese originali il cielo non era uguale, ma erano così adatte che volevamo comunque usarle”, riporta Mack, “così abbiamo aggiunto la maestosità dei bei cieli della Florida fondendola all'affascinante luce mattutina”. Poi, gli artisti hanno mappato le immagini modificate per la sequenza su piani posti ad angoli perpendicolari per creare una specie di diorama 3D, con il piano per il terreno, quello per le montagne e quello per il cielo. “È come mappare un ambiente all'interno di una scatola aperta”, spiega Mack. Normalmente, in una ripresa su più piani la camera è parallela al piano dell'immagine e i movimenti vengono applicati lateralmente. È un effetto ottico che imita quello che si sperimenta se, per esempio, si guarda da un finestrino di un'automobile e si vedono gli oggetti in primo piano correre via, mentre le montagne sullo sfondo rimangono fisse. Mappando invece le immagini su piani perpendicolari, gli artisti potevano effettuare movimenti su più piani e mantenere comunque la prospettiva per la ripresa che proponeva una rotazione di 180 gradi. “Dovunque si muova la camera, il fondale è corretto e in prospettiva”, afferma Mack. Per esempio, hanno usato tecniche di piani multipli per posizionare delle nuvole basse (una serie di disegni) in primo piano e oscurare la parte superiore del razzo mentre la camera si muoveva. “Abbiamo potuto mettere i piani a distanze differenti dalla camera, e quando la spostavamo, i piani si muovevano con la corretta velocità perché erano nello spazio 3D”. Queste tecniche, precisa Mack, non sono nuove, anche se l'applicazione può essere innovativa. “Le ho usate anche in precedenza”, riporta, “e lo hanno fatto anche altri. Ma penso proprio che le abbiamo migliorate perché le abbiamo applicate in maniera molto realistica”. Alla fine, quello che conta davvero è se funzionano. E sicuramente hanno funzionato molto bene, offrendo a Legato un mondo virtuale nel quale lavorare. “Abbiamo dato a Rob la massima flessibilità”, dice Mack. “Abbiamo effettuato riprese che non era possibile realizzare in nessun altro modo”. Ed è questo in fondo lo scopo degli effetti visuali. 70 Regia: Ron Howard Produzione: Brian Grazer Sceneggiatura: William Broyles Jr, Al Reinert Fotografia: Dean Cundey Montaggio: Mike Hill, Dan Henley Musica: James Horner Costumista: Rita Ryack Scenografia: Michael Corenblith (Usa, 1995) Durata: 140' Distribuzione cinematografica: UIP Distribuzione Home Video: CIC VIDEO PERSONAGGI E INTERPRETI Jim Lowell: Tom Hanks Fred Haise: Bill Paxton Jack Swigert: Kevin Bacon Ken Mattingly:Gary Sinise Gene Kranz:Ed Harris 71 JOHNNY MNEMONIC E VIRTUOSITY Robert Longo, 1995 È da un po' di tempo che si continua a parlare della sempre più stretta collaborazione tra Hollywood e Silicon Valley, cioè tra l'industria del cinema e quella dei computer. In genere, quando si pensa agli effetti speciali di un film, soprattutto se di fantascienza, vengono in mente potenti workstation e software da varie centinaia di milioni di lire utilizzati per arricchire di effetti visuali qualsiasi film. Le tecniche sono ormai così sofisticate che è virtualmente impossibile distinguere la finzione dalla realtà Ultimamente, però, sta emergendo la tendenza a utilizzare strumenti del tutto identici al personal che abbiamo in ufficio o in casa per realizzare gli stupefacenti effetti visivi delle grandi produzioni cinematografiche. Nell'ambito di produzioni hollywoodiane di serial televisivi, tra i computer desktop l'Amiga ha svolto un ruolo molto importante, vantando produzioni del calibro di Star Trek, Robocop, SeaQuest... Per quel che riguarda il cinema, come succede ai veri attori, che in genere all'inizio fanno solo piccole particine o ruoli marginali, i personal hanno dimostrato il loro valore a Hollywood nell'ambito della gestione della visualizzazione di prova di effetti speciali, della realizzazione elettronica dello storyboard e dello sviluppo dei titoli di testa e di coda. Il tutto con costi di realizzazione in genere molto contenuti. Ma oggi, anche i PC stanno entrando nella produzione di effetti visuali di qualità cinematografica. Lo dimostrano film importanti come Johnny Mnemonic della TriStar Pictures, interpretato da Keanu Reeves, e Virtuosity della Paramount Picture, interpretato da Denzel Washington. E siamo solo all'inizio, visto che ormai anche Softimage è disponibile non più solo per workstation, ma anche per PC. Un approccio multipiattaforma “Stiamo esplorando per primi l'utilizzo di più piattaforme di computer per la produzione di lungometraggi”, afferma Franck Foster, vicepresidente delle produzioni multimediali alla Sony Pictures Imageworks (SPI), la società della Sony Pictures Entertainment responsabile degli effetti visuali di Johnny Mnemonic. “In effetti, la SPI è così impegnata nella produzione multipiattaforma che stiamo realizzando l'interconnessione tra i nostri sistemi di produzione basati su PC e quelli basati su workstation. In questo modo, abbiamo la possibilità di utilizzare gli strumenti più adatti per una certa attività, a seconda che sia più importante il costo o il tempo di realizzazione. I risultati finali sono comunque in risoluzione filmica”, continua Foster. 72 Nel caso della L2Communications, produttrice degli effetti visuali di Virtuosity della Paramount, una data di consegna praticamente impossibile da rispettare ha costretto la società ad affidarsi a qualsiasi processo e tecnologia multimediale avesse a disposizione. A causa di ciò, la L2Communications ha sperimentato per prima molte tecniche che stanno rivoluzionando la fase di post-produzione dell'industria cinematografica. Secondo Brett Leonard, regista del film e co-fondatore della L2Communications, “Virtuosity utilizza una grande varietà di tecniche, incluso il morphing facciale, l'integrazione digitale del trucco, il controllo dei movimenti durante le riprese dal vivo, il compositing digitale di elementi dal vivo e di computergrafica, il matte painting e la creazione di ambienti completamente realizzati al computer”. Come per la SPI, la L2Communications ha sviluppato questi effetti rapidamente e con costi contenuti integrando varie piattaforme di computer, pacchetti software e tipi di supporto. Molti elementi di computergrafica del film sono stati creati dalla divisione interna L2Effects principalmente su PC dotati di processore Pentium con una combinazione di programmi proprietari e applicazioni commerciali, come 3D Studio della Autodesk, Photoshop della Adobe e CoSA After Effects. “In Virtuosity, i sistemi basati su PC sono stati usati per portare alla vita la visione della realtà virtuale di Brett Leonard. Gli strumenti si sono dimostrati perfettamente adeguati allo scopo”, afferma Jon Townley, supervisore agli effetti visuali della L2Communications. Il PC emerge da dietro le quinte Molto prima di utilizzare i PC per creare gli effetti visuali di Johnny Mnemonic, la SPI ha valutato molte soluzioni software per lo sviluppo in proprio di visualizzazioni di prova di effetti e di titolazioni. In precedenza, la progettazione degli effetti e la produzione di titolazioni era dominio di poche società specializzate. Nel 1993, dopo più di un anno di prove software su PC, Macintosh e workstation, la SPI ha scelto 3D Studio della Autodesk come componente principale del sistema di produzione digitale. Secondo Foster, questo sistema ha segnato il primo grande passo dell'industria cinematografica verso l'utilizzo intensivo dei PC per la pianificazione dei film e la produzione in proprio di titolazioni. “Inizialmente, abbiamo utilizzato 3D Studio per pianificare con costi contenuti il lavoro degli stunt-man, provare finali alternativi, e visualizzare in anteprima intere sequenze (poi realizzate in versione definitiva su workstation) ”, spiega Foster della SPI. Una volta provata la sua validità come sistema di previsualizzazione, il PC è stato poi utilizzato per la creazione dei titoli di testa e di coda. 73 Fino a oggi, la SPI ne ha prodotti più di una dozzina a risoluzione filmica con 3D Studio. Tra questi vi sono Wilder Napalm, Wolf e Speed. Incoraggiata da questi successi, la SPI ha iniziato a usare gli strumenti del PC per creare elementi di sequenze di effetti visuali. “Con l'importanza crescente che andavano assumendo gli effetti visuali, il nostro gruppo doveva dimostrare gradualmente che i PC avevano la potenzialità di ottenere risultati a risoluzione filmica”, fa notare Foster. “Una volta riusciti a dimostrarlo, il passo successivo era una realizzazione completa di effetti visuali”. La visione di William Gibson Il progetto di Johnny Mnemonic ha dato alla SPI la possibilità di dimostrare le capacità del proprio sistema di produzione basato su PC. Versione cinematografica di un racconto breve di William Gibson, Johnny Mnemonic è un film di azione/avventura interpretato da Keanu Reeves, scritto da Gibson e diretto dall'artista, scultore e creatore di video-clip Robert Longo. Ambientato in un futuristico "cyberspazio", un termine coniato da Gibson, Johnny Mnemonic racconta le vicende di Johnny, un corriere che deve consegnare dei dati, memorizzati su un chip installato nel suo cervello, o morire. Il produttore di effetti visuali della SPI George Merkert e il supervisore John Nelson sono stati incaricati di realizzare la visione del cyberspazio di Gibson. Una parte importante del lavoro ha coinvolto l'uso dei dipinti realizzati dall'artista Jamie Rama. In altre circostanze, la SPI aveva utilizzato sofisticate workstation per lavori di questo tipo. Ma per Johnny Mnemonic, limitazioni di budget e di disponibilità del sistema non hanno permesso l'utilizzo di questi sistemi. Confidando nel fatto che il reparto PC della SPI potesse creare l'aspetto del cyberspazio pensato dal regista Longo, entro i tempi e i costi previsti, Nelson ha incaricato Foster e il suo team di creare una serie di prove su PC. Dieci dei migliori animatori della SPI hanno utilizzato 3D Studio e Adobe Illustrator per creare un video di 45 minuti. Anche se questo video è riuscito a convincere Nelson che il PC poteva produrre i risultati desiderati, il produttore degli effetti Merkert rimaneva scettico. Secondo Foster, Merkert era preoccupato del fatto che il PC non riuscisse a raggiungere la risoluzione, i colori ed effetti di luce di qualità filmica. Particolarmente critica era l'animazione di una mano in realtà virtuale che doveva mimare perfettamente i movimenti reali di Keanu Reeves. Ancora una volta, il PC doveva superare un esame. Una prova aggiuntiva, realizzata da un veterano degli animatori degli effetti visuali, Glen Campbell, ha dimostrato a Merkert che 3D Studio poteva 74 realizzare la sequenza del guanto virtuale. Finalmente, la produzione degli effetti ricevette il via libera. I risultati di questo lavoro sono due significative sequenze di effetti speciali. La prima scena, battezzata la "chiamata telefonica", è la sequenza nel cyberspazio che inizia quando Johnny indossa i guanti e il casco virtuali. La sequenza incorpora circa 17 scene di computergrafica sviluppate principalmente con 3D Studio, ed è basata fondamentalmente su versioni tridimensionali dei dipinti di Jamie Rama, tradotte in forma elettronica dall'artista digitale Brumbauer. Durante una proiezione di prova, la sequenza del "telefono" ha fatto una buona impressione sul pubblico. Come risultato, il regista Longo ha richiesto alla SPI di creare un'altra esperienza di cyberspazio. Questa nuova sequenza, che inizia durante i titoli di testa, viene chiamata il "risveglio". In essa, si vede un segnale che viaggia attraverso uno stilizzato Internet del futuro, fino a quando non sveglia Johnny nella sua stanza d'albergo. John Nelson ha progettato la nuova scena di apertura come una sola sequenza digitale comprendente più di 2.400 frame a risoluzione filmica. Questo segmento di computergrafica della durata di 80 secondi, è la ripresa più lunga mai progettata e renderizzata interamente su PC per un film. Anche se la capacità del PC come strumento di produzione è stata continuamente messa in discussione, Nelson non ha mai perso la fiducia. “Era un progetto perfetto per il nostro reparto PC. Siamo riusciti a fornire al cliente le sequenze a un costo dimezzato rispetto a quelle realizzate su workstation, e a raggiungere comunque i risultati voluti da Longo”. La creazione di mondi virtuali Dall'altra parte della città rispetto alla SPI, la L2Communications ha creato molti mondi virtuali e altri effetti stupefacenti per il film Virtuosity. Il film è diretto da Brett Leonard, il cui precedente film Il Tagliaerbe aveva dimostrato che gli effetti digitali potevano essere creati con un budget modesto. In Virtuosity, Denzel Washington interpreta il ruolo di un ex-poliziotto che deve dare la caccia a un criminale generato al computer, scappato da un simulatore in realtà virtuale della polizia nel mondo reale. Le idee del regista Leonard per Virtuosity richiedevano che gli effetti digitali fossero visivamente accattivanti, ma non distogliessero l'attenzione dalla storia o dagli attori. Per esempio, durante le scene in realtà virtuale, Leonard ha voluto creare per le realistiche immagini di azione dal vivo delle inconsistenze visive, che fossero appena percepibili dal pubblico. In altre scene, gli effetti digitali sono stati usati per creare l'illusione che gli attori stessero 75 oscillando su sottili funi, senza controllo, a un'altezza di 50 piani sulla futuristica città di Los Angeles. Altre scene ancora hanno luogo in ambienti surreali o fantascientifici completamente ricreati con effetti visuali. Come nel caso della PSI, anche la L2Communications è da molto tempo un'utilizzatrice di 3D Studio e promotrice della produzione multipiattaforma degli effetti. Lo sviluppo degli effetti in questa società è una combinazione di creatività su più piattaforme, con elementi realizzati con Adobe Photoshop sul Macintosh e successivamente applicati ai modelli di 3D Studio su PC. I modelli tridimensionali sono spesso trasferiti di nuovo sul Macintosh per effettuare il compositing con CoSA After Effects. In alcuni casi, gli effetti sviluppati su PC vengono importati in pacchetti funzionanti su workstation per un raffinato compositing digitale. Computer che simulano se stessi Dato che Virtuosity è un thriller high-tech, i computer vengono usati in tutto il film e sono spesso vitali per la trama. Tuttavia, diversamente da molti film che utilizzano immagini registrate in precedenza o una visualizzazione grafica piuttosto semplice, Virtuosity utilizza programmi reali con i quali l'attore interagisce e sofisticati effetti visuali per quasi tutti i monitor di computer presenti sul set. In effetti, molti degli stessi strumenti utilizzati per gli effetti visuali di Virtuosity sono stati utilizzati anche per creare la grafica interattiva sullo schermo. In molte altre scene fondamentali, gli attori appaiono in mondi tridimensionali completamente renderizzati. “Diversamente dagli effetti aggiunti a scene riprese dal vivo, queste particolari sequenze sono interamente generate al computer, e sono quindi gli effetti del film più intensivi dal punto di vista del rendering”, spiega il supervisore agli effetti Townley. Questi mondi virtuali, che includono una scena con dune di sabbia e un'altra su una scacchiera, sono state per la maggior parte realizzate con 3D Studio e generate con una risoluzione filmica. Una volta realizzati i modelli 3D, gli artisti hanno usato una grande varietà di texture ed effetti di luce per dare a ciascun mondo un aspetto particolare. Gli artisti hanno anche creato molti effetti 3D con 3D Studio che sono stati aggiunti alle sequenze dal vivo del film. Post-produzione in tempo reale A complemento della serie di strumenti basati su PC utilizzati per creare effetti digitali, altre novità del campo della post-produzione hanno permesso di terminare Virtuosity a tempo di record. Secondo quanto riporta il regista Leonard, sono state utilizzate linee di 76 telecomunicazione digitali ad alta velocità per trasferire dati rapidamente e senza bisogno di supporti magnetici. Queste linee di trasmissione hanno permesso una comunicazione istantanea tra il reparto di effetti visuali e quello di montaggio, eliminando le perdite di tempo e le frustrazioni associate alla spedizione dei nastri in luoghi diversi. Virtuosity è stato montato interamente in modo digitale e in rete, permettendo un rapidissimo completamento del lavoro. La produzione ha anche largamente sfruttato l'Open Media Framework (OMF) Interchange, uno standard che permette lo scambio di dati tra formati diversi. A quanto pare, i mezzi sono diventati il fine, dato che Hollywood utilizza sempre più spesso i computer e il cyberspazio come soggetti principali dei propri film. Nello stesso tempo, il modo in cui questi film vengono prodotti diventa sempre più versatile, accessibile e poco costoso. Come risultato, produttori sia grandi che piccoli possono dar spazio alla propria creatività, e realizzare così gli effetti che attirano al cinema un pubblico sempre maggiore. 77 JOHNNY MNEMONIC Regia: Robert Longo Soggetto: William Gibson Sceneggiatura: William Gibson Fotografia: François Protat Scenografia: Nilo Rodis Jamero Montaggio: Ronald Sanders Musica: Brad Fiedel Produzione: Don Carmody (USA, 1995) Durata: 98' Distribuzione cinematografica: MEDUSA Distribuzione home video: MEDUSA HOME VIDEO PERSONAGGI E INTERPRETI Johnny: Keanu Reeves Jane: Dina Meyer J-Bone: Ice-T Takahashi: Takeshi Shinji: Denis Akiyama Street Preacher: Dolph Lundgren VIRTUOSITY Regia Leonard Brett Usa,1995 PERSONAGGI E INTERPRETI Crowe Russell Forsythe William Lynch Kelly Washington Denzel 78 JUMANJII Joe Johnston, 1995 Jumanjii, della Tristar Pictures è un film di azione avventura, basato su un libro per bambini del 1981, scritto da Chris Van Allsburg, nel quale un magico gioco da tavolo diventa una porta di comunicazione per un mondo fantastico. Questo mondo è pieno di centinaia di animali 3D che giurereste reali. È un passatempo molto bello ma, anche molto pericoloso, come scoprono presto Alan (Robin Williams), Sarah (Bonnie Hunt) e due orfanelli (Kirsten Dunst e Brodley Pierce). Un lancio dei dadi per esempio, fa irrompere un’orda di demoniache scimmie in una cucina, che si divertono poi a scorrazzare sulle moto della polizia. Un paio di rinoceronti a dimensione naturale, partono alla carica contro i muri di una casa, facendo volare da tutte le parti libri e scaffali. Dietro di loro ci sono elefanti, zebre e un pellicano che imperversano per le strade della città. Un rigoglioso leone si aggira per il corridoio. Sicuramente è stato molto divertente per il team degli effetti visuali della Industrial Light & Magic, che ha creato molti degli effetti speciali di Jumanjii e la maggior parte degli animali. La cosa interessante è che in questo film non ci sono animali reali. Il leone, il pellicano e i pipistrelli sono realizzati in computergrafica, con alcuni cugini “animatronic”, (pupazzi meccanici animati all’interno mediante comandi a distanza). Le scimmie e le zanzare sono interamente in CG, lo sono anche i rinoceronti e tutti gli altri animali che corrono sulla strada, (circa 60). Gli animali sono stupefacenti ma tuttavia non sono esattamente fotorealistici. Il regista Joe Johnston, che ha già contribuito alla vittoria di un Oscar per la ILM, (con la realizzazione degli effetti speciali de I predatori dell’Arca perduta), ha voluto che gli animali, dato che appartenevano a un mondo di fantasia, fossero più grandi e minacciosi di quelli reali della giungla. La creazione di questi animali presentava per la ILM due nuove difficoltà: la prima anche se gli animali di Jumanjii sarebbero state delle esagerazioni avrebbero comunque dovuto superare un test di realismo e diversamente dai dinosauri di Jurassic Park, gli animali di Jumanjii sarebbero stati confrontati con animali reali. Inoltre, mentre la ILM aveva avuto molto successo con le pelli simili a lucertole create per i dinosauri, realizzare un’intera pelliccia, quella per il leone, sarebbe stato un compito molto arduo. Il secondo problema sarebbe stato la gestione di dozzine di creature tutte inserite in un'unica sequenza e quindi modellate e animate. 79 Il lavoro fu diviso fra quattro gruppi, ciascuno con a capo un supervisore. Per prima cosa si modellarono i corpi dei rinoceronti e delle scimmie, la testa della zebra e i trenta musi delle scimmie e le dieci espressioni del leone per l’animazione facciale. Sono state necessarie in media sette settimane per ogni modello e mentre i modellisti creavano le forme, gli addetti agli “involucri”, (chiamati enveloper) si occupavano della pelle. Nello stesso tempo i disegnatori aggiungevano realismo mediante bump map e texture. La fuga inizia con due rinoceronti di dimensioni naturali che iniziano una carica lungo un corridoi, urtandosi l’uno con l’altro mentre si spostano oltre la macchina da presa. I rinoceronti fracassano i muri della biblioteca, una scena creata con la combinazione di elementi reali e in CG, e poi si mettono alla testa di una fuga precipitosa attraverso le case e nelle vie della città. Gli animali in fuga (rinoceronti, elefanti, zebre…), sembrano in numero infinito e sarebbe stato un problema gestirli tutti nella stessa scena in Softimage 3D della Microsoft, così è stato escogitato un metodo chiamato “Muncycle”, che utilizza pedine al posto di modelli reali. In seguito le pedine furono sostituite con gli animali “reali” ai quali furono aggiunti particolari della pelle, come le vibrazioni dei ventri e movimenti più fini, come l’inclinazione degli animali in curva. La sequenza dell’elefante che schiaccia col suo peso l’automobile è stata realizzata combinando insieme elementi reali con effetti visuali in CG. Gli animatori sincronizzarono i movimenti dell’animale con le ammaccature provocate fisicamente. Un’altra scena molto efficace è quando tutti gli animali vengono risucchiati in soffitta da una grande forza che distrugge finestre e muri. Gli animali scalciano e si agitano per uscire dal gigantesco vortice che avvolge l’intera stanza, cattura gli animali e crea un effetto di distorsione che li avvolge al suo interno fino a vaporizzarli e inghiottirli nel brodo primordiale. Le zanzare sono state ancora più divertenti. “Avevamo carta bianca”, racconta Mitchell; “non c’erano animatronic da imitare e i modelli non dovevano essere corretti anatomicamente”. E infatti non lo sono. Queste zanzare sono dei mostri, lunghi da 15 a 20 centimetri. ”volano in formazione come dei caccia stellari, si fermano di colpo e terrorizzano i bambini. Per la realizzazione delle scimmie la ILM impiegò circa un anno e i primi due mesi li passarono a studiare il comportamento e gli atteggiamenti delle scimmie. Il risultato è esattamente quello che le scimmie fanno nella cucina, creano disastri, così attraverso una combinazione di effetti reali e visuali, il forno a gas si trasforma in una palla di fuoco, i cassetti e i 80 piatti vengono lanciati in aria, le scimmie si appendono ai lampadari combinando una totale confusione. Una delle principali ragioni per cui le scimmie sembrano reali è la pelliccia. I peli corti vengono creati al livello di rendering, l’operatore orienta delle piccole frecce (vettori) per impostare la direzione della crescita, poi specifica i parametri per descrivere ulteriormente i peli. Per i peli lunghi gli animatori definiscono la posizione e la forma di singoli peli della criniera utilizzando un software personalizzato che si integra con Softimage. Una volta modellati, vengono fatti passare attraverso un programma di parametrizzazione per impostare texture che definiscono aspetti quali la lunghezza, il colore, la turbolenza e l’arruffamento. Oltre a sviluppare il software per i peli, il gruppo ha rifinito molti altri strumenti proprietari, come il programma di Paint 3D Viewpoint, il software di creazione delle pelli e quello di animazione facciale. 81 Regia: Joe Johnston Soggetto: dal libro di Chris Van Allsburg, adattamento di Greg Taylor, Jim Stain & Chris Van Allsburg Sceneggiatura: Jonathan Hensleigh, Greg Taylor & Jim Strain Fotografia: Thomas Ackerman Montaggio: Robert Dalva Scenografia: James Bissel Musica: James Horner Produzione: Scott Kroopf & William Teitler (USA,1995) Durata: 100' Distribuzione cinematografica: COLUMBIA TRISTAR Distribuzione Home Video: COLUMBIA TRISTAR PERSONAGGI E INTERPRETI Alan Parrish: Robin Williams Van Pelt/Sam Parrish: Jonathan Hyde Judy: Kirsten Dunst Peter: Bradley Pierce Sarah: Bonnie Hunt Bentley: David Alan Grier 82 SPECIES Roger Donaldson, 1995 Con l'esplosione della richiesta a Hollywood di creature e personaggi in computergrafica, questa fusione di talenti è destinata a ripetersi sempre più spesso. È una ricetta che potenzialmente può dare origine a grandi disastri o perlomeno frustrazioni. I registi sono abituati a lavorare con attori, spesso creando scene grazie all'improvvisazione. Gli animatori sono abituati a disegnare e approvare ciascuna scena nei dettagli, spesso immagine per immagine. Chiedere a un regista di film d'avventura di approvare un'animazione in forma di storyboard è come chiedere a un campione di karatè di descrivere in anticipo la sua prossima competizione e poi attenersi alla sua descrizione. D'altra parte, gli animatori che lavorano con i programmi di animazione in keyframing non dispongono di strumenti per l'improvvisazione. Quando la Boss Film (Marina del Rey, CA, USA) ha affrontato questo problema, lo staff tecnico ha preso in mano la situazione e ha progettato nuovi strumenti di animazione. Perfezionando un sistema di cattura del movimento (motion capture) da loro già utilizzato, sono riusciti a creare un sistema che ha permesso al regista di Species, Roger Donaldson, di lavorare in tempo reale con una creatura in computergrafica dotata di texture che si muoveva in un ambiente virtuale.“Roger è una persona che ama l'azione diretta”, dice Ellen Somers, vicepresidente della produzione alla Boss, “e non il tipo che ama affidarci le sue idee, sperando che abbiamo capito le sue intenzioni”. “La creatività deriva dalla capacità di essere spontanei”, dice Donaldson. “Se ci si deve affidare completamente allo storyboard, con tutte le sfumature più sottili decise con sei mesi di anticipo, si perde l'ispirazione”. Invece di usare gli storyboard, lo staff tecnico della Boss ha dato a Donaldson la possibilità di addestrare direttamente dei burattinai e di vedere la creatura 3D completamente coperta di texture in azione nel suo ambiente su un monitor TV. Per realizzare tutto ciò, è stato necessario realizzare dell'hardware e del software ad hoc, in modo da riuscire a catturare i movimenti in tempo reale e visualizzare il modello con texture. È stato anche necessario del software aggiuntivo per gestire il puntamento della telecamera e la sincronizzazione con l'ambiente virtuale. Ecco come si presentava il processo: tre o quattro burattinai che lavoravano in uno studio audio della Boss muovevano i cosiddetti waldo, armature simili a burattini realizzate con parti metalliche e altri dispositivi. Un burattinaio gestiva le braccia metalliche e un altro le gambe, quindi i due dovevano muoversi in perfetta armonia come dei ballerini, con il burattino tra di loro. Se facevano fare un salto al burattino da una scatola all'altra dello studio, Sil, il personaggio in 83 computergrafica 3D, compiva un balzo da una sporgenza rocciosa all'altra sullo schermo. Facendo accovacciare il burattino metallico si faceva in modo che il Sil digitale si appollaiasse sul ciglio di una caverna, con le zampe ben piantate sul "terreno". Nello stesso tempo, altri burattinai che lavoravano con altri waldo avrebbero aggiunto l'animazione facciale. Questa collaborazione creativa si è rivelata molto produttiva: lo staff è riuscito spesso a realizzare 100 o più riprese al giorno. Donaldson poteva improvvisare fino a quando non trovava quello che voleva, per poi approvare l'animazione. Alla fine, poteva poi portarsi via il lavoro in computergrafica su un disco SyQuest, collegarlo al suo sistema Avid e montarlo insieme alle scene riprese in precedenza dal vivo. All'inizio, però, non era tutto così semplice. Otto mesi prima, il modello sullo schermo era di soli 500 poligoni e venivano usati dei coni allungati per indicare la linea degli occhi. Con del nuovo software proprietario e con la sostituzione di un computer SGI Indigo con una stazione Onyx sempre della Silicon Graphics, il modello è diventato più sofisticato: da 5 mila a 10 mila poligoni dotati di texture visualizzati con una velocità da 24 a 30 frame al secondo. Poi “i nostri giovani geni hanno trovato il modo di attaccare una faccia a quel corpo”, dice Richard Edlund, fondatore della Boss Film Studios e anch'egli facente parte del gruppo dei geni. Quando lavorava alla Industrial Light & Magic Edlund ha vinto quattro Oscar per gli effetti speciali dei film Guerre Stellari e Indiana Jones, e da quando ha fondato la Boss nel 1983 ha ricevuto le nomination all'Oscar per sei film. “Uno degli aspetti positivi della Boss Film”, dice Shadril Ibrahim, capo del reparto di ricerca e sviluppo, “è che Richard non ha paura della tecnologia. Se abbiamo bisogno di un nuovo dispositivo meccanico, la sua risposta è sempre positiva”. In questo caso, i dispositivi meccanici erano i tre waldo: il burattino di metallo, i controlli facciali e il controllo dei capelli. Il burattino sembra una bambola di metallo realizzata con giocattoli di recupero da un mago dei computer, con un processore su ciascun arto e numerosi cavi collegati a un banco di personal computer 486. Ciascun PC è equipaggiato con una scheda personalizzata con un convertitore analogico-digitale. I dati risultanti vengono quindi inviati all'Onyx (si tratta dei dati provenienti dai tre waldo e da una telecamera), dove vengono composti in tempo reale con un fondale 3D preregistrato. “Donaldson voleva vedere un'animazione, ma voleva anche avvicinare la telecamera, rendere quindi Sil più grande”, dice Ibrahim. “Così abbiamo scritto del software per renderlo possibile”. In questo modo, il regista ha potuto cambiare l'angolazione della telecamera per guardare l'azione da una prospettiva differente. 84 Per l'animazione facciale un burattinaio manipolava un aggeggio che comprendeva delle levette per la mano sinistra e un controller per la mano destra. La combinazione di questi elementi attivava uno dei 24 modelli facciali per produrre, per esempio, un'alzata di sopracciglia, un ringhio o un occhio spalancato. Il waldo dedicato al controllo dei capelli muoveva la capigliatura tentacolare di Sil tutta insieme. “Nelle sequenze in cui invece "diventa Medusa"”, dice Ibrahim, “abbiamo usato il programma Dynamation della Wavefront”. In effetti, i prodotti Wavefront rappresentano il software principale di questo progetto. Per aumentare il frame rate della visualizzazione in tempo reale, Hiro Yoki Miyoshi della Boss ha reingegnerizzato il modulo Preview della Wavefront. Questo miglioramento, combinato con l'interfaccia progettata da Gauthan Krishamurti della Boss, ha permesso al team di "giocare" con Sil come se stessero mixando dei suoni. “Potevamo prendere la parte inferiore del corpo, farla combaciare con quella superiore e realizzare un nuovo movimento”, dice Ibrahim. Uno dei motivi per cui tutto ha funzionato così bene è l'attenzione ai dettagli da parte di Andre Bustanoby, responsabile dell'integrazione grafica alla Boss, che confida molto nel fatto d'immettere informazioni nel computer riguardo a una scena il più accuratamente possibile. Per esempio, quando la scultura in dimensioni reali di Sil è stata digitalizzata dalla Viewpoint Datalabs per poi modellare Sil con Alias, Bustanoby ha deciso di usare gli stessi dati in Cadkey per realizzare il burattino in scala 7/16. “Dal momento che tutto era in scala”, dice, “il puntamento della telecamera diventava significativo. Sil si muoveva nello spazio sul set e nel computer in modo molto accurato”. Un'altra ragione per cui il puntamento funzionava bene era il software che lui e il suo team hanno sviluppato. Inoltre, Bustanoby ha analizzato accuratamente i set reali, per poi ricostruire dei set in wireframe che facessero da riferimento per l'animazione. Per quanto questi strumenti siano fantastici, non significa che gli animatori siano rimasti con le mani in mano. “Potevamo vedere il fondale con i movimenti della telecamera e della creatura in tempo reale”, dice Somers. “Ma c'era comunque un enorme lavoro di rifinitura da aggiungere successivamente, come il respiro, i capelli e i movimenti delle dita”. “La nostra idea iniziale era quella di catturare i movimenti, darli in pasto al modulo Kinemation della Wavefront e usarli poi con RenderMan per il processo di rendering”, dice Jim Rygiel, supervisore agli effetti digitali. “Quando però abbiamo usato Kinemation, abbiamo notato imperfezioni che non avevamo visto in bassa risoluzione, così abbiamo rifinito il movimento”. Dale Baer, un animatore tradizionale, ha fatto da guida in questa fase. In alcune scene, i movimenti catturati sono serviti solo come riferimento. 85 In altre, sono stati utilizzati per alcune parti del corpo, mentre per altre parti è stata impiegata l'animazione tradizionale. “È stato un procedimento misto”, dice Rygiel. Un elemento di complicazione è stato poi il disegno stesso di Sil, realizzato da H.R. Giger, il creatore del mostro del film Alien. “La realizzazione della creatura di Giger era un progetto a dir poco ambizioso”, dice Rygiel. “A causa della sua pelle trasparente, aveva anche una parte interna. E in più non era una pelle liscia, ma stranamente ondulata”. Il modello in computergrafica di Sil ha 500 mila poligoni e anche se in alcune scene è stato possibile usarne di meno, si è dovuto comunque gestire quel mezzo milione di poligoni in molte scene del film. Rygiel racconta che numerose scene hanno dietro di loro un'opera di computergrafica decisamente interessante. “È un lavoro notevole”, dice, “usare trucchi 2D con tocchi di 3D per raggiungere una certa resa finale”. Per queste scene è stato utilizzato ancora una volta il software di animazione della Wavefront, Composer (sempre della Wavefront) per il compositing, Alias per alcune modellazioni ed effetti di luce, Softimage per la modellazione procedurale, Amazon 3D della Interactive Effect per il disegno e RenderMan della Pixar per il rendering. “Pensavamo che fosse un tremendo lavoro di rendering”, dice Rygiel. “Invece, normalmente ha richiesto 20 minuti per frame”. Dati i tempi di lavorazione limitati, la velocità di rendering è stata utile. “Potevamo arrivare alla resa finale velocemente e modificarla in fretta”, dice Somers. “Ma è un'arma a doppio taglio. È un procedimento così veloce da permettere di apportare modifiche. La buona notizia è che si potevano effettuare modifiche. Ma la cattiva notizia era proprio il fatto stesso di poterle effettuare”. Con la prossima generazione di sistemi della Boss, progettati per una maggiore capacità, la possibilità di effettuare modifiche renderà più facile (e più difficile) la vita a Somers. “Stiamo portando la computergrafica dagli studi ai set dal vivo”, dice Ibrahim. “Questo cambia completamente il modo di fare animazione. In più”, aggiunge sorridendo, “riusciamo a fornire un servizio d'intrattenimento Sil è stata modellata a partire da una scultura a dimensioni reali realizzata da Steve Johnson della XFX e digitalizzata dalla Viewpoint Datalabs. A causa principalmente del fatto che la sua pelle è trasparente, rendendo quindi visibile la sua struttura interna, il modello in computergrafica risultante, creato alla Boss Film utilizzando software Alias, è composto da un numero di poligoni variabile tra 250 mila e 500 mila. Sil è stata animata utilizzando un sistema di cattura del movimento (motion capture) proprietario della Boss, utilizzato insieme con i programmi Kinemation e Preview della Wavefront. È stato poi utilizzato RenderMan della Pixar per il processo di rendering. Ì 86 Regia: Roger Donaldson Sceneggiatura: Dennis Feldman Fotografia: Andrej Bartkowlak Montaggio: Conrad Buff Musica: Christopher Young Scenografia: John Muto Costumi: Joe I. Tompkins Creature e trucco effetti speciali: Steve Johnson Sil disegnata da: H.R. Giger Prodotto da: Frank Mancuso, JR., Dennis Feldman (USA, 1995) Durata: 140' Distribuzione cinematografica: UIP Distribuzione Home Video: CIC VIDEO PERSONAGGI E INTERPRETI Xavier Fitch: Ben Kingsley Sil: Natasha Henstridge Press Lennox: Michael Madsen Dan Smithson: Forest Whitaker Laura Baker: Marg Helgenberger Stephen Arden: Alfred Molina John Carey: Whip Hubley 87 WATERWORLD Kevin Reynolds, 1995 Per molte persone, la bellezza dell'oceano e di altre formazioni acquifere sta nella loro semplicità. Per i modellatori e gli animatori al computer che cercano di creare una rappresentazione realistica dell'acqua, tuttavia, l'apparente semplicità nasconde un mare di complessità. Alla Cinesite Digital Film Center, società di produzione con sede a Hollywood, si sono resi subito conto di questo paradosso quando è stata affidata loro la creazione degli effetti speciali per il film Waterworld (Universal City Studios), un film d'azione/avventura futuristico nel quale l'intero globo è coperto d'acqua. La maggior parte di Waterworld è stato filmato su set con acqua reale, fa notare Brad Kuehn della Cinesite, supervisore agli effetti digitali per il progetto. Alcune scene, tuttavia, sarebbero state troppo costose da filmare sull'acqua, inclusa quella verso la fine del film che si svolge su una petroliera. “La spesa del noleggio di una petroliera e di trasporto degli elementi aggiuntivi per il set sarebbe stata assurda”, afferma Kuehn. Invece, Michael McAlister, il direttore degli effetti visuali del film, ha costruito una piattaforma di quasi 200 metri di lunghezza sulla terraferma a Commerce, in California. Ha lasciato poi alla Cinesite il compito di fare in modo che la piattaforma sembrasse una petroliera galleggiante sull'acqua. La simulazione dell'acqua al computer è una sfida in sé. Cercare di creare un'acqua così realistica da non far capire al pubblico che si tratta di una simulazione aumenta sostanzialmente la sfida. Fortunatamente, quasi nello stesso periodo in cui il progetto di Waterworld aveva inizio, i rappresentanti della Cinesite hanno assistito a una dimostrazione di un nuovo programma di simulazione di oceani sviluppato da una piccola società di ricerche applicate chiamata Areté Associates, con sede a Sherman Oaks, in California. Jerry Tessendorf, scienziato della Areté, racconta: “La nostra società è sempre stata impegnata in esperimenti di remote-sensing nell'oceano. Abbiamo sviluppato particolari tipi di sensori, principalmente telecamere, ma non solo, e li abbiamo usati in ambienti oceanografici per misurare le condizioni e l'ambiente dell'oceano. Di conseguenza, abbiamo imparato molte cose sull'oceano, sia sulle sue proprietà fisiche, sia su come quelle proprietà appaiono alla telecamera”. Sfruttando la conoscenza acquisita dalla società nel corso degli anni, Tessendorf e i colleghi Erik Krumrey e David Wasson hanno sviluppato un programma per simulare scene oceaniche sia sopra che sotto il livello dell'acqua (hanno cominciato a lavorare al codice molti anni fa). La società ha intenzione di commercializzare una versione per SGI del programma, chiamata RenderWorld, nella prossima primavera. 88 Tessendorf ha contattato la Cinesite per verificare la resa delle acque generate dal programma nell'industria cinematografica. Per dimostrare le potenzialità del software, Tessendorf ha mostrato agli animatori una simulazione di 200 frame in risoluzione filmica di un'onda. Impressionato dalla dimostrazione, Kuehn si è reso conto che molte scene complicate di Waterworld potevano trarre beneficio dalla simulazione dell'acqua. “Se l'acqua è in una scala sbagliata, o con una velocità sbagliata, se qualsiasi cosa non è corretta, lo si vede subito”, afferma. Quindi, la Cinesite ha accettato di buon grado l'esperienza della Areté per il progetto. Anche se solo poche scene della petroliera avrebbero incorporato l'acqua simulata (Tessendorf stima un totale di circa 30 secondi, suddivisi in più riprese), sono stati necessari molti mesi di lavoro per la sua creazione. Tessendorf e Kuehn sono d'accordo sul fatto che una delle sfide più difficili è stata quella d'implementare il motion tracking. Per seguire i movimenti della telecamera, la Cinesite ha posizionato 25 marker sulla parte superiore e sulle fiancate della petroliera di 200 metri. Tessendorf racconta che “la telecamera era in continuo movimento, e se l'acqua non si fosse mossa di conseguenza, non sarebbe apparsa realistica. La Cinesite ci ha fornito le posizioni e gli orientamenti della macchina da presa per ogni frame, e la nostra simulazione ha mosso la telecamera esattamente nello stesso modo”. Kuehn aggiunge che “abbiamo anche indicato alla Areté la direzione del sole, la velocità e la direzione del vento e l'altezza desiderata delle onde. E loro le hanno messe nel programma”. Per generare l'acqua, il programma della Areté tiene anche conto di fattori che il normale artista di CG probabilmente non prenderebbe mai in considerazione. Per esempio, la Areté ha imparato dopo anni di ricerca che le onde più piccole di quelle che si riescono a vedere con la telecamera software influenzano comunque grandemente ciò che viene registrato. “Una telecamera vede solo le strutture più grandi, tipicamente meno di quelle presenti nell'oceano. Quello che fanno altri pacchetti è di generare soltanto l'oceano che la telecamera può vedere. Ma abbiamo scoperto che anche se le onde sono più piccole della risoluzione della telecamera, bisogna comunque tenerle in conto, perché influenzano quello che si vede. Abbiamo passato anni a sviluppare tecniche per tener conto di queste onde. Per Waterworld, allo scopo di ottenere il massimo dettaglio, abbiamo generato l'oceano con una risoluzione di circa 3 centimetri in tutte le zone puntate dalla telecamera. 89 Per velocizzare la generazione, abbiamo applicato un ricampionamento dinamico, in modo che quando la telecamera puntava all'orizzonte, fosse meno sensibile e il programma generasse quindi meno dettagli”. La Areté ha dovuto tenere in considerazione anche le richieste artistiche del regista. Per esempio, in una scena il regista voleva che l'acqua apparisse più luccicante. Tessendorf spiega: “Quando abbiamo progettato originariamente il codice, lo abbiamo concepito solo per un utilizzo nel campo della fisica. Non era quindi possibile modificare i parametri. Ma al regista piacevano alcune sequenze di riferimento e voleva che l'acqua apparisse nello stesso modo. Quindi abbiamo messo mano al codice e lo abbiamo modificato per permettere un maggiore controllo sui parametri e dei ritocchi di tipo artistico”. Gli artisti della Cinesite hanno effettuato le operazioni di compositing e rotoscoping che hanno fuso perfettamente l'acqua simulata con il resto del film. “Abbiamo fatto applicare un telone blu intorno a tutto il set, non per usare tecniche di blue screen, ma per il rotoscopio”, racconta Kuehn. “Il set era marrone, e il terreno intorno era dello stesso colore. Sarebbe stato difficile per gli artisti vedere dove applicare il rotoscopio con marrone su marrone. Con il blu, potevano vedere dove lavorare”. Anche se la Areté ha fornito agli artisti della Cinesite un'acqua con un aspetto perfetto, durante le operazioni di compositing quest'ultimi hanno dovuto comunque apportare alcuni aggiustamenti, utilizzando il software Cineon della Kodak e strumenti proprietari. “La Areté ci ha dato l'acqua e l'illuminazione corretta, ma abbiamo dovuto armonizzarle con il resto del film”, continua Kuehn. “Abbiamo aggiunto effetti come la nebbia sull'acqua. Abbiamo anche diffuso i riflessi e suddiviso l'immagine in varie sezioni, facendo in modo che gli elementi più lontani fossero più sfocati, imitando così la naturale perdita di fuoco”. Anche l'applicazione del rotoscopio è stata una grande sfida, fa notare Kuehn. “Abbiamo dovuto lavorare su immagini di persone che agitavano le armi, primi piani di teste, o capelli filamentosi. Su tutti questi particolari abbiamo dovuto operare fotogramma per fotogramma. Cinque anni fa, non si sarebbe potuto fare. Gli strumenti ottici e di disegno non erano abbastanza potenti. Alla fine bisogna avere una combinazione di strumenti giusti e talento artistico. Se non si hanno artisti in gamba, non si ottengono i risultati. Anche la Areté è orgogliosa del suo lavoro. E anche se la società ha intenzione di proseguire il suo impegno nella realizzazione di nuovi effetti speciali per il cinema, Tessendorf sottolinea che continuerà a concentrarsi principalmente su quello che conosce meglio: i processi fisici che influenzano i fenomeni naturali. 90 Regia: Kevin Reynolds Sceneggiatura: Peter Rader e David Twohy Fotografia: Dean Semler Scenografia: Dennis Gassner Montaggio: Peter Boyle Musica: James Newton Howard Produzione: Charles Gordon, John Davis,Kevin Costner (USA, 1995) Durata: 130' Distribuzione cinematografica: UIP Distribuzione Home video: CIC VIDEO PERSONAGGI E INTERPRETI Mariner: Kevin Costner Deacon: Dennis Hopper Helen: Jeanne Tripplehorn Enola: Tina Majorino Gregor: Michael Jeter 91 101: DALMATIANS Wolfgang Reitherman, 1996 Come si fa ad addestrare 101 cagnolini per farli sedere davanti alla TV e far finta di seguire un videogioco sullo schermo? “Non si può”, afferma Daniel Jeannette, supervisore delle animazioni alla Industrial Light & Magic (ILM). Non è neanche possibile addestrarli per far fare loro alcune delle altre cose richieste per questo film (un rifacimento nel mondo reale del cartone animato La carica dei 101 della Walt Disney), come correre in massa in un campo aperto. “Riuscite a immaginare cosa voglia dire controllare la direzione di 101 cani che corrono in un campo? Sarebbe praticamente impossibile!”. La soluzione della ILM per questo problema, naturalmente, è stata creare delle controfigure in CG dei cagnolini per affiancare quelli veri che sono i protagonisti del film. Tuttavia, non è stato per niente facile armonizzare i cani in CG con quelli veri. “Il problema del film La carica dei 101 era fare in modo che gli animali in CG sembrassero simili a quelli reali”, racconta Doug Smythe, supervisore associato degli effetti visuali. Diversamente dalla sequenza della fuga in Jumanji, nella quale tutte le creature erano in CG, “per questo film abbiamo inserito i nostri cani generati in CG nella stessa scena, persino fianco a fianco, con cani reali. Quindi quelli in CG dovevano essere assolutamente realistici. Dovevano essere perfettamente corretti l'illuminazione, il pelo... è stato un lavoro complicato”. Per riuscire nell'impresa, gli animatori hanno usato RenderMan per la maggior parte dell'illuminazione e del rendering, completando il lavoro con codice proprietario. “Per esempio”, riporta Smythe, “per gestire il pelo abbiamo aggiunto un modulo apposito a Prender, il renderer proprietario di particelle che abbiamo usato per Twister. Per le scene nelle quali tutti i cagnolini sono in CG, abbiamo creato 14 modelli da inserire nelle scene, e poi abbiamo animato singolarmente ogni cagnolino. Abbiamo iniziato con alcune animazioni di base da ripetere più volte, e poi abbiamo aggiunto delle sfumature ad alcuni dei cagnolini in primo piano, per esempio per cambiare lo sguardo, rallentare un po' o annusare il terreno”. Dato che la maggior parte delle sequenze richiedevano la presenza di un massimo di ben 99 cagnolini in CG, la ILM ha dovuto animare i cani in modo da combinare tipi diversi di movimento. “Siamo arrivati a realizzare circa 50 o 60 cicli di animazione per movimento: un cane che cammina, uno che corre, uno che trotta...”, spiega Jeannette. “Poi abbiamo personalizzato l'animazione per adattarla alla scena. Inoltre, abbiamo creato un cane e ne abbiamo variato le dimensioni, poi abbiamo applicato casualmente vari schemi di macchie sul corpo. In questo modo, abbiamo aggiunto un po' di varietà all'aspetto dei 92 cagnolini, in modo da non far capire che si trattava dello stesso modello replicato più volte”. 93 Regia: Wolfgang Reitherman, Hamilton Luske, Clyde Geronimi, Walt Disney Soggetto: Bill Peet (tratto dall'omonimo libro di Dodie Smith) Colonna Sonora: George Bruns Produzione: Walt Disney (USA, 1961) Durata: 76' Distribuzione cinematografica: Buena Vista Distribuzione home video: Buena Vista Home Video 94 DRAGONHEART Rob Cohen, 1996 Siamo intorno all’anno 1000. Finalmente la ribellione dei contadini contro il re despota ha avuto una svolta: sul campo di battaglia lo stesso sovrano è caduto e il suo erede, il principe Einon, è rimasto ferito gravemente ha causa di un incidente fortuito. Portato così in una grotta da sua madre, la regina Aislinn e dal suo precettore Bowen, un forte e nobile cavaliere votato agli alti ideali dell’Antico Codice, il ragazzo viene salvato dalla metà del cuore donato dal drago che abita al suo interno, dopo aver giurato che la tirannia e la sete di sangue sarebbero state sempre sepolte. Einon si dimostra però con il passare degli anni, despota molto più malvagio dello stesso defunto padre e Bowen, credendo che proprio il cuore del drago abbia avvelenato Einon, giura di dare la caccia alla creatura per il resto della sua vita. Bowen abbandona disgustato il reame, rinnega i suoi ideali cavallereschi e dedica la sua vita allo sterminio dei draghi, responsabili, secondo la sua visione, del cambiamento del re. Dodici anni dopo, Bowen ritorna al suo paese natale ma ormai l’onore e l’Antico Codice sono solo un sbiadito ricordo che hanno lasciato il passo a rassegnazione e rabbia. Insieme al frate e scrittore Gilbert il cavaliere trova finalmente l’ultimo drago rimasto, ma dopo una gloriosa battaglia che ne sancisce l’uguale forza, i due decidono di allearsi per reciproco vantaggio: il cavaliere in ogni villaggio attaccato dal drago fingerà di ucciderlo intascando la ricompensa, mentre Draco, (questo è il nome dato da Bowen la drago, doppiato dal bravissimo Gigi Proietti nella versione italiana), creduto morto sarà lasciato in pace dagli altri cavalieri che vogliono farsi un nome con la sua morte. I due vivono così alla meno peggio, ma la visita alla tomba di Re Artù e l’incontro con la bellissima Kara, figlia del capo della passata rivolta, danno la svolta alla storia. Scoperto che Draco era il drago che aveva salvato l’attuale re, e scoperto che Einon aveva tradito fin da piccolo la fiducia di Bowen, calpestando l’Antico Codice e imparando solo ciò che gli poteva servire per conquistare il trono, Bowen, ritrovando finalmente il suo antico onore e la sete di giustizia, Kara Gilbert e Draco si alleano per sconfiggere la tirannia del sovrano, consapevoli però che il destino di Draco e di Einon sono indissolubilmente legati… L'idea del film e' venuta a Patrick Read Johnson nel lontano 1990 ma il progetto arriva sugli schermi d'oltre oceano solo nel 1996 visto che la fase di pre-produzione e' stata lunga e travagliata. La sceneggiatura e' stata scritta da Charles Edward Pogue ("La Mosca") sempre nel 90 e doveva rappresentare proprio il debutto di 95 Johnson come regista ma come spesso avviene in questi casi (film in costume ed ad alto budget) l'Universal non se l'è sentita di affidarsi ad un esordiente e il progetto e' rimasto quindi bloccato per anni. Poi e' arrivato Richard Donnel ("Arma Letale") e ha provato a fare il film avendo in mente Harrison Ford nella parte di Bowen, ma niente da fare visto che i costi erano elevati anche per lui. Il film sembrava destinato all'archiviazione ma ecco la soluzione: arriva Raffaella De Laurentis (figlia del più famoso produttore Dino De Laurentis) e con la sua inventiva italiana e' riuscita a fare il miracolo. Invece che negli Stati Uniti si poteva girare il film in Slovacchia dove l'affitto di un teatro costava 600 dollari invece di 6000. Inoltre si sarebbe potuto risparmiare ulteriormente, utilizzando le maestranze locali per costruire i set e riservare gran parte del budget per i complessi effetti speciali di postproduzione. Il film ha avuto quindi il semaforo verde e per la regia ci si e' affidati a Rob Cohen che si era appena fatto notare realizzando l'ottimo "Dragon: La Storia di Bruce Lee". Il film venne girato dal Luglio al Dicembre del 1994 negli splendidi esterni del paese dell'Europa centrale o nei Koliba Studios di Bratislava (qui sono stati girati gli interni delle caverne, le stanze da letto e i cortili del castello). Il lavoro sul set e' stato molto complesso e calcolato al millimetro visto che decine di pertiche corredate da due palline da tennis, gli occhi del drago, erano l'unico riferimento fisso per gli attori ed indicavano il punto preciso dove guardare. Inoltre il terreno doveva essere battuto sotto gli immaginari passi di Draco, l'acqua smossa esattamente come al suo passaggio e condotti del gas, scavati nel terreno, accesi al momento giusto per simulare le potenti fiammate. Per finire, sulla testa degli attori volava un piccolo aereo dove una speciale telecamera riprendeva la soggettiva del drago attraverso il fumo e le fiamme. Unica consolazione era l'accompagnamento costante della voce pre-registrata di Sean Connery che recitava le battute di Draco nella sua maestosità. Nei due anni successivi la ILM ha lavorato intensamente alla nascita di Draco e alla sua creazione. Sotto la supervisione di Phil Tippet (creatore dei dinosauri di Jurassic Park) si e' prima decisa la morfologia del drago e le sue dimensioni in relazione alle inquadrature e all'interazione con gli altri personaggi della storia. Dopo un lavoro accurato di ben 5 mesi finalmente la scultura completa e' stata sottoposta a scansione 3D e introdotta su stazioni SGI. 96 tra animatori e direttori tecnici hanno realizzato le 181 riprese (corrispondenti a circa 30 minuti) dove un vero drago si può vedere alla luce del sole sullo schermo. Il problema più grande relativo alla post-produzione e' stato quello di sincronizzare la voce di Connery con il movimento labiale di Draco, visto che era una cosa mai provata prima: abbandonata l'idea del Motion Capture (non sempre perfetto) e' stato utilizzato un programma di sincronizzazione (lip-sinc) appositamente creato chiamato CARI (da 96 caricature). Questo software ha permesso di copiare, da numerosi film, le varie espressioni facciali e gli atteggiamenti del doppiatore Sean Connery e di "attaccarle" al muso di Draco permettendo cosi' di fargli esprimere tutte le emozioni possibili (gioia, rabbia, tristezza, ecc.) e di renderlo ancora più vivo agli occhi di tutti. Problematico e' stato anche il lavoro di inserimento delle immagini digitali sulla pellicola (compositing). Importanti fattori non dovevano essere trascurati, come la dimensione fisica dell'inquadratura e degli attori, la dinamica della scena (cioè aggiungere quei piccoli particolari che non si sono potuti aggiungere durante le riprese) e i particolari movimenti che dovevano obbedire a ferree leggi fisiche. I modellisti sono partiti dalla digitalizzazione mediante Cyberware del modellino di Tippet, in questo modo hanno ottenuto delle strutture di riferimento per determinare le proporzioni. Ciascuna parte del Drago è stata realizzata usando la minima quantità di dati, poiché i modellisti sapevano che quando il modello sarebbe stato messo insieme sarebbero stati aggiunti maggiori dettagli. Per creare queste parti hanno fatto uso del software Alias ma, quando hanno finito, il modello completo era troppo grande per essere gestito, quindi i dati sono stati caricati in Softimage 3.0 della Microsoft. Ancora prima che iniziasse la modellazione era chiaro che gli animatori avrebbero avuto bisogno di strumenti specializzati per gestire la sincronizzazione labiale di un modello così complesso. Il progettista software Cary Philipps ha scritto ciò che è diventato un software proprietario molto interessante, battezzato opportunamente Cari, “caricatura”. Con cari gli animatori sono riusciti a gestire l’intera caricatura e muoverla velocemente anche con un buon livello di ombreggiatura applicata. Per creare l’animazione facciale di Draco, gli animatori utilizzando Cari hanno realizzato una vasta libreria con diversi modelli del viso, così facendo hanno potuto realizzare tutte le espressioni necessarie. La sfida era di far sembrare in qualche modo che Draco parlasse come Sean Connery. Gli animatori dovevano essere in grado di cambiare e controllare nel tempo piccoli movimenti. Dovevano poter ascoltare le parole, immaginare le espressioni del volto, apportare una modifica e vedere subito i risultati per controllare che funzionasse. Per creare la sincronizzazione Doug Smith, recitava le battute di Drago ad uno specchio posto di fianco al monitor, quindi si spostava su un particolare fotogramma della timeline, consultava un elenco di 20-30 forme, ne selezionava una che voleva modificare, poi decideva quale percentuale di quella forma, usare in quel particolare momento. Per la bocca ha creato una chiave ogni tre fotogrammi. In modo simile poteva 97 modificare tutte le altre parti del muso di Draco per crearne l’espressione. Per esempio, abbassando e alzando una palpebra si cambiava l’espressione di Draco da addormentata a sveglia, da arrabbiata a sorpresa; spostandosi sulla timeline Smith identificava l’espressione che voleva modificare, consultava l’elenco di espressioni della libreria e immetteva dati in percentuale sulle forme da cambiare. Bisogna sottolineare il fatto che tutti questi cambiamenti sono da considerarsi come modifiche da effettuare nel tempo, facendo in modo che ogni movimento rispetti i tempi di copione. La maggior parte dell’animazione del corpo è stata fatta con Softimage su workstation Silicon Graphic utilizzando la cinematica inversa. I modellisti digitali Paul Hunt, Dan Taylor e Bruce Buckley hanno lavorato rispettivamente sulla testa e sul collo, le ali e le zampe posteriori; Poul Giacoppo ha lavorato su tutto quello che c’è in mezzo. Il modello ha 261.400 vertici di controllo e 5,68 MB. Per fare un confronto il Tyrannosaurus Rex di Jurassic Park aveva 37.173 vertici di controllo e 1,03 MB di geometria. Animare questo gigantesco modello e renderlo fotorealistico nel contesto di scene riprese dal vivo era un’impresa colossale. Draco appare insieme ad attori umani nelle stessa luce e con le stesse ombre, in scene illuminate da falò e dalla luce della luna. È alternativamente felice, triste, arrabbiato, imbarazzato e offeso. Cammina, vola, sputa fuoco, nuota e si atteggia. “È stato una specie d’insano e bizzarro esercizio di bravura”, afferma James Straus, supervisore all’animazione. “Abbiamo animato una creatura fotorealistica con il modo di fare di Sean Connery, che cammina sull’erba, nuota sott’acqua, vola sullo sfondo del sorgere del sole, si rotola nel fango e s’infila sotto una cascata. È come se avessimo fatto l’elenco di tutte le cose che sono difficili da fare con la computergrafica, e le avessimo realizzate. Seguendo i suggerimenti del regista Ron Cohen, è stato creato un drago orgoglioso e regale. “Cohen voleva un personaggio reale, che si accordasse alla voce di Connery”, racconta Straus. Quando Draco vola, Cohen ha suggerito che facesse un grande sforzo per rimanere in aria. “Pensavo che fosse pazzo”, dice Straus, “ma devo ammettere che è stato molto meglio così, piuttosto che farlo librare come un aquilone tenuto da un filo”. Oltre alle difficoltà affrontate dal team per la modellazione e l'animazione di Draco, è stato necessario creare sofisticati shader di RenderMan per inserire il personaggio nelle scene riprese dal vivo. In una scena scura, creata da Macdonald, una cascata di acqua cade sulle ali traslucide di Draco, che riempie completamente l'inquadratura. L'acqua è interamente realizzata in computergrafica. In un'altra sequenza, Draco atterra in un lago poco profondo. “In questo caso, dovevamo mettere insieme l'acqua con lo 98 shader della pelle di Draco alla luce del giorno, e fare anche in modo che Draco s'infangasse”, spiega Macdonald. In un’altra sequenza Draco bivacca con Bowen (Dennis Quaid), e si vede la distorsione del calore su Draco e una luce variabile causata dai bagliori del falò. Di notte, si vede Draco che proietta un'ombra su Bowen, che sta dormendo al chiaro di luna. Quando Draco vola basso sull'erba, questa si muove; quando cammina in mezzo all'erba, questa viene schiacciata sotto le zampe. In una scena, l'illuminazione è data da una parte da un falò, dall'altra dal chiaro di luna. Per creare l'impressione della pioggia battente sulle ali di Draco, Euan Macdonald della ILM ha scritto uno shader di displacement per l'acqua in RenderMan, uno dei tanti di questo tipo usati nel film. La pelle di Draco è stata creata da Carolyn Rendu con il software proprietario Viewpaint Quando Dragonheart è stato presentato nelle sale cinematografiche, ha suscitato reazioni contrastanti: i critici hanno bocciato la storia, ma hanno osannato gli effetti speciali. Quando Draco è stato presentato nelle sale cinematografiche, ha suscitato reazioni contrastanti, i critici hanno bocciato la storia ma hanno osannato gli effetti speciali. In ogni caso negli USA il film è rimasto in classifica tra i primi 10 per un mese intero. 99 Regia: Rob Cohen Sceneggiatura: Charles Edward Pogue Fotografia: David Eggby, A.C.S. Musica: Randy Edelman Scenografia: Benjamin Fernandez Costumi: Anna Shepherd Montaggio: Peter Amundson Prodotto da: Raffaella De Laurentis (USA, 1996) Durata: 100' Distribuzione cinematografica: U.I.P. PERSONAGGI E INTERPRETI Bowen: Dennis Quaid Einon: David Thewlis Gilbert: Pete Postlethwaite Kara: Dina Meyer Felton: Jason Isaacs Brok: Brian Thompson Einon da giovane: Lee Oakes Hewe: Wolf Christian Redbeard: Terry O'Neill Re Freyne: Peter Hric Felton's Minx: Eva Vejmelkova Voce di Draco: Gigi Proietti 100 INDEPENDENCE DAY Roland Emmerich,1996 Per capire come sia possibile realizzare un film così spettacolare come Independence Day, è interessante riportare il modo in cui è nata l'idea del suo soggetto. Subito dopo l'uscita del film Stargate, il regista Roland Emmerich aveva stupito una giornalista affermando di non credere alla possibilità che gli alieni avessero visitato la Terra. “Com'è possibile allora realizzare un film come Stargate?”, aveva domandato la giornalista. Emmerich rispose che la cosa che più lo interessava era di dare vita a ipotesi suggestive. “Per esempio, immaginate che un giorno la gente si svegli e veda fuori dalla finestra dei giganteschi dischi volanti che incombono sulla principali città di tutto il mondo. Non sarebbe un evento suggestivo?”. Subito dopo quell'intervista, Emmerich prese in disparte lo sceneggiatore-produttore del film, Dean Devlin, e gli disse: “ho l'idea per il prossimo film”. Dopo pochi giorni, Emmerich e Devlin si rinchiusero in una stanza di hotel, dove si dedicarono alla stesura della sceneggiatura e alla realizzazione dello storyboard di Independence Day. Il fatto che nella stessa stanza fossero riuniti il regista, lo sceneggiatore e il produttore del film, ha permesso di rendere ben chiaro sin dall'inizio del progetto cosa far vedere, come realizzarlo e con quanti soldi. Il risultato è un film che, con "soli" 70 milioni di dollari di budget, comprende ben 512 sequenze di effetti speciali che durano complessivamente la bellezza di 50 minuti. Per la maggior parte delle scene madri, in effetti, la ricerca del dettaglio e della complessità ha fatto optare per l'utilizzo di modellini fisici, spesso di grandi dimensioni. È questo il caso delle gigantesche astronavi o delle città che vengono rase al suolo dalle tempeste di fuoco aliene. Ma ogni scena ha richiesto un grande lavoro di compositing digitale: vi sono ben 340 sequenze di compositing, alcune delle quali durano fino a 50 secondi. Inoltre, alcuni fondali, soprattutto per le scene nello spazio, sono completamente realizzati in CG. Per effettuare una tale mole di lavoro, tra l'altro in brevissimo tempo (la produzione aveva come target di uscita inderogabile negli USA il 4 di luglio, giorno in cui è ambientato anche il film), il supervisore agli effetti digitali, Tricia Ashford, lo ha affidato a ben sei case di post-produzione diverse, che hanno lavorato parallelamente sulle varie sequenze. È stata anche formata un'unità di CG interna alla produzione, controllata da Tara Turner, Joseph Francs e Steven Puri. La Pacific Ocean Post e la Digiscope sono le società di post-produzione che hanno fatto la parte del leone, avendo elaborato una sessantina di sequenze ciascuno e un numero complessivo di 45 mila elementi fotografici e generati al computer. E il tutto a tempo di record. 101 Una delle scene che hanno richiesto un grande sforzo di elaborazione è quella in cui le grandi astronavi fuoriescono dalle strane nubi luminose che le nascondevano. In quel caso, le astronavi erano modellini fisici di grandi dimensioni, mentre le nubi sono state realizzate mediante un particolare impasto immerso in una vasca d'acqua. L'elaborazione digitale ha dovuto rendere credibile il tutto. Le inquietanti ombre che si distendono sulle città all'arrivo delle astronavi, sono state realizzate elaborando digitalmente i colori di fotografie aeree. Tuttavia, per la città di New York i molti grattacieli creavano troppe variazioni di altezza e di ombre, il che ha imposto la realizzazione di un modello 3D in wireframe che è stato sovrapposto all'immagine fotografica. Un codice proprietario inserito in Alias ha permesso d'inserire una sorgente di luce che simulasse il sole e un modello dell'astronave da far spostare lentamente per proiettare correttamente l'ombra. Anche il gigantesco meccanismo di "sparo" dell'arma aliena è stato composto digitalmente sull'immagine dell'astronave. Alla struttura dalla forma simile a enormi petali di fiori, realizzata con un modellino fisico, sono state aggiunte le scariche e il fascio di energia creati completamente al computer da Stefan Couture. I cieli stellati che fanno da sfondo all'arrivo degli alieni sono stati creati con un semplice sistema particellare, le immagini della Terra sono state realizzate mappando su un modello tridimensionale le migliori foto degli archivi NASA. Per la sena finale del film, la sceneggiatura prevedeva che un pilota di aerei per la disinfestazione agricola usasse il suo vecchio biplano per gettarsi al centro del fascio dell'astronave e la facesse esplodere. Terminato il film e sottopostolo al giudizio preliminare di alcuni spettatori, questi non hanno gradito una soluzione così "poco tecnologica". Quando già mancavano poche settimane all'uscita del film, è stato allora deciso di sostituire digitalmente il biplano con un caccia F-18. A quel punto, però, l'esplosione derivante dall'impatto non era assolutamente proporzionata alle maggiori dimensioni dell'aereo, e per di più il team che si occupava delle esplosioni aveva già finito da tempo il suo lavoro e non era più disponibile. Per aggirare il problema, è stata estratta la gigantesca esplosione nella scena realizzata per l'Empire State Building, la si è rovesciata (nella sequenza originale andava dall'alto verso il basso) e la si è composta digitalmente con la sequenza dell'impatto dell'aereo. Il risultato finale è praticamente perfetto. In alcune scene, la computergrafica è diventata non solo la protagonista, ma si è praticamente sostituita ad attori e sceneggiatori... È il caso delle due scene di combattimento (quella iniziale e quella finale) tra caccia F-18 terrestri e le "piccole" astronavi aliene di attacco. Nelle fasi più concitate, si vedono sullo schermo centinaia di velivoli che si inseguono, si sparano e si distruggono a vicenda. Mentre nelle scene più ravvicinate è stato possibile usare modellini fisici ed eventualmente 102 "replicarli" digitalmente per aumentarne il numero sullo sfondo, muovere singolarmente un numero così elevato di oggetti era impensabile. È stato quindi sfruttato uno speciale sistema particellare sviluppato dalla VisionArt, chiamato Spanky, per gestire e "orchestrare" il combattimento. Ogni particella era costituita da un intero velivolo, terrestre o alieno, realizzato in computergrafica con il programma Alias in modo perfettamente fotorealistico (per le texture del caccia F-18 sono state utilizzate fotografie dell'aereo reale). Ogni velivolo era "istruito" su quali obiettivi doveva colpire, con quale percentuale di successo e cosa doveva fare in caso fosse colpito. Nella maggior parte dei casi, dopo essere stati colpiti i velivoli venivano sostituiti automaticamente con modelli di esplosione. Alcuni parametri globali del sistema permettevano di variare durante la simulazione il numero di velivoli alieni rispetto a quelli terrestri, la percentuale di esplosioni e il livello di "successo" di una parte rispetto all'altra. 103 Regia: Roland Emmerich Sceneggiatura: Roland Emmerich, Dean Devlin Fotografia: Karl Walter Lindenlaub Montaggio: David Brenner Scenografia: Oliver Scholl, Patrick Tatopoulos, Jim Teegarden Costumi: Joseph Porro Musica: David Arnold Effetti speciali: Volker Engel, Doug Smith Prodotto da: Dean Devlin (USA, 1996) Durata: 145' Distribuzione cinematografica: 20TH CENTURY FOX Distribuzione home video: FOX HOME VIDEO PERSONAGGI E INTERPRETI Il presidente: Bill Pullman Capitano Steve Hiller: Will Smith David: Jeff Goldblum Constance: Margaret Colin Marty: Harvey Fierstein Marilyn: Mary Mc Donnell Generale Grey: Robert Loggia Russell: Randy Quaid 104 MARS ATTACKS! Tim Burton,1996 Un bel giorno la Casa Bianca avvista dei dischi volanti provenienti da Marte. Subito il governo si divide tra falchi e colombe: c'è il solito generale guerrafondaio (un irresistibile Rod Steiger) che vorrebbe affrontarli con le armi, ma un presidente vanesio e superficiale (Jack Nicholson in stato di grazia) abbindolato dagli scienziati pacifisti, decide di preparare un'accoglienza trionfale (complice l'isterismo collettivo della popolazione) ai nuovi amici venuti dallo spazio. Pessima idea perché i marziani sono piuttosto agguerriti e iniziano a mettere a ferro e fuoco il pianeta. Sarebbe la fine dell'umanità se un paio di disadattati (un giovane un po' ritardato e sua nonna) non scoprissero per caso che gli alieni possono essere sconfitti a colpi di musica country... Il film diventa un pretesto per mettere in scena un'opera a più livelli. Film sarcastico sulla società americana, ma anche omaggio ai film di serie B e al filone catastrofico, il tutto realizzato con una messa in scena fiammeggiante e colorata a metà strada tra Almodovar e John Waters. Si ritrovano in "Mars Attacks!" i temi prediletti dal giovane regista americano: l'affetto per i diversi e gli emarginati, il trionfo della spontaneità, l'amore per il cinema. L'idea di Mars Attacks!, come più volte ricordato nelle nostre news, nasce dalle figurine della Topps uscite nel 1962 in America rappresentanti raccapriccianti creature provenienti da Marte che, come cavallette, invadevano la Terra seminando panico e sangue. Figurine, peraltro, ritirate subito dopo perché ritenute troppo crudeli. Tim Burton associa a questa idea dei marziani feroci, le atmosfere dei film catastrofici degli anni '70 ambientate in un'America di fine millennio che però, per fotografia, ricorda quella degli anni '50. Poi aggiunge un cast d'attori notevole, tra cui spicca il grande Jack Nicholson, e una montagna d'effetti speciali che fin dai titoli iniziali ci inchiodano alla sedia. Per la sceneggiatura il regista si affida all'inglese Jonathan Gems, già autore di diverse commedie teatrali e, forte di questa esperienza, il prodotto finito - riveduto anche da Scott Alexander e Larry Flynt diviene senza ombra di dubbio una geniale visione ricca di intelligenza e umorismo irresistibile. Finalmente tornano gli alieni crudeli dei vecchi film degli anni '50, che rappresentavano per gli Americani la paura di un'invasione comunista, ma questa volta tornano, come film di Serie A, a bastonare una società che se lo merita. 105 I marziani di Burton sono cattivi da morire, con la morale sotto le suole delle scarpe, e si prendono gioco della nostra umanità facendocela in barba non appena gli si da un po' di fiducia. Tra una scena e l'altra il messaggio di Burton sembra essere sempre molto chiaro, per chi sa leggere tra le righe. Non siamo sicuri che la Terra meriti davvero di sopravvivere in questo mondo fatto di retorica e stupidità umana. Qui, come ho sentito dire da più parti, è il peggio a salvare dal peggio. E in quest'ottica il divertente film Mars Attacks! assurge mimeticamente a pellicola mortalmente seria, dove la distruzione della cultura consumistica americana, fatta di politici, televisione ed esercito merita di soccombere per sempre. Finalmente ci becchiamo i marziani che ci meritiamo! Per realizzare i buffi e micidiali alieni, Tim Burton pensò subito di utilizzare la stop-motion, cioè quella tecnica nella quale i pupazzi o modellini vengono animati mettendoli in posa manualmente e costruendo un’immagine per volta. I personaggi animati in stop-motion dovevano poi essere compositati digitalmente con i modelli fisici delle astronavi e con sequenze dal vivo. Effettuati i primi test, ci si accorse che l’animazione in stop-motion presentava notevoli difficoltà, soprattutto per i grandi caschi in vetro indossati dagli alieni. Per ogni “scatto” dell’animazione si sarebbe dovuto ripulire accuratamente il vetro dei caschi di ogni singolo alieno per evitare il rilevamento di impronte e dato il grande numero di alieni presenti contemporaneamente nella stessa scena il lavoro si presentava al quanto snervante. Si decise allora di affidare la realizzazione dei caschi alla ILM che avrebbe dovuto crearli in CG e compositarli con le immagini in stopmotion e i modelli delle astronavi. Il tipo di lavoro offerto alla ILM era tutt’altro che semplice, poiché il lavoro di compositing e sincronizzazione tra le immagini digitali e gli elementi presenti nella scena si presentava molto complesso a causa dell’elevato numero di elementi presenti in un’unica scena. Per aggirare questa difficoltà l’ILM decise di realizzare un’animazione con tre marziani composti con immagini dal vivo e di presentarla quindi al regista. La visione del film piacque talmente che Tim Burton decise di affidare alla ILM la realizzazione in computergrafica di tutte le creature, inoltre decise di realizzare digitalmente anche tutti gli esterni delle astronavi, affidandone il compito alla Worner Digital Studios (WDS). Per realizzare i modelli e le animazioni degli alieni, la ILM ha dovuto mettere insieme il più grande team di animatori dai tempi di Casper. Nei momenti più intensi della produzione, si è arrivati a una settantina di persone, suddivise tra una ventina di animatori, una trentina di direttori tecnici (cioè chi si occupa del rendering e dell’illuminazione), vari 106 match-mover (chi si occupa di far corrispondere i movimenti della telecamera in CG con quelli della macchina da presa), esperti di rotoscopio e personale di supporto. Sono stati creati una novantina di modelli diversi interamente in computergrafica, inclusi sette modelli di alieni, le strane pistole a raggi usate dai marziani, alcuni elementi all’interno dell’astronave, e un robot gigante che semina la distruzione sulla Terra. Per velocizzare la realizzazione dei modelli e delle animazioni degli alieni, la ILM ha per prima cosa svolto un lavoro di armonizzazione di tutti gli strumenti software proprietari e non utilizzati su stazioni Silicon Graphics per precedenti produzioni, come il sistema di particelle Dynamation usato per Twister, il software di animazione Caricature creato per Dragonheart, il programma di modellazione/animazione Softimage 3D utilizzato per Jurassic Park, e il pacchetto di rendering RenderMan della Pixar. In questo modo, tutti gli operatori avevano a disposizione una suite unificata di strumenti, permettendo un migliore scambio d’informazioni e di dati tra i vari team. La supervisione per la creazione dei modelli degli alieni è stata assegnata ad Andy White. Per colorare i vari elementi del modello, come il casco di vetro, il cervello e le tute degli alieni, è stato utilizzato il sistema proprietario Viewpaint, che permette di disegnare le texture direttamente sul modello tridimensionale. Jean Claude Langer ha colorato le tute, mentre Carolyn Rendu si è occupata del cervello. Per non appesantire troppo la geometria della testa, si è modellata una forma piuttosto semplice e le circonvoluzioni del cervello sono state aggiunte mediante una texture e una displacement map creata con RenderMan. La displacement map consisteva in una mappa in toni di grigio dei rilievi del cervello, che è stata sfruttata da RenderMan per spostare i punti lungo le normali alla superficie della testa in fase di rendering. Le caratteristiche fisiche degli alieni, furono indicate da Tim Burton con estrema precisione. Il loro aspetto doveva essere brutto ma nello stesso tempo minaccioso, i loro movimenti rapidi e leggeri come quelli di un uccellino, ma dovevano anche integrarsi perfettamente con gli esseri umani. L’esperienza di Tim Burton nel dirigere film d’animazione si è rivelata molto utile agli operatori della ILM. Tim Burton non aveva, a differenza di molti registi, la necessità di vedere la sequenza ad alta risoluzione per riuscire ad apportare eventuali modifiche, il regista riusciva a dare indicazioni precise anche quando, sul monitor del computer, appariva solo un modellino wireframe. Anche la realizzazione del vetro dei caschi ha richiesto una particolare attenzione. Attraverso bump map e mappe di opacità si sono aggiunti graffi e ditate. 107 Nella sequenza della “marziana sexy”, un alieno camuffato da donna provocante, penetra nella Casa Bianca e cerca di assassinare il presidente. La marziana è interpretata dall’attrice Lisa Marie, che indossa una vistosa parrucca adatta a coprire il cervello alieno, ma nella parte finale la parrucca viene sfilata mostrando una testa marziana sul corpo umano. In questa situazione l’ILM ha dovuto comporre e sincronizzare i movimenti della testa realizzati in computergrafica con quelli del corpo dell’attrice. Per prima cosa è stata cancellata dalle sequenze dal vivo, la testa dell’attrice che è stata sostituita con la testa aliena in wireframe. Infine si è proceduto all’animazione e sincronizzazione delle immagini in CG con quelle dal vivo, qui i match-mover hanno seguito la macchina da presa che continuava a cambiare il punto di osservazione insieme a un soggetto, l’attrice, sempre in movimento, un lavoro veramente faticoso. Un’altra sequenza problematica è stata quella nella quale il personaggio chiamato Byron, interpretato dall’attore Jim Brown, fa letteralmente a pugni con uno stuolo di marziani. In questo caso, il problema era dato dalla stretta interazione del personaggio reale con quelli virtuali, e dall’alto numero di marziani presenti contemporaneamente nella scena: da 50 a 70. Innanzitutto, è stata ripresa la scena dal vivo, con l’attore Jim Brown che faceva a pugni con... l’aria. L’attore doveva far finta di picchiare decine di personaggi alti circa un metro e mezzo, cadere sulle ginocchia e far "sentire" il peso di decine di corpi che lo schiacciavano. Durante le riprese, era presenta un matchmover della ILM che misurava con precisione i movimenti della macchina da presa, la distanza e la posizione dell’attore. Al computer, è stata ricreata una versione in wireframe dell’attore, per evidenziare la sua posizione rispetto ai marziani e per dare un’idea della direzione dello sguardo. Per gestire il gran numero di alieni, Ellen Poon ha scritto un software apposito, Pawns, che permette di posizionare sulla scena una versione semplificata dei personaggi, privi di gambe e di braccia, ma con una forma comunque simile ai personaggi definitivi. Gli alieni sono stati poi suddivisi in gruppi; in base alla posizione dell’attore, si è proceduto ad animare il combattimento di singoli gruppi, mentre gli altri eseguivano dei semplici cicli di "incitamento". Il fatto di animare e renderizzare singoli gruppi, ha però creato un’ulteriore difficoltà: le ombre proiettate da un gruppo sull’altro non erano corrette. Ellen Poon ha quindi ottimizzato una tecnica già utilizzata per il film La carica dei 101, creando una shadow map che comprendeva tutti i marziani. L’unione della shadow map con il rendering dei vari gruppi, ha permesso un compositing perfetto della sequenza di combattimento. 108 I sistemi di particelle generati con il programma Dynamation hanno permesso la realizzazione di alcuni degli effetti più raccapriccianti del film, come la vaporizzazione dei corpi a seguito dei raggi mortali sparati dagli alieni, l’esplosione dei cervelli degli alieni all’interno dei caschi, e l’impressionante sequenza iniziale con la mandria di buoi "incendiata" dalle astronavi. Nel caso della vaporizzazione dei corpi, gli artisti della ILM sono stati attenti a non rendere troppo violenta la scena, dietro precise indicazioni di Tim Burton. Per dare un tocco di stranezza alla sequenza, sono stati creati due tipi di raggi distruttivi, che differiscono solo nel colore. Quando un malcapitato viene colpito dal raggio, viene effettuato un morphing progressivo del corpo con lo scheletro sottostante; in corrispondenza della linea di "separazione" tra corpo e scheletro, vengono emesse delle particelle per dare un effetto di vaporizzazione. Naturalmente, il colore finale dello scheletro è uguale a quello del raggio che lo ha colpito... Nella sequenza battezzata in modo un po’ macabro "barbecue", ben 100 buoi corrono verso lo spettatore e si allontanano poi dalla macchina da presa con le schiene incendiate dagli alieni. Il fuoco è stato aggiunto digitalmente grazie al programma Dynamation, ma la cosa non è stata affatto facile, a causa del numero elevato di soggetti in movimento. La ILM ha deciso di "appiccare il fuoco" a "soli" 50 buoi, ritenuti sufficienti per dare l’impressione che l’intera mandria andasse a fuoco. Ad ognuno dei cinquanta animali è stata fatta corrispondere una patch B-spline che emetteva particelle. Per dare sufficientemente varietà e realismo alla scena, si è dovuto scrivere uno shader dedicato chiamato "fire" e utilizzare il programma proprietario di rendering delle particelle della ILM. Una volta renderizzate le particelle, la ILM si è anche occupata di ritoccare l’illuminazione del fondale, per simulare i bagliori causati dal fuoco su alberi, pali del telefono, trattori e altri oggetti della scena. Per il compositing, Tami Carter ha dovuto creare i mascherini per circa 400 zampe in movimento... Il fondale è stato ritoccato in modo che simulasse i bagliori causati dal fuoco, su alberi, pali del telefono, trattori ed altri oggetti della scena. 109 Regia: Tim Burton Soggetto e Sceneggiatura: Jonathan Gems Ispirato alle figurine "Mars Attacks!" della Topps Fotografia: Peter Suschitzky Scenografia: Wynn Thomas Costumi: Colleen Atwood Montaggio: Chris Lebenzon Musica: Danny Elfman Effetti visivi e animazione marziani: Industrial Light & Magic Prodotto da: Tim Burton, Larry Franco (USA, 1996) Durata: 103' Distribuzione cinematografica: WARNER BROS Distribuzione home video: WARNER HOME VIDEO PERSONAGGI E INTERPRETI Il presidente Dale/Art Land: Jack Nicholson Marsha Dale: Glenn Close Barbara Land: Annette Bening Donald Kessler: Pierce Brosnan Giocatore d'azzardo: Danny De Vito Jerry Ross: Martin Short Nathalie Lake: Sarah Jessica Parker Jason Stone: Michael J. Fox Il Generale Decker: Rod Steiger Tom Jones: Tom Jones Richie Norris: Lukas Haas Taffy Dale: Natalie Portman Byron Williams: Jim Brown La ragazza marziana: Lisa Marie Nonna Morris: Silvia Sidney 110 TWISTER Jan De Bont, 1996 Attesissimo e graditissimo ritorno dell’adrenalinico regista di Speed, per un film che con i suoi 240 milioni di dollari d’incasso rinnova alla grande la fortuna del filone catastrofico, complice la coppia Micheal Crichton Steven Spielberg, già felicemente collaudata in Jurassic Park e nel sequel Il Mondo perduto. Protagonisti di Twister sono gli storm chasers, i “cacciatori di tempeste”, giovani meteorologi che vivono per dare la caccia ai cicloni allo scopo di studiarne le dinamiche. Nel film agiscono due squadre rivali, inseguendo i tornadi per tutta l’Oklahoma come un pallone su un campo di calcio, l’una simpatica e un po’ spietata, l’altra ovviamente arrogante e sponsorizzata dalla testa ai piedi. A capo della nostra squadra del cuore abbiamo Halen Hunt, una giovane donna che da bambina si vede portar via per sempre il padre, proprio da un twister forza 5, il più temibile. Le si aggrega da subito Bill Paxton, l’aspirante ex marito, nonché ex collega, che in compagnia della futura moglie cercherà in vano per tutto il film di farle firmare le carte per il divorzio, che alla fine il vento si porterà via. Soprannominata Dorithy Gole, la bambina di Il mago di Oz, ovvero il primo film che ci ha fatto vedere una casa e una mucca librarsi in volo sullo schermo; questa macchina permette una volta posizionata nella giusta traiettoria del tornado, di studiarne la dinamica. Sarà proprio nel portare a termine questa missione ai limiti della follia che gli ex coniugi affronteranno i loro fantasmi e ritroveranno l’amore. Twister rappresenta un’impresa cinematografica piuttosto cara, perché è basato quasi esclusivamente sul tempo atmosferico, uno degli attori protagonisti più volubile che possa esistere. Le condizioni atmosferiche di Twister erano così estreme, che se si fossero realmente verificate durante le riprese del film, la troupe sarebbe stata in così grave pericolo da dovere fermare tutto e correre al riparo. Steven Spielberg incaricò la ILM di realizzare un test digitale di un tornado realistico. Dennis Muren, maestro in effetti visuali all ILM e Habib Zargarpour, supervisore alla computergrafica, presentarono alla Amblin nel gennaio del ’95 il loro test di 20 secondi ed era così ben realizzato e rappresentativo che si è dimostrato molto efficace e ha fatto un ottima impressione. Inizialmente il regista sperava di riuscire a riprendere dal vero qualche tornado ma, le condizioni atmosferiche per quasi tutte le riprese furono molto tranquille. 111 Di conseguenza tutti i tornado e i cieli presenti nel film sono realizzati digitalmente con l’utilizzo di sistemi particellari. I sistemi di particelle animano gli oggetti influenzati dall’onda d’urto del tornado e attraverso parametri, quali gravità, vorticosità, magnetismo, forza, accelerazione e durata della vita si creano interessanti movimenti globali così come particolari e dettagliati rimbalzi di singoli oggetti. Per animare perfettamente le traiettorie l’ILM ha dovuto perfezionare il software Dynamition della Alias Wavefront implementandolo con effetti quali campi di forza affinché la dinamica particellare riesca a imitare i cambiamenti repentini caratteristici di un tornado. Inoltre c’era bisogno di illuminare correttamente le particelle gestendo le ombreggiature e rifrazioni in base alla trasparenza di ognuna di esse, processo che ha richiesto tempi di rendering impensabili a causa delle limitazioni di memoria del software Dynamition. Per raggiungere questi obbiettivi, il progettista software Florian Kainz ha scritto appositamente un render di particelle molto veloce che permetteva anche l’uso di shader programmabili con i quali realizzare diversi tipi di effetti, da piccoli turbinii di polvere, a tornado che riempiono l’intera inquadratura, come il tornado F5 nel finale del film. Il regista ha voluto che il film avesse uno stile simile ad un documentario con scene filmate con macchine da presa portatili, con l’operatore che correva a piedi o su un’automobile. Alcune scene riprendevano un’area talmente grande da rendere praticamente impossibile qualsiasi punto di riferimento utile ai match-move in fase di post-produzione. Per superare questa difficoltà in alcune scene sono stati posizionati tanti match-move quanti erano gli elementi da seguire. Analisi di una scena Per questo particolare esempio farò riferimento ad una scena nella parte iniziale del film, che mostra un tornado di classe F2 che si avvicina e distrugge due silos, mentre il protagonista sta guidando in primo piano. Per prima cosa sono stati digitalizzati i fotogrammi della ripresa ed è stata effettuata una Color Correction. Sono stati ricreati i movimenti della telecamera con Softimage della Microsoft e sono stati composti gli oggetti nella posizione corrente con la fotografia digitalizzata sullo sfondo. È stato quindi creato il percorso del tornado e la sua forma, modellando superfici B-spline in Softimage. In seguito sono stati aggiunti gli altri elementi e animati con lo strumento Lattice di Softimage; in questo modo sono state applicate deformazioni alla struttura dell’oggetto come nel caso del tetto di uno dei silos che si ammacca cadendo sulla strada. 112 Il tornado è stato renderizzato su vari livelli con shader di Render Man piuttosto complessi dove ogni parametro controllava caratteristiche quali la nitidezza dei contorni, la velocità di rotazione e la colorazione lungo il vortice. Poi con il software Dynamation si è creata la polvere intorno al punto di contatto del tornado con qualsiasi superficie e la si è legata alla traiettoria di quest’ultimo. Una volta definito sommariamente il movimento delle particelle, il direttore tecnico ha iniziato a definire alcuni parametri di rendering, come colore, densità e il tasso di dispersione in allontanamento dalla sorgente di particelle alla base del vortice. Successivamente è stato animato il fienile modellato in Alias come una struttura già frammentata, in modo da suddividerlo in piccoli pezzi e farli vorticare nel tornado appena questo si avvicina ad esso. Infine il cielo è stato significativamente oscurato e l’ombra proiettata dal tornado e dalla nuvola di polvere è stata utilizzata per scurire la scena. Altri elementi in primo piano come gli alberi e le foglie sono stati ritoccati per rendere bene i contorni, così come il camioncino e l’apparecchiatura collocata sul piano di carico posteriore del mezzo che è stato fatto emergere rispetto agli elementi in CG dove c’era sovrapposizione. Il direttore tecnico responsabile per questa scena è stato Ben Snow, ma un intero team di artisti in CG ha lavorato alle varie attività come la modellazione, il match-moving, l’animazione, l’illuminazione, il ritocco e il compositing. È inutile dire che senza la CG molte scene non avrebbero mai raggiunto il realismo necessario al fine di essere effettivamente prodotto. 113 Regia: Jan de Bont Sceneggiatura: Michael Crichton, Anne-Marie Martin Fotografia: Jack N. Green Scenografia: Joseph Nemec III Montaggio: Michael Khan Supervisore agli effetti speciali: John Frazier Musica: Mark Mancina Produttori esecutivi: Steven Spielberg, Walter Parkes, Laurie Macdonald, Gerald R. Molen. Prodotto da: Kathleen Kennedy, Ian Bryce (USA, 1996) Distribuzione cinematografica: UIP Distribuzione home video: CIC PERSONAGGI E INTERPRETI Jo: Helen Hunt Bill: Bill Paxton Dr. Jonas Miller: Cary Elwes Melissa: Jami Gertz Zia Meg: Lois Smith 114 RELIC Peter Hyams, 1997 Al Museo di Storia Naturale di New York è la vigilia dell'inaugurazione di una grande mostra a tema sulla superstizione, che tutti attendono come l'evento culturale e sociale dell'anno. Le polverose gallerie ed i tetri corridoi echeggiano delle voci dei tanti studenti e turisti in visita: ma qualcos'altro si aggira per le ampie sale. Vengono infatti ritrovati alcuni cadaveri selvaggiamente dilaniati, squartati; e le autopsie indicano con certezza che la forza e la ferocia del killer non possono appartenere ad una creatura della razza umana. Nonostante il terrore cominci a serpeggiare fra lo staff ed il personale, i responsabili dell'organizzazione decidono di non sospendere le cose: ormai è troppo tardi, lo spettacolo deve andare in scena… Come fare in modo che un costume da 70 chilogrammi, lungo 5 metri e alto 1 metro e mezzo, si muova con la velocità e l’agilità di un felino? Non si può. Si deve piuttosto chiamare uno studio di effetti speciali e fargli creare un duplicato digitale. Ed è esattamente quello che hanno fatto i produttori del film Relic, per far muovere in modo realistico la loro creatura: il Kothoga. In Relic, il Kothoga (una creatura che ha origine dalla mitologia sudamericana e che è un misto di mammifero, rettile e insetto) terrorizza e uccide alcune persone intrappolate in un museo di storia naturale. Oltre al look della creatura, il regista Peter Hyams sapeva anche come voleva che si muovesse: con rapidità e destrezza. Stan Winston, responsabile del make-up e dei costumi, ha progettato e creato il costume fisico per il Kothoga. Tuttavia, il peso e le dimensioni del costume "reale" hanno reso difficile il suo movimento. Di conseguenza, è stata ingaggiata la VIFX di Los Angeles, casa produttrice di effetti digitali, per creare un Kothoga in CG per le scene in cui si vede la creatura a corpo intero che cammina, corre e salta. Per la VIFX, il progetto ha richiesto l’utilizzo di tecniche di animazione 3D dei personaggi più sofisticate di quanto non avessero mai realizzato finora. John DesJardin (DJ), supervisore degli effetti digitali per questo film, riporta che uno dei primi passi è stato quello di guardare i test con il modello fisico realizzato da Stan Winston, per vedere come la creatura si muoveva. Hanno anche fatto in modo di ottenere gli stampi originali della creatura, in modo che il modellista Scott Schneider potesse realizzare le parti per la digitalizzazione. La VIFX effettua la maggior parte delle digitalizzazioni in proprio, ma per questo progetto ha affidato il compito a Sandeep Divekar della 3Name3D (Santa Monica, CA, USA). "Gli abbiamo portato gli stampi e gli abbiamo detto: "Sandeep, è ora di lavorare con le NURBS, non le 115 aveva mai utilizzate, ma era una cosa che desiderava fare. Le persone come lui sono alla ricerca di superfici di ordine più alto. Quindi, è stato Sandeep a gestire la digitalizzazione della creatura". Un altro passo iniziale è stato la scelta del software di modellazione e di animazione 3D più adatto per il progetto. Essendo una piccola società, la VIFX ha sempre utilizzato in passato software commerciale, cercando di ottenere il meglio da quello che era disponibile. "Abbiamo deciso di continuare con questa filosofia", dice DJ. Il test del software è iniziato nell’ottobre del ’95 ed è continuato per tutto novembre. Alla fine, tuttavia, si è concluso che nessun pacchetto era adeguato all’intero progetto. "Abbiamo deciso di prenderne alcuni e metterli insieme, sfruttando i punti di forza di ciascuno", afferma. "Quando parlo di punti di forza, mi riferisco a qualche anno fa. Ora le cose sono molto diverse". La VIFX era già un forte utilizzatore di Prisms, continua DJ, con un certo numero di licenze del programma della Side Effects. E anche se apprezzavano Prisms per le funzioni procedurali, stavano cercando delle caratteristiche più potenti per l’animazione dei personaggi. Alla fine, hanno deciso di acquistare due pacchetti: PowerAnimator della Alias/Wavefront e Softimage 3D della Microsoft. "In quel momento, la cinematica inversa di PowerAnimator era buona, ma la velocità di aggiornamento era un po’ lenta rispetto a Softimage, che invece era relativamente veloce. Ma ci piacevano gli strumenti di PowerAnimator per assegnare deformazioni alle superfici", spiega DJ. "Quindi, abbiamo sincronizzato i movimenti delle scene in Prisms, li abbiamo esportati in Softimage e animato gli scheletri in questo programma. Poi, abbiamo esportato i dati degli scheletri fotogramma per fotogramma in Alias. Abbiamo scritto un programma che ci ha permesso d’importare i dati in Alias ed effettuare le deformazioni dello skin (la pelle). Poi tornavamo in Prisms per altre operazioni procedurali. La cosa interessante è che gli animatori non dovevano mai aprire Alias per fare qualcosa. C’erano due persone, James Bancroft ed Eric Jennings, che lavoravano in Alias tutto il tempo, assegnando deformazioni dei muscoli per mesi e mesi". Il fatto di usare due programmi ha richiesto anche la costruzione di due scheletri, uno in Alias e uno in Softimage, perché i due programmi non gestiscono la cinematica inversa nello stesso modo. Lo scheletro veniva prima costruito in Alias ed esportato in Softimage, e poi veniva ritoccato molte volte mentre si apportavano modifiche alla creatura. "Per esempio, abbiamo dovuto allungare il torso della creatura per farla correre nel modo giusto". Abbiamo deciso di creare le espressioni facciali usando lo strumento Shape shifter di Alias. Con questo strumento, si sa che nella posizione 0 la creatura non sta sorridendo, e nella posizione 1 sta mostrando i denti". La VIFX ha anche scritto uno script proprietario che ha agganciato agli oggetti con dati rotazionali dello scheletro di Softimage, in modo da 116 poter animare allo stesso modo in Alias e in Softimage. "Se avessimo passato i dati di rotazione dallo scheletro di Softimage a quello di Alias senza questi oggetti, la cinematica inversa di Alias avrebbe effettuato i calcoli in modo diverso". Durante l’impostazione della gerarchia della cinematica inversa, un altro aspetto da considerare erano i vincoli, dove includerli e dove non includerli. Secondo DJ, non sono molti i vincoli di cui un animatore si deve preoccupare. "Ricordo le prime volte in cui discutevamo come impostare la cinematica inversa, chiedendoci cose come: se un animatore piega un braccio di 270 gradi, dovremmo inserire dei vincoli su alcune articolazioni? E in certi casi, dovevamo farlo; nessuno vuole che una bone di Softimage ruoti di 300 gradi", afferma DJ. "Ma in realtà, nessun animatore si mette a piegare un braccio di una creatura di 270 gradi, perché non sarebbe realistico! Quindi, i veri vincoli vengono imposti dall’animatore". DJ sottolinea che è importante anche visualizzare nella propria testa come il personaggio si deve muovere. "Nonostante tutti gli strumenti esistenti per aiutare gli animatori a gestire le creature, niente può sostituire l’abilità dell’animatore. Deve saper visualizzare il movimento nella sua testa. Il software non può farlo al posto suo". DJ e i suoi collaboratori hanno guardato molti video di leoni e tigri, per cercare di trasferire i movimenti rapidi di questi grandi animali nel Kothoga. "Abbiamo persino guardato Il Re leone per vedere come la Disney aveva impostato l’animazione". Comunque, il perfezionamento dei movimenti del Kothoga ha richiesto numerosi ritocchi. Per velocizzare il processo di animazione, la VIFX non ha utilizzato la geometria completa del modello in Softimage. "Volumetricamente, era la stessa creatura", racconta DJ, "ma il modello semplificato ci ha permesso di effettuare molti test rapidi. Li abbiamo chiamati test del Kothoga "Michelin", perché il modello aveva un aspetto simile all’omino Michelin. Ma ci è stato veramente utilissimo, per determinare rapidamente i path, i movimenti generali, il peso generale della creatura. Credetemi, abbiamo effettuato molte, molte iterazioni usando il Kothoga Michelin". Una scena particolarmente complessa, ricorda DJ, era quella nella quale Kothoga attraversa una serie di uffici sfondandone le pareti. "Arriva davanti a un ingresso e non si preoccupa del fatto che è chiuso. Si limita a sfondare i muri, bam, bam, bam, uno dopo l’altro". La difficoltà di questa scena consisteva nel fare in modo che un personaggio in CG "senza peso" sfondasse non solo una parete, ma molte pareti consecutivamente. DJ e il suo collaboratore Greg McMurry, il supervisore agli effetti visuali del film, hanno ideato una soluzione. Hanno utilizzato un carrello in motion-control dipinto di arancione (per facilitarne la sostituzione con la creatura in CG) per effettuare gli "sfondamenti", e poi hanno composto il Kothoga. "Dato che il movimento del carrello era controllato dal computer, avevamo un canale associato alla sua velocità, in modo che gli animatori 117 conoscessero esattamente la velocità di traslazione della creatura", spiega DJ. "La ripresa è stata effettuata seguendo la creatura di fianco, mentre sfonda le pareti. In questo modo, è stato più facile creare il mascherino, ma ha presentato altri tipi di problemi, come quello dei detriti. Abbiamo usato il rotoscopio per alcuni di essi, ma la maggior parte dei detriti sono stati realizzati al computer, come i pezzi di vetro e quelli di legno più grossi". Complessivamente, la VIFX ha lavorato per quasi un anno intero su Relic (si è occupata di tutti gli effetti del film, compresa la rimozione dei fili). All’animazione del Kothoga hanno contribuito 12 persone, e nel film finale ci sono circa 10 minuti complessivi di animazione in CG. 118 Regia e fotografia: Peter Hyams Sceneggiatura: Amy Jones e John Raffo, sulla scorta dell'omonimo romanzo di Douglas Preston e Lincoln Child, edito in Italia da Sonzogno Scenografia: Philip Harrison Costumi: Dan Lester Montaggio: Steven Kemper Musica: John Debney La creatura è stata realizzata da: Stan Winston Prodotto da: Gale Ann Hur, Sam Mercer (Usa, 1997) Durata: 110 ' Distribuzione cinematografica: CECCHI GORI GROUP Distribuzione home video: CECCHI GORI HOME VIDEO PERSONAGGI E INTERPRETI Margo Green: Penelope Ann Miller Vincent D'Agosta: Tom Sizemore Ann Cuthbert: Linda Hunt Albert Frock: James Whitmore Hollingsworth: Clayton Rohner Greg Lee: Chi Muoi Lo 119 SPACE JAM Joe Pytra, 1997 Space Jam è il primo caso di un film ispirato da uno spot pubblicitario, invertendo così il tradizionale processo creativo che vede la pubblicità ispirarsi ad opere cinematografiche. Non è un caso che il regista del film, Joe Pytka, sia anche un acclamato ideatore e realizzatore di spot pubblicitari, fra cui quello delle scarpe Nike che avevano come testimonial d’eccezione Michael Jordan. L’idea proposta a Ivan Reitman, produttore del film, era quella di realizzare un’opera che mescolasse le tecniche bidimensionali d’animazione con personaggi in carne e ossa sulla scia di altri celebri predecessori come Mary Poppins o Chi ha incastrato Roger Rabbit ? Il film è inoltre un veicolo ideale per la consacrazione cinematografica dei Looney TunesI (Bugs Bunny, Wil Coyote, gatto Silvestro, solo per citarne alcuni), i celebri personaggi animati della Warner Bros. La storia, che è ovviamente un mero pretesto per giustificare delle situazioni cartonistiche, vede i Looney Tunes impegnati in una partita di pallacanestro contro i Nerdlucks, dei petulanti alieni inviati sulla terra per rapire e trasportare i loro avversari nel parco giochi di Moron Mountain, come attrazioni. Bugs Bunny ed i suoi compagni decidono di giocarsi la libertà ad una ad una partita di pallacanestro e sfidano gli alieni sul campo da gioco. Gli alieni hanno la facoltà di assorbire le energie, così si impossessano del talento di alcuni giocatori della NBA trasformandosi in giganteschi mostri di incredibile abilità, i Monstars. I Looney Tunes rapiscono Micheal Jordan, il più grande giocatore di basket vivente e lo convincono a giocare la partita nella loro squadra, dando luogo ad una delle più esilaranti sfide sportive mai viste sul grande schermo. I buoni vincono sempre e alla fine i cinque alieni, redenti, entreranno addirittura a far parte dei Looney Tunes. Lo staff di Space Jam ha veramente sudato sette camicie per realizzare il film. Ed Jones, che ha lavorato alla ILM e ha fondato la Cinecite, è stato il vero punto di riferimento per gli effetti di Space Jam. Jones ha vinto un Oscar per l’ottimo lavoro svolto con Chi ha incastrato Roger Rabbit ? Anche se Space Jam può essere confrontato con Roger Rabbit i due filoni sono fondamentalmente diversi per stile e uso della tecnologia. In molte scene di Roger Rabbit, si è fatto uso di macchine da presa montate su cavalletto o di varianti delle attrezzature di motion-control, sviluppate originariamente per Guerre Stellari. Per Space Jam questo non è stato possibile a causa del tipo di riprese effettuate dal regista Joe Pytka, il quale usa camere a mano che trasportano l’operatore nel cuore dell’azione. Inoltre sarebbe stato 120 impossibile coreografare le movenze di gioco di Michael Jordan, con precisione meccanica e i movimenti della macchina da presa avrebbero dovuto essere rigidamente definiti. Ed Jones doveva offrire a Pytka e a Jordan la libertà di fare quello che volevano e doveva comporre l’animazione e le riprese dal vivo in modo assolutamente perfetto. “L’arte dello stile di ripresa di Joe Pytka e delle azioni di Michael Jordan sono frutto della spontaneità”, afferma Jones. “La difficoltà è stata mantenere quella vitalità una volta messe insieme le riprese dal vivo con l’animazione. Inseguire i movimenti Jones rovescia l’intero processo di traking con un sistema proprietario di motion traking. Normalmente pensiamo a un set come a un sistema di riferimento con punti fissi, con gli attori che si muovono all’interno di uno spazio confinato. Usando tecniche di compositing digitale, invece, gli attori in carne e ossa possono diventare i punti fissi. Il set e i personaggi animati vengono posizionati intorno agli attori. Quando un personaggio animato passa davanti a un attore, si usa un travelling matte (mascherino in movimento) per oscurare parti dell’attore. Jones ha costruito un set in greenscreen nello stage 22 della Warner Bros e lo ha riempito con personaggi vestiti di verde. Ha poi posizionato una serie di indicatori rossi su una griglia di 1 x 2 metri di lato, per creare una matrice di riferimento, la griglia corrispondeva a quella generata al computer del set virtuale. Quando i movimenti della camera del set virtuale e di quella reale, corrispondevano il mondo virtuale e quello reale erano sincronizzati. Gli operatori in CG hanno usato software di rimozione di mascherini per cancellare gli attori di supporto e il set, e i vari programmi di paint per rimuovere le parti dell’attore oscurate dai personaggi digitali. Poi hanno evidenziato delle aree di massima nelle immagini dove gli animatori dovevano disegnare i personaggi 2D. Una volta ottenuta una chiara versione della sequenza ripresa dal vivo, gli animatori hanno potuto cominciare il loro lavoro. Per realizzare le scena che il regista Joe Pytka aveva in mente, 18 Studi di animazione hanno collaborato in tutto il mondo. Più di cento animatori tradizionali hanno completato i disegni, sviluppando un nuovo linguaggio visivo più consono alle ambientazioni 3D. Tutti i disegni sono stati digitalizzati con il sistema Animo della Cambridge Animation. 121 Gli artisti hanno applicato la colorazione digitale a ogni singolo fotogramma. Ogni personaggio animato ha richiesto un proprio set di elementi, incluso contorni, colori di riempimento, riflessi, luci e motion blur. Una normale ripresa con azioni dal vivo, personaggi 2D, ambienti 3D, può richiedere da trenta a quaranta livelli nel sistema di compositing Cineon della Kodak. Alcune scene, come quelle della palestra, sono arrivate a centinaia di livelli. Space Jam è l’inizio di una rivoluzione verso la cinematografia completamente digitale. 122 Regia: Joe Pytka Sceneggiatura: Leo Benvenuti e Steve Rudnick Fotografia: Michel Chapman, A.S.C. Musica: James Newton Howard Scenografia: Geoffrey Kirkland Montaggio: Sheldon Kahn, A.C.E. Prodotto da: Ivan Reitman (USA, 1997) Durata: 88' Distribuzione cinematografica: WARNER BROS Distribuzione home video: WARNER HOME VIDEO PERSONAGGI E INTERPRETI Michael Jordan: Nel ruolo di sè stesso Stan Podolak: Wayne Knight Juanita Jordan: Theresa Randle Larry Bird: sè stesso Bill Murray: sè stesso Larry Johnson: sè stesso DOPPIATORI NELLA VERSIONE ITALIANA Bugs Bunny: Massimo Giuliani Swackhammer: Giampiero Galeazzi Lola Bunny: Simona Ventura Bertie: Sandro Ciotti Daffy Duck: Marco Mete Silvestro: Roberto Pedicini Porky Pig: Marco Bresciani Titti: Ilaria Latini 123 STARSHIP TROOPERS Paul Verhoeven, 1997 Il film si ispira al romanzo Fanteria dello spazio di Robert Heinlein, che già suscitò al suo apparire vivaci polemiche per i suoi contenuti sociali ed ideologici. Le stesse accuse di militarismo hanno accompagnato l’uscita del film, spostando sul piano ideologico quello che è soprattutto un’operazione estetica. Verhoeven affronta il soggetto da cinefilo non da politico. Adattando un romanzo degli anni ’50, il regista si rifà con grande eleganza al cinema di quell’epoca; non tanto a quello di fantascienza, quanto a quello bellico. I grandi film di guerra risentono inevitabilmente del clima ideologico che li ha ispirati e si rivedono con un certo imbarazzo. Avendo a disposizione come nemici dei ripugnanti insettoni, Verhoeven si è permesso invece il lusso di far rivivere senza pudori le passioni di un’epoca in cui si pensava che il nemico stesse da una parte sola e che non ci fossero dubbi sulla legittimità di annientarlo… Nella terra del futuro, unita in un’unica nazione anglofona, regna un’apparente benessere basato su una rigida distinzione sociale fra cittadini, termine col quale si indicano gli elementi di un organizzazione militare chiamata Federazione, e semplici civili. Terminato il liceo, John Rico (Casper Van Dien) decide di arruolarsi nella fanteria mobile impegnata a lottare ai confini del Sistema Solare contro una razza d’insetti alieni Potentissimi che vogliono conquistare la Galassia. In un futuro lontano governato dai militari si combatte una tragica battaglia, dove giovani vite vengono sacrificate e Rico è insieme a molti suoi compagni di scuola pronto a sacrificare la vita per essere un cittadino della federazione degno di questo nome. Non è un caso che un buon numero di attori di questo film abbia partecipato in maniera più o meno attiva agli episodi di serial Soap telefilm come Beverly Hills 90210. Già, perché essendo belli e “geneticamente perfetti” erano gli ideali antagonisti per questi scarafaggi volanti, che della terra vogliono solo farsi un bel boccone. Girato con i toni e i colori della pubblicità, con le incongruenze e le tematiche tipiche del film stile “fine del liceo”, Starship Troopers ha però molti appeals che non vanno trascurati. In un background fantascientifico si vede una società fascista e militare, mandare i suoi ragazzi migliori a morire sul campo di battaglia nei diversi pianeti della galassia. Il libro, uscito alla fine degli anni ’50 in piena guerra fredda è un inno al militarismo americano più oltranzista; un regime che alleva guerrieri 124 giovani e belli, che ricorre a simboli, bandiere, uniformi e saluti che evocano il Terzo Reich. Incentrato su una specie di metafora sulla perdita dell’innocenza da parte dei giovani soldati che, sebbene destinati a morire, quel po’ che gli resta da vivere lo trascorrono nelle loro basi, dove sono alloggiati in maniera promiscua con altrettante soldatesse. Molti sono gli spunti interessanti presenti in questo film, dalle pubblicità presenti sul canale militare, propagande a metà tra televisione e internet; intitolate: Perché combattiamo? Alla regolazione civile dei cittadini (…Se vuoi avere un figlio o fare politica devi essere stato un soldato), dalla bellissima soldatessa con cui si fa regolarmente la doccia come con un qualsiasi commilitone, fino alle città teoricamente diverse e futuribili come Buenos Aires, che assomiglia più ad una qualsiasi cittadina americana di un futuro nemmeno tanto lontano. Starship Troopers mette in burla in un colpo solo, i propri contenuti narrativi e l’ideologia che questi potrebbero (ma così non è), sottendere. Da un lato si parodizza lo schema narrativo del libro, che è quello tipico del romanzo di formazione in versione guerriera. In più c’è la parodia del classico western, citato nei passaggi alla Monumental Valley del pianeta nemico, nell’assedio al fortino e nella parafrasi della frase un tempo riservata agli indiani: L’unica cimice buona è quella morta. Perfino colore, formato, stile dell’inquadratura, morfologia ingenua delle astronavi e delle armi da combattimento rimandano all’estetica della science fiction anni ’50. Forse una scelta troppo sofisticata da parte del regista di Robocop e di Atto di forza, se apologo è, senza alcun dubbio si tratta di un apologo sarcastico, dove la nota beffarda prevale anche sugli effetti speciali realizzati dalla Tippet Studio (Berkeley, CA, USA). Questo film riveste una grande importanza per la società di postproduzione californiana, in quanto per la sua realizzazione è stato fondato il reparto di computergrafica. La Tippet Studio è la società che ha collaborato con l’Industria Light & Magic per la realizzazione di numerosi animatronics protagonisti di film come Jurassic Park. Per Starship Troopers la società ha progettato tutte le creature, che sono insetti giganti, e ha creato tutte le 218 scene con gli alieni, ( altre società, come la Sony Pictures Imageworks, la ILM e la Boss Film, hanno lavorato sugli effetti delle astronavi). Ci sono insetti guerrieri alti tre metri, simili a scorpioni, che rappresentano le truppe generiche terrestri. Delle “cavallette” volanti che fungono da forze aeree, e grossi insetti corazzati simili a scarafaggi che agiscono da elementi di sfondamento. La catena di produzione della Tippet Studio include modellisti, disegnatori, animatori, direttori della fotografia e del rendering, addetti al rotoscopio e al compositing. 125 Il processo di design inizia nel reparto artistico, che è il territorio di Hayes. Qui i modellisti e i disegnatori creano i disegni, costruiscono i modelli fisici, li digitalizzano per creare modelli 3D in CG e disegnano le texture map. Hanno programmato un digitalizzatore 3D e fanno uso di Softimage 3D della Microsoft per l’animazione e la modellazione. Per il paint utilizzano Amazon 3D Paint della Interactive Effect e Photoshop della Adobe. La cosa inusuale è che tutti i modellisti e disegnatori provengono dall’animazione tradizionale, nessuno della Tippet Studio aveva avuto esperienze precedenti di computergrafica. “Abbiamo fatto uno sforzo per trovare persone che avessero esperienze cinematografiche o di produzione, e che avessero fatto scultura, pittura, creazione di modelli fisici. Chi non aveva un’esperienza di quel tipo partiva svantaggiato racconta Hayes. Quindici animatori hanno lavorato interamente in Softimage, ma altri quattro hanno usato un nuovo DID (ora chiamato "Bug Input Device") per l’animazione in stop-motion e in tempo reale. "Originariamente, il DID doveva essere usato solo per la stop-motion, ma mi sono reso conto che se avessimo solo allentato un po’ le articolazioni e aggiunto qualche molla per renderlo più flessibile, avremmo potuto fare dell’animazione in tempo reale", spiega Stokes. Stokes ha lavorato su una delle prime animazioni in CG in tempo reale, Mike the Talking Head, con i pionieri della performance animation Michael Wahrman e Brad DeGraf, e successivamente ha contribuito al controllo del burattino dell’alieno per il film Specie mortale alla Boss Film. Lui e Tippett hanno trovato comodo usare il DID sia per la previsualizzazione, sia per l’animazione finale. In una scena, per esempio, ci sono 700 insetti guerrieri che assaltano le barricate. "Per quella scena abbiamo utilizzato una combinazione di tecniche", dice Cantor. "Abbiamo creato da 20 a 30 cicli di camminata molto lunghi e li abbiamo applicati ai 700 insetti". Regolando leggermente le curve di movimento dei cicli di ogni insetto, gli animatori si sono assicurati che non ci fossero due insetti che facessero la stessa cosa nello stesso tempo. Usando il software Dynamation della Alias/Wavefront, hanno impostato i percorsi di movimento sul terreno, assegnato un ciclo per ogni percorso, e poi impostato un campo di forza per gli oggetti. Quelle informazioni di movimento sono state poi portate in Softimage, dov’è stato possibile apportare modifiche. Gli insetti in primo piano nelle scene di combattimento sono stati tutti animati in Softimage, aggiungendo un terzo metodo di animazione in CG. "In una scena ci sono 90 insetti gestiti a mano da tre animatori, e dietro di questi ce ne sono altri 600 o 700 sullo sfondo gestiti in modo procedurale", riporta Cantor. Questa mescolanza di tecniche di animazione sembra del tutto naturale a Tippett. "Se avete a disposizione animatori in computergrafica di 126 talento, li lasciate lavorare con gli strumenti da loro conosciuti. Se avete animatori in stop-motion, date loro gli strumenti con i quali hanno più familiarità. Se avete dei bravi burattinai, affidate loro qualche animazione in tempo reale. Vogliamo che ogni persona del nostro staff lavori nell’ambiente che più gli è familiare". 127 Regia: Paul Verhoeven Sceneggiatura: Ed Neumeier, dal romanzo di Robert Heinlein Fotografia: Jost Vacano Musica: Basil Poledouris Montaggio: Mark Goldblatt Effetti Speciali John Richardson Prodotto da: Alan Marshall, Jon Davison (USA, 1997) Durata: 128' Distribuzione cinematografica: BUENA VISTA Distribuzione home video: BUENA VISTA HOME VIDEO PERSONAGGI E INTERPRETI Johnny Rico: Casper Van Dien Carmen: Denise Richards Dizzy Flores: Dina Meyer 128 TITANIC James Cameron,1997 Il Titanic di James Cameron è un film epico di ampio respiro che avvince coniugando sentimento e azione, sullo sfondo dell’infausto viaggio inaugurale del R.M.S. Titanic, orgoglio e vanto della White Star Line; un gioiello tecnologico che al tempo costituiva la più grande macchina mobile mai costruita. Considerato il più lussuoso piroscafo da crociera dell’epoca, la nave dei sogni, come qualcuno l’aveva battezzata, condusse oltre 1500 persone verso un’atroce destino nelle gelide acque del Nord Atlantico all’Alba del 15 Aprile 1912. La nave partì da Southampton, in Inghilterra, il 10 Aprile 1912. Era lunga 269 metri, più lunga del più alto grattacielo di New York dell’epoca. Per la sua costruzione furono spesi 7,5 milioni di dollari. Il salone di prima classe della nave era stato progettato ispirandosi alla reggia di Varsailles, e un biglietto di prima classe per il viaggio d’inaugurazione costava 3100 dollari, l’equivalente di 124 mila dollari di oggi (circa 225 milioni di lire). A bordo cerano 2223 persone. Alle prime ore del mattino del 15 Aprile, più di 1500 erano morte. La creazione del film Titanic è costata più di 200 milioni di dollari (360 miliardi di lire a cui ne vanno aggiunti altri 180 spesi per la stampa di copie e pubblicità), rendendo questo film uno dei più costosi della storia del cinema. Cameron e i suoi collaboratori non si sono certamente risparmiati nel portare Titanic sullo schermo, immergendosi completamente nella storia della nave e nelle credenze che la circondano. Era loro fermo proposito realizzare un resoconto definitivo dello storico evento e l’impresa è stata semplificata dalla partecipazione, sin dalle prime fasi di sviluppo, di due esperti: lo scrittore Don Lynch e l’illustratore Ken Marchall autori di: Titanic an illustrated history, chiamati entrambi a collaborare in veste di consulenti. Grazie ad anni di studi tra archivi e fotografie, Marchall era in grado di visualizzare la grande nave anche nei più minuti dettagli. In collaborazione con l’equipe di disegnatori della Digital Domain Marschall e Lynch hanno messo insieme illustrazioni e fotografie che riproducevano, arredamenti, motivi ornamentali, stucchi e tessuti provenienti dalla loro collezione personali di reperti della Olympic, nave gemella del Titanic. Ed è toccato a Marchall effettuare il primo viaggio fino a Rosarito Beach per visitare gli stabilimenti Fox Baja Studios e valutare il risultato della collaborazione con i realizzatori. 129 Alla vista del set ultimato della nave, Marchall assicura di aver provato un’immensa emozione: “È stato come tornare indietro nel tempo, la nave ricostruita sul set era grande praticamente come quella vera, e rivedere il molo della White Star Line come doveva apparire nell’aprile del 1912 è stato non meno impressionante”. I realizzatori di Titanic hanno impiegato cinque anni nel lavoro di ricerca, studiando la nave e gli orribili dettagli dell’inabissamento avvenuto dopo solo due ore e quaranta minuti dalla collisione con un enorme iceberg. Cameron aveva messo in chiaro che non avrebbe continuato la produzione se non fosse riuscito a filmare personalmente il relitto del Titanic. La produzione ha quindi noleggiato il Keldysh, nave oceanica russa impiegata nella ricerca scientifica che ospita a boro due dei cinque batiscafi (Mir1 e Mir2) esistenti al mondo, in grado di portare l’uomo a simili profondità. A 350 miglia dalle coste del Newfoundland, regione del Canada orientale, al cospetto di un’impressionante talismano del passato adagiato sul fondo oceanico a 400 metri di profondità, J. Cameron ha colto l’ispirazione per realizzare questo straordinario film. “Nessuno era mai riuscito a portare la macchina da presa a quelle profondità”, dice Cameron, “la pressione è tale da frantumare i normali alloggiamenti, per quanto robusti”. “ Io però volevo avere la macchina in acqua, all’esterno del sommergibile per poterla muovere con naturalezza e poter utilizzare un grandangolare per cogliere l’inquadratura sufficientemente ampia. Perciò abbiamo dovuto realizzare uno specifico sistema di ripresa in grado di resistere all’ambiente. “Il mio primo approccio, ricorda Cameron, è stato quello del regista. Quindi alla prima immersione, ero tutto scena prima, scena seconda, scena terza… È stato solo alla terza o quarta immersione che mi sono lasciato coinvolgere dall’impatto emotivo: la meraviglia e il mistero di trovarsi a quasi 4000 metri di profondità, sul fondo dell’Atlantico, al cospetto del mesto relitto di quella grandiosa nave.” Giunti al termine della “spedizione” di Cameron, è stato possibile dare inizio alla lavorazione di Titanic, per consegnare allo schermo il passato e il presente finalmente insieme. La prima destinazione è stata Halifax, nella provincia canadese della Nova Scotia, non lontano dal vigile spettro del leggendario relitto. Brock Lovett (Bill Paxton) è il personaggio che insieme ai suoi compagni di spedizione è alla ricerca del Heart of the Ocean, gioiello d’incalcolabile valore che si cela nelle viscere della sventurata nave da crociera. Invece del favoloso gioiello Lovett porta in superficie un disegno che rivela la storia di due cuori. Con l’arrivo sul set di una vecchia signora 130 che risponde al nome di Rose e sostiene di essere la donna ritratta, ed è una superstite del Titanic, di cui si ignorava l’esistenza. Grazie a Rose, Lovett e la sua squadra scoprono ben più di una mappa del tesoro. Senza volerlo i ricercatori hanno agitato le acque del passato dell’anziana donna, riportando a galla i ricordi di una grande storia d’amore e d’eroismo vissuta a bordo della disgraziata nave. Le scene subacquee girate con enormi sforzi l’anno prima scorrono qui a documentare l’attività di “cacciatore di tesori” che Brock Lovett svolge nella finzione cinematografica. Quando Rose Calvert, 101 anni, inizia a raccontare la sua straordinaria storia, le immagini della carena devastata della nave, scorrono sui monitor, Rose ci offre la sua immagine, vivida e intensa, di un bellissimo giorno di quell’aprile del 1912. Gradualmente il Titanic emerge dalle rovine per riprendere sullo schermo l’antico regale splendore, di quel giorno in cui attraccato ai moli di Southampton, attendeva i passeggeri ignari del destino che li aspettava. Il set dove la nave era stata ricostruita suscitava pari meraviglia. Con il progredire dei lavori ad Halifax si dava l’avvio ad una tra le più complesse imprese nella storia della moderna produzione cinematografica a Rosarito Beach, nello stato messicano della Baja California. Grazie al lavoro di un’imponente equipe di artisti, artigiani e tecnici è stato possibile ricostruire una copia del Titanic a grandezza pressoché naturale su un set all’aperto lungo 235 metri ed un bacino di quasi tre ettari, contenente quasi 65 milioni di litri di acqua di mare, ove inabissare la nave. Lavorando sempre nel rispetto delle più rigide norme di sicurezza, le ultime ore del Titanic, sono state impresse su pellicola nei due enormi bacini artificiali. L’elegante salone da pranzo della prima classe e la grande scala a tre piani, entrambi a grandezza naturale, o quasi, sono stati costruiti su una piattaforma idraulica piazzata sul fondo della vasca, profonda nove metri, costruita all’interno del teatro 2. La struttura era stata concepita per poter essere inclinata ed allagata con quasi 20 milioni di litri d’acqua di mare. Lo scenografo Peter Lamont, tre volte candidato all’Oscar, ( Aliens: Scontro finale, Agente 007: La spia che mi amava e Il violinista sul tetto), era riuscito a procurarsi le copie dei progetti originali del cantiere Harland & Wolff, insieme al taccuino degli appunti di Victor Garber, architetto responsabile del progetto e della costruzione del Titanic. Grazie a un vasto lavoro di ricerca e all’aiuto dei consulenti Dan Linch e Ken Marschall, la squadra capitanata da Lamont è riuscita a creare fedelmente l’opulenza del celebre salone da pranzo di prima classe, la 131 reception, il fumoir di prima classe, il ponte di passaggio, il Palm Court Cafe, la palestra e diverse cabine extralusso (tra cui la suite stile Impero che ospitava Cal e Rose), facendo riferimento alle foto dell’Olympic, nave gemella del Titanic, e a pochi documenti esistenti sugli interni della sfortunata nave. Per ricreare l’illusione del Titanic in navigazione sia il set della nave che i bacini erano stati strategicamente costruiti lungo la costa, che offriva una visuale ininterrotta dell’oceano con un orizzonte infinito a far da sfondo. Date le imponenti dimensioni, Cameron ha fatto grande uso delle gru Akela, tecnologicamente all’avanguardia. Con un altezza massima raggiungibile di oltre 24 metri, sono tra le gru motorizzate più grandi del mondo. Per l’affondamento del Titanic, Cameron ha fatto costruire una gru a torretta capace di raggiungere oltre 60 metri di altezza, allestendo il binario lungo la fiancata navale, dice Cameron: “potevamo spostarci sino alla cima dei fumaioli e raggiungere un punto qualsiasi del piroscafo in pochissimo tempo”. Proprio questo in realtà causò non pochi problemi agli animatori in CG della Digital Domain, i quali dovendo costruire digitalmente le persone a bordo del Titanic, si trovavano a passare da riprese talmente lontane da non poter capire se c’erano persone a bordo ed altre estremamente ravvicinate. Il giroscopio sul quale era montata la macchina da presa garantiva al regista, e al direttore della fotografia Russel Carpenter, grande flessibilità nel girare materiali per gli effetti speciali è totali del piroscafo, per non parlare della possibilità di “stringere” sugli attori amplificando la drammaticità dell’azione. Divenne subito chiaro che il solo modo per mettere migliaia di persone a bordo di una nave che sarebbe stata un modello o un set, far navigare quella nave in un oceano e simulare una scena ripresa dall’elicottero, sarebbe stato quello di creare acqua 3D e persone in CG realistiche. Per l’acqua la Digital Domain ha iniziato a lavorare con il software RenderWorld della Areté, già utilizzato dalla Cinesite per il film di Waterworld,il quale utilizza algoritmi per la creazione procedurale di acqua 3D. Per la persone la Digital Domain è partita dagli strumenti e dall’esperienza guadagnata catturando i movimenti di Micheal Jackson, per animare uno scheletro in un video-clip, e i movimenti di Andre Agassi per animare un doppione digitale in uno spot televisivo. Tuttavia per l’oceano è stato necessario personalizzare il software RenderWorld al fine di ottenere un’acqua ancora più realistica. Per il team dell’oceano, diretto da Richard Kidd, il compito era di creare parametri per l’ora del giorno, la velocità del vento, la posizione del sole, e i riflessi per far corrispondere il mare in CG alle riprese dal vivo, 132 o per creare un oceano interamente in CG; ritagliare una zona nel mare 3D procedurale per inserire la nave; e creare la traccia lasciata dalla nave. Per rendere possibile tutto ciò, Jim Rothrock ha sviluppato in Prisms, un’interfaccia per il software RenderWorldI. La difficoltà maggiore è stata quella di far “parlare” tutti gli elementi tra loro, dice Crow. Abbiamo mantenuto una documentazione on-line di ogni ripresa ed elemento in modo da sapere se erano stati approvati. Oltre alle riprese dal vivo, una scena poteva includere acqua digitale, estensioni della nave, centinaia di persone digitali ed altri elementi 3D. Lasoff e Crow hanno suddiviso il lavoro in computergrafica 3D in cinque categorie, con Lasoff che ha gestito vari team che lavoravano sulle persone digitali, e Crow che ha gestito gli altri quattro team: integrazione digitale, il team per l’oceano, il team per la nave e quello per gli effetti accessori. Tutti i gruppi di computergrafica erano supportati da progettisti software del gruppo di ricerca e sviluppo che hanno creato software personalizzati per il compositing, per l’editing dei dati di motion capture, per il traking della macchina da presa, e per il posizionamento delle persone digitali. Il team di costruzione per la nave 3D, capeggiato da Richard Payne ha principalmente aggiunto estensioni alla nave per completare il set di Rosarito, e inserito le immagini dei modelli della nave nella zona vuota ricavata nel mare in computergrafica. Per realizzare il modello esterno della nave, in scala 1:20, è stato usato il software LightWave, funzionante su Workstation Alpha della Digital. Il gruppo diretto da Payne e Fred Tepper è stato battezzato “Unità NT”, per il fatto che usa macchine con sistema operativo NT. Titanic è il primo film in cui l’Unità NT è stata usata dalla Digital Domain. La realizzazione del modello e della texture per la nave ha richiesto 6 mesi di lavoro. Finora c’era la percezione che LightWave andasse bene per i videogiochi e per le produzioni televisive, ma che per i film di alta qualità bisognasse usare Softimage e Alias su Silicon Graphic. L’Unità NT ha voluto dimostrare che anche con Windows NT si poteva arrivare al dettaglio richiesto dal film. Il team per gli effetti accessori ha lavorato su tutti gli altri elementi in CG ad eccezione delle persone. Hanno realizzato gabbiani, delfini, bandiere, stelle nel cielo, pezzi di detriti che cadono dalla nave quando si spezza, gli spruzzi dell’acqua contro lo scafo, funi, pezzi di ghiaccio sul ponte, fumo, parti delle finestre che si rompono e probabilmente molte altre cose. Il team diretto da Kelly Port, ha usato principalmente Prisms, con Softimage per gli uccelli e Dynamation per il fumo. Naturalmente l’aspetto che forse colpisce di più è il cast di migliaia di persone digitali utilizzate per le scene del film. 133 È la prima volta che in un film sono stati inseriti un numero così alto di uomini in digitale con questo livello di realismo. Il lavoro è stato suddiviso fra un team capeggiato da Keiji Yamaguchi, per l’animazione delle sequenze sul ponte in luce diurna, e due team per altrettante sequenze notturne dell’affondamento, diretti da Andy Jones e Mark Brown. Poi è stato messo insieme un team separato per l’integrazione dei personaggi, capeggiati da Umesh Shukla. Il supervisore per i personaggi digitali è stato Daniel Loeb, il supervisore per l’animazione complessiva Daniel Robichaud. La sessione del motion capture da utilizzare sugli attori è stata affidata alla House of Moves (Venice,Ca,USA), che è stata in grado di gestire più di 120 marker usando il sistema di cattura ottico Vicon della Adaptive Optics. La frequenza di campionamento così elevata ha dato una buona base per l’animazione delle persone digitali, i dati sono stati perfezionati con l’aggiunta di animazioni in keyframe. L’animatore Daniel Loeb spiega: “abbiamo allineato sullo schermo lo scheletro di motion capture con un modello in Softimage, cercando le pose estreme dei movimenti e usando fondamentalmente i marker di mani, piedi e torace, e poi abbiamo messo il modello in cinematica inversa nelle stesse posizioni. Il risultato finale è un’animazione in keyframe con normali curve di movimento, che possono essere facilmente modificate ed estese come qualsiasi animazione di questo tipo. Bustanoby ha chiamato questo processo “rotocap” (rotocattura). Da ciascuna delle scenette gli animatori hanno potuto trarre numerose variazioni, invertendo le persone, ruotandole, alterandone la velocità, cambiandone i costumi, e poi “verniciando il ponte” come dice Bustanoby, con un massimo di ottocento persone digitali. Per aggiungere realismo visivo ai movimenti, sono state digitalizzate in 3D le teste degli attori, e sono state scattate fotografie dei loro volti, le fotografie sono state usate per le texture map, e ogni persona è stata renderizzata separatamente con le relative ombre. Uno degli aspetti che ha permesso questo livello di libertà è stata la “pipeline d’integrazione delle persone”, una collezione di strumenti e processi che hanno reso possibile coreografare scene con centinaia di attori digitali. Per questo Darly Strauss e Marcus Mitchell hanno creato molti programmi proprietari per ridurre la complessità dei modelli e dei movimenti e sostituirli con versioni più grezze, simili a cubi. I modelli semplificati potevano essere facilmente spostati intorno a un modello 3D in wireframe del Titanic. Quando la scena veniva approvata i modelli di riferimento venivano sostituiti dai modelli completi, per effettuare il rendering con RenderMan o MentalRay. 134 Per comporre insieme tutte le scene la Digital Domain usa il proprio software Nuke, in sistema di compositing scan-line basato su script, che può essere ottimizzato in termini di velocità e può funzionare su macchine con soli 125 KB di memoria. Grazie agli sforzi combinati del team di produzione diretto da Cameron, dei consulenti Don Linch e Ken Marchall e del meraviglioso contributo della Digital Domain, il Titanic è stato riportato in vita, a catturare l’immaginazione del mondo per la seconda volta nel corso di questo secolo. 135 Sceneggiatura e Regia: James Cameron Fotografia: Russell Carpenter Scenografia: Peter Lamont Costumi: Deborah L. Scott Montaggio: Conrad Buff, James Cameron, Richard Harris Musica: James Horner Prodotto da: James Cameron, Jon Landau per Fox e Paramount (USA, 1997) Durata: 194' Distribuzione cinematografica: 20TH CENTURY FOX Distribuzione home video: FOX VIDEO PERSONAGGI E INTERPRETI Jack Dawson: Leonardo DiCaprio Rose DeWitt Bukater: Kate Winslet Cal Hockley: Billy Zane Molly Brown: Kathy Bates Brock Lovett: Bill Paxton Rose Dawson Calvert: Gloria Stuart Ruth DeWitt Bukater: Frances Fisher 136 ALIEN RESURRECTION Jean-Pierre Jeunet, 1997 Sono passati duecento anni dalla conclusione di Alien3. Sull'astronave Auriga, alcuni scienziati militari sono riusciti a clonare Ripley dalle poche cellule ritrovate nella fornace di Fiorina 161. Gli scienziati riescono a clonare anche la regina aliena, che si trovava nel corpo di Ripley, che inizia a deporre uova. Per generare nuovi alieni, gli scienziati usano cavie umane, rapite da un gruppo di mercenari tra l'equipaggio ibernato di una astronave di passaggio. La nuova Ripley comincia a ricordare la sua vita precedente (un effetto dovuto al mischiarsi del suo Dna con quello alieno). In più, il suo sangue è corrosivo come quello degli alieni, ai quali sembra collegata da una specie di empatia. Due alieni uccidono un loro compagno. Il sangue che esce dal corpo corrode il pavimento della cella e gli alieni riescono a fuggire e a liberare gli altri. Con la nave in preda agli alieni, i militari fuggono sui moduli di salvataggio. Alcuni di loro vengono raggiunti, catturati o uccisi. Il computer mette automaticamente l'Auriga in rotta verso la Terra. Ripley si mette a capo dei mercenari e insieme tentano di raggiungere la Betty, la loro astronave ancorata all'Auriga. Nuotando attraverso una sezione allagata, il gruppo viene raggiunto e decimato. Una delle serie più note di film di fantascienza/horror è Alien. Dalla prima apparizione sul grande schermo nel 1979, quando uscì fuori inaspettatamente da un torace, questa creatura ha catturato l’attenzione e terrorizzato il pubblico. Con una tradizione di questo tipo alle spalle, per gli artisti della Blue Sky/VIFX (Los Angeles, USA) è stato emozionante creare la prima versione in CG dell’alieno per Alien 4: la clonazione. L’alieno in CG appare solo in 17 scene, per un totale di pochi minuti, ma sono state scene molto difficili, nelle quali l’uso di un attore con una tuta o di animatronics non era fattibile, come in una scena subacquea nella quale due alieni inseguono nuotando un gruppo di sopravvissuti (be’, per lo meno erano vivi fino a quel momento della storia). Per costruire il modello dell’alieno, la Blue Sky/VIFX è partita dalle sculture realizzate dalla Amalgamated Dynamics, la società che ha creato le tute aliene e gli animatronics, e le ha digitalizzate. Poi gli artisti hanno usato le nuvole di dati risultanti come riferimento 3D, spiega Mitch Kopelman, supervisore agli effetti digitali, e hanno costruito l’alieno NURBS per NURBS. Gli artisti hanno usato PowerAnimator della Alias/Wavefront per creare il modello, al quale sono state poi aggiunte le texture usando Adobe Photoshop e Amazon Paint della Interactive Effects. L’alieno risultante era decisamente perfetto, fa notare Kopelman, e sembrava praticamente identico alle tute, o almeno, è stato così fino a 137 quando le tute non sono state indossate. Dopodiché, l’alieno in CG ha dato l’impressione di essere... fatto in CG. "Quando siamo andati sul set durante le riprese e abbiamo visto gli uomini che indossavano le tute, ci siamo accorti che dopo averle indossate per un paio di mesi, le tute si consumavano, graffiavano, sporcavano; insomma, non erano più perfette. Quindi, abbiamo dovuto ritoccare il nostro modello un paio di volte e "sporcarlo", in modo che assomigliasse di più all’alieno finale che si vede nel film". L’animazione è stata realizzata in Softimage della Microsoft, e tutto è stato renderizzato con il renderer proprietario della Blue Sky, cgiStudio. Per realizzare il movimento, gli animatori hanno studiato creature come le iguane di mare e gli squali per le proprietà anfibie dell’alieno, e tigri e leoni per i movimenti di caccia. Kopelman spiega che il suo ruolo principale è stato quello di gestire gli aspetti dell’illuminazione e dell’integrazione. Le scene subacquee erano particolarmente difficoltose, quindi il team ha studiato sequenze subacquee di esploratori come Jacques Cousteau per avere un’idea di come apparisse una scena sott’acqua. "Abbiamo notato quattro cose", riporta Kopelman. "La prima, è che c’erano bolle d’aria. È questo elemento che fa capire al pubblico che la scena si svolge sott’acqua. C’era una certa nebbiosità, che faceva sfumare le cose nello sfondo. C’erano riflessi particolari, simili alle increspature sul fondo di una piscina. E c’erano ombre volumetriche. Quando siamo riusciti a realizzare tutto questo, abbiamo realmente ottenuto l’aspetto che cercavamo". Lo staff di ricerca e sviluppo alla Blue Sky/VIFX ha creato le luci volumetriche, racconta Kopelman, e ora sono un’opzione d’illuminazione nel renderer cgiStudio. "La nebbia che sfuma sullo sfondo è fondamentalmente una grande formula di compositing, che abbiamo ottenuto usando lo z-buffer e altre tecniche. Le bolle sono state create con Dynamation, ma renderizzate con il nostro renderer. Se guardate attentamente, noterete che l’alieno spinge via le bolle, quindi c’è anche interazione tra l’alieno e le bolle. I riflessi facevano già parte del nostro renderer". Lavorando così a stretto contatto con l’alieno, gli artisti della Blue Sky/ VIFX hanno finito per conoscere la creatura molto bene. A parte la sua bocca minacciosa con due file di denti e il sangue corrosivo, c’è sempre stato qualcosa di sinistro riguardo all’alieno che è difficile da definire, fino a quando Kopelman non l’ha scoperto. "La cosa più raccapricciante è che non ha occhi. Quando si guardano le animazioni della Disney o altri personaggi, sono gli occhi che trasmettono tutte le emozioni. Invece, in Alien non si vede mai il mostro sbattere gli occhi. Non si vede nessuna pupilla". 138 Regia: Jean-Pierre Jeunet Sceneggiatura: Joss Whedon Fotografia: Darius Khondji Scenografia: Nigel Phelps Costumi: Bob Ringwood Montaggio: Hervè Schneid Effetti alieni: Alec Gillis Musica: John Frizzell Prodotto da: Gordon Carroll, David Giler, Walter Hill (USA, 1997) Durata: 108' Distribuzione cinematografica: 20TH CENTURY FOX Distribuzione home video: FOX VIDEO PERSONAGGI E INTERPRETI Ripley: Sigourney Weaver Call: Winona Ryder Vriess: Dominique Pinon Johner: Ron Perlman Christie: Gary Dourdan Elgyn: Michael Wincott Hillard: Kim Flowers Generale Perez: Dan Hedaya Dr. Wren: J. E. Freeman Gediman: Brad Dourif 139 AN AMERICAN WEREWOLF IN PARIS Anthony Waller, 1997 I Santa Barbara Studios (SBS; Santa Barbara, CA, USA) hanno scelto un film decisamente non banale per il loro primo lavoro di animazione di una creatura in CG per il grande schermo. In An American Wereworlf in Paris, c’è per prima cosa il lupo mannaro in CG, una creatura molto pelosa che ha costretto i programmatori degli SBS a sviluppare una tecnologia proprietaria per la gestione dei peli, al fine di raggiungere un risultato realistico. Ci sono anche vari tipi di lupi mannari (femmina, maschio, chiaro, scuro) e in quasi tutte le scene in cui compaiono sono state utilizzate versioni in CG. Poi c’erano alcune scene particolarmente ambiziose, una al rallentatore nel quale un lupo mannaro salta fuori da una fontana e scuote via l’acqua dalla pelliccia, e un’altra nella quale due lupi mannari combattono. Mettete tutto insieme, e otterrete una quantità gigantesca di lavoro complesso per un piccolo studio che si cimenta per la prima volta nell’animazione dei personaggi per il grande schermo. Per iniziare il lavoro, gli SBS hanno costruito una scultura del lupo mannaro e l’hanno digitalizzata ai Viewpoint Datalabs (Orem, UT, USA), che ha fornito agli SBS il modello nel formato Alias/Wavefront. Gli SBS hanno ritoccato il modello usando PowerAnimator e hanno aggiunto dettagli con StudioPaint della Alias/Wavefront, Adobe Photoshop e il renderer proprietario per la pelliccia. L’animazione è stata realizzata usando Softimage 3D ed è diretta da James Straus, che è entrato agli SBS dopo aver lavorato alla Industrial Light & Magic. Con un portfolio alle spalle come Dragonheart e Jurassic Park, Straus non era certo alle prime armi con l’animazione complessa dei personaggi. Nonostante ciò, Straus afferma che le scene nelle quali combattono due lupi mannari in CG sono state le più difficili che abbia mai realizzato. "È già abbastanza difficile fare in modo che una creatura appaia totalmente realistica, ma quando si stanno mordendo e graffiando e si devono gestire due creature sintetiche, la situazione cambia completamente. Devono reagire al loro ambiente e tra loro, come se fossero oggetti fisici reali. È una coreografia complicatissima". Per facilitare questo processo di animazione, Straus ha costruito quello che definisce il suo modello di animazione ideale. "È un modello così semplice, che è completamente animabile in tempo reale con l’interfaccia del programma. Quindi, ho potuto importare il modello in Softimage e animarlo in modo interattivo al 100 per cento. Ma il trucco è che quel semplice modello controlla tutta la complessità del modello finale, per creare un senso di movimento completamente realistico e attivo". Finora, Straus non era mai riuscito ad adottare questo metodo, cioè quello di creare un modello che fosse sufficientemente semplice per 140 poterlo animare in tempo reale, ma che controllasse anche tutti i controlli di animazione nascosti. "Per realizzare il modello complesso, abbiamo utilizzato una super struttura interconnessa. Abbiamo isolato i controlli fino a ridurli a circa cinque oggetti, e quegli oggetti erano legati in modo così complesso a tutto il resto del corpo, che se ne muoveva uno, venivano attivati tutti i gruppi di muscoli". Straus ha anche integrato una modalità totalmente manuale per consentire di controllare ogni aspetto del lupo mannaro, e assicurarsi di poter far fare al modello esattamente ciò che voleva. "Se avevo bisogno di forzare un’altra posa o risolvere alcuni problemi visuali per il regista, volevo essere in grado di accedere direttamente al modello complesso e poter controllare ogni cosa, e farlo rapidamente". Anche se è stato necessario molto lavoro per creare questi modelli di animazione, lo sforzo è stato ripagato in molti modi. Dice Straus: "Abbiamo passato più tempo a gestire la recitazione e le reazioni emotive del personaggio, e meno tempo a preoccuparci del rendering. Quindi i risultati sono stati migliori". 141 Regia: Anthony Waller Soggetto e sceneggiatura: Tim Burns, Tom Stern, Anthony Waller Fotografia: Egon Werdin Scenografia: Matthias Kammermeier Costumi: Maria Schicker Montaggio: Peter R. Adam Musiche: Wilbert Hirsch Prodotto da: Richard Claus (USA, Lussemburgo, Francia, Gran Bretagna, 1997) Durata: 102' Distribuzione cinematografica: ITALIAN INTERNATIONAL FILM Distribuzione home video: COLUMBIA TRISTAR HOMEVIDEO PERSONAGGI E INTERPRETI Sérafine: Julie Delpy Andy: Tom Everett Scott Brad: Vince Vieluf Chris: Phil Buckman Claude: Pierre Cosso Amy: Julie Bowen 142 MIGHTY JOE YOUNG Ron Underwood, 1998 Joe, un gorilla alto più di quattro metri è il protagonista del film Il grande Joe. Questo lungometraggio della Walt Disney Pictures/ Buena Vista Studios, ha una sceneggiatura basata sul film originale del 1949. Nella nuova versione, il gorilla che aveva allietato l’infanzia di Jill Young, che ora ha 21 anni, è decisamente cresciuto ed è minacciato dai bracconieri. Per salvarlo, Jill lo porta dall’Africa a Los Angeles, proprio com’era successo nel 1949. Qui, i due raggiungono fama e fortuna, fino a quando un incidente non scatena la furia di Joe facendolo aggirare rabbioso per Hollywood. Nel 1949, gli effetti speciali furono creati da Willis O’Brien, famoso per aver lavorato a King Kong, e dal maestro dell’animazione in stop-motion Ray Harryhausen. Circa cinquant’anni più tardi, Joe è stato ricreato con alcune delle tecniche più recenti di computergrafica ed effetti visuali, con animatronic allo stato dell’arte e... con un uomo che indossa una tuta da gorilla. Per creare l’illusione del gigantesco gorilla, la Dream Quest Image (Simi Valley,CA,USA),ha filmato l’attore John Alexander, con la tuta da gorilla, in studio davanti a uno sfondo in bluescreen, e poi lo ha composto digitalmente con scenografie in miniatura. Nelle riprese dal vivo, i filmmaker hanno usato la prospettiva forzata per far sembrare più grande il personaggio. Dato che Alexander corre alla velocità di circa 13 chilometri all’ora, mentre Joe corre a 35 chilometri all’ora, Alexander è stato filmato a 32 fotogrammi per secondo e poi composto nelle scene di sfondo alla velocità cinematografica standard di 24 fotogrammi per secondo. Per le riprese in primo piano del gorilla che interagisce con le persone, sono stati usati animatronic di dimensioni reali. Il Joe digitale è stato usato solo per le scene fisicamente impossibili da realizzare o troppo pericolose per l’attore. “È ironico che dati tutti i progressi che abbiamo raggiunto nella computer-grafica e nella creazione di creature, il nostro compito sia stato quello d’imitare perfettamente un uomo che indossa una tuta da gorilla”, commenta Chris Bailey, supervisore dell’animazione alla Dream Quest che ha lavorato per il regista de Il grande Joe, Ron Underwood, come supervisore dell’animazione del gorilla. Oltre alla Dream Quest, anche la Industrial Light & Magic ha lavorato a versioni in CG di Joe. La Dream Quest ha gestito 120 scene in bluescreen e 28 scene di animazione dei personaggi; la ILM ha contribuito a 16 scene di animazione dei personaggi. Entrambi gli studi concordano sul fatto che il problema principale è stato la creazione di peli digitali fotorealistici per Joe, ma è risultato anche sorprendentemente difficile creare un modello basato su una tuta riempita di foam, invece che su una creatura controllata dai muscoli, e 143 animare un personaggio che non era né uomo, né scimmia. “Sarebbe stato più facile per noi se Joe fosse stato completamente in CG”, dice Daniel Jeannette, supervisore dell’animazione per l’unità della ILM. “Penso che abbiamo raggiunto un livello per cui sarebbe stato possibile farlo interamente in CG, ma l’impresa sarebbe stata gigantesca e, a causa del problema della pelliccia, probabilmente anche dai costi proibitivi. I Joe digitali creati dalle due società appaiono nella stessa sequenza solo una volta, e in quella sequenza, che vede il gorilla su una autostrada di Los Angeles, la scena gestita dalla Dream Quest riguarda Joe visto da un elicottero, mentre la sequenza gestita dalla ILM riprende Joe più da vicino, quasi al livello della strada. Tra le sequenze creata dalla Dream Quest c’è ne sono tre che il team degli effetti è orgoglioso di evidenziare, quella in cui il grande Joe distrugge una Mercedes, quella in cui il gorilla attraversa il labirinto di specchi all’interno del Luna Park, e quella che mostra il salvataggio del bambino sulla ruota panoramica in fiamme. La ILM ha lavorato sulle sequenze di caccia in pieno giorno alle Hawaii, sulla scena di festa all’inaugurazione del centro zoologico dove Joe cerca di uccidere il bracconiere, e sulle sequenze dell’inseguimento in autostrada. I peli digitali della Dream Quest La Dream Quest ha iniziato ha sviluppare il suo software, che adesso si chiama Jeti, nel 1996, usando Power Animator della Alias, ora il software funziona con Maya. Attraverso un comando si posizionano i punti iniziali sulle superfici, poi attraverso i CV, (vertici di controllo), delle spline vengono orientate e tirate verso la direzione di crescita del pelo. Per intendersi, in questa fase il modello assomiglia a un puntaspilli. Sono stati usati circa 300 peli guida per controllare attributi come la direzione iniziale dei peli, l’arricciamento e il numero di segmenti, con un numero maggiore di peli usati per la faccia e un numero minore per la schiena. La cosa più importante per la creazione di una pelliccia dall’aspetto fotorealistico, secondo De Leuw, sono le shadow map 3D che contribuiscono a creare un aspetto realistico di self-shadowing, (autoombreggiatura). Senza self-shadowing i peli danno l’impressione di avere un bagliore interno, con questo accorgimento sembrano reali. Un altro controllo importante avviene attraverso la texture map disegnate con Alias Studio 3D, le quali controllano parametri come lunghezza, densità, ammassamento e illuminazione. Per animare i peli il team ha ideato un “wrapper script” (script di avvolgimento) da utilizzare con Maya. Grazie a questo software i peli hanno una loro dinamica in base al movimento della pelle. 144 I peli digitali della ILM Il primo utilizzo del renderer di peli proprietario della ILM è stato per il “gattino” del film I Flintstones. Da allora, il sistema si è evoluto in modo da offrire ai direttori tecnici un linguaggio di scripting per scrivere “shader” di peli e per aggiungere animazione procedurale. I peli vengono aggiunti verso la fine della pipeline grafica, appena prima del rendering, dopo che il modello è stato animato e dopo che lo skin è stato connesso e sistemato in corrispondenza delle giunzioni. Nella fase di rendering vengono fusi automaticamente i rendering dei peli con quelli di Render Man. Per creare, animare, illuminare e renderizzare i peli di un animale, un direttore tecnico crea una gerarchia di caratteristiche, iniziando con quella più semplice: il collegamento di un CV allo skin. Secondo quanto ci spiega il supervisore associato degli effetti visuali Carl Frederick, a questo livello fondamentale un direttore tecnico scrive uno shader di peli per specificare l’orientazione di base del CV, determinando dove va il secondo CV. Lo shader specifica anche il numero di CV per pelo, la lunghezza, lo spessore (raggio), la densità e l’arco. Una volta definita la personalità di base dei peli, il direttore tecnico specifica altre caratteristiche, come colore, arricciamento, viscosità..., creando una gerarchia di parametri. Presi insieme, questi parametri globali formano un volume di peli con caratteristiche uniformi. Usando queste caratteristiche come valore medio, un direttore tecnico crea una gamma di valori per ogni parametro e associa questi valori alle sfumature di grigio usate dai disegnatori di mappe per modificare la qualità dei peli in zone specifiche di qualsiasi dimensione. Queste texture map possono influenzare qualsiasi cosa parametrizzabile, anche l’animazione procedurale. Per controllare i peli di Joe, Rebecca Petrulli Heskes, responsabile per Viewpainter, ha usato 21 texture map, che hanno richiesto sei mesi di tempo per il disegno.“ La testa è stata l’elemento più difficile”, riporta. “Quando sono arrivata al mento, stavo lavorando in una gamma di circa cinque gradi tra tonalità di grigio”. Una volta assegnate tutte le proprietà, il sistema genera in modo procedurale peli campione. “Poi fa un’interpolazione tra i peli campione per creare i peli intermedi”, illustra Frederick. Per Joe, 3 mila peli campione hanno controllato il milione di peli finale. Christian Rouet, tecnico senior alla ILM, spiega che per far muovere i peli, un direttore tecnico può animare esplicitamente i peli campione a un certo keyframe. Inoltre, i peli possono essere animati in modo procedurale. “Eravamo pronti a limitarci a muovere lo skin per simulare il movimento dei peli”, dice Jim Mitchell, supervisore degli effetti visuali alla ILM, “ma 145 non è la stessa cosa che far piegare e dimenare i peli per conto proprio”. Usando CARI (il software proprietario della ILM), Mitchell ha potuto muovere interattivamente peli campione, modificare parametri e vederne l’impatto, “non in tempo reale, ma nel giro di pochi minuti”, riporta. “La possibilità di visualizzare queste cose prima di passare al rendering finale è stato un grande traguardo”. Tecniche come queste ci porteranno sempre più vicini al tempo in cui i personaggi pelosi in CG saranno altrettanto comuni di quelli con pelli da lucertola, e nei film gli animali digitali potranno sostituire quelli reali. Per quanto riguarda Il grande Joe, “se il personaggio sembra un uomo in una tuta”, dice Giacoppo, “allora abbiamo fatto un buon lavoro”. 146 Regia: Ron Underwood Sceneggiatura: Mark Rosenthal, Lawrence Konner Fotografia: Don Peterman, Oliver Wood Scenografia: Michael Corenblith Costumi: Molly Maginnis Musica: James Horner Montaggio: Paul Hirsch Prodotto da: ted Hartley, Tom Jacobson (USA, 1999) Durata: 114' Distribuzione cinematografica: BUENA VISTA PERSONAGGI E INTERPRETI Jill Young: Charlize Theron Gregg O'Hara: Bill Paxton Strasser: Rade Sherbedgia Garth: Peter Firth Harry Ruben: David Paymer Cecily Banks: Regina King Kweli: Robert Wisdom Dr. Baker: Lawrence Pressman Vern: Geoffrey Blake Jack: Christian Clemenson Joe Young: John Alexander 147 ARMAGEDDON Michael Bay, 1998 Negli ultimi cinquant’anni, il genere umano ha imparato molte cose sullo spazio, ma ne rimangono almeno altrettante da esplorare. È forse questa una delle ragioni per cui Hollywood è così affascinata dallo spazio: i soggetti ispirati a questa materia, infatti, sono altrettanto infiniti. Lo spazio è un soggetto molto noto agli artisti della CG. Forse, uno dei motivi è che le astronavi sembrano prestarsi alle linee pulite spesso associate alla computergrafica. O, forse, è la vastità dell’Universo, limitata solo dall’immaginazione, che invoglia gli artisti a esplorare lo spazio nei loro lavori. Qualunque sia la ragione, i produttori cinematografici hanno trovato un’affinità di spirito con gli artisti 3D. Sembra che qualsiasi trama d’ispirazione spaziale (basata su fatti reali o inventati) Hollywood riesca a ideare, gli artisti 3D siano in grado di portarla sullo schermo. Nel film Armageddon una meteora della grandezza del Texas sta per abbattersi sulla Terra. Secondo la NASA l'unico modo per fermarla è piazzare una bomba atomica al suo interno, a circa un chilometro di profondità, e quindi farla esplodere. Non c'è tempo per formare degli astronauti, bisogna mandare su una squadra di trivellatori provetti guidati dal miglior specialista del mondo: Harry Stamper (Bruce Willis), che in quattordici giorni deve tentare di salvare il pianeta e tornare sulla Terra sano e salvo. Michael Bay è uno dei migliori registi di Hollywood. Dopo il superlativo The Rock con Nicolas Cage e Sean Connery, torna a girare un film fantascientifico d'azione che deve la sua grande forza alla commistione di generi cinematografici. Anche gli artisti in CG della Dream Quest Images, avevano la loro missione per il film: creare un asteroide, degli shuttle e altri effetti spaziali così convincenti, da rendere credibile la trama per il pubblico. La parte di questa sfida che si è rivelata più difficile è stata la creazione dell’asteroide. Per iniziare, la Dream Quest ha realizzato un modello fisico di 60 cm, secondo quanto riferisce Richard Hoover, supervisore degli effetti visuali per Armageddon. Il modello fisico è stato digitalizzato e trasformato in un “gigantesco” modello NURBS. Per arricchire la modellazione, gli artisti hanno usato PowerAnimator della Alias/Wavefront. Ma, per creare e renderizzare le particelle e i gas emessi dall’asteroide, la Dream Quest ha scritto del software proprietario (lo sviluppatore principale è stato Jim Callahan). “Con il nostro software, è possibile volare attraverso le particelle senza che si sgranino”, afferma Hoover. “Il software gestisce anche il riconoscimento degli oggetti. Inoltre, abbiamo inserito diversi controlli di animazione sulle particelle e realizzato cose spettacolari con la turbolenza e le forze 148 che muovono il gas. È stato un processo di apprendimento progressivo. Ogni settimana eravamo in grado di fare di più”. Un altro effetto apparentemente semplice, ma in realtà molto difficile, è stato la gestione dei campi stellari. In effetti, riporta Hoover, la Dream Quest ha finito per sviluppare un proprio renderizzatore di stelle, scritto da Sean Jenkins. Spiega Hoover: “Tipicamente, quando si renderizzano le stelle e si deve applicare il motion blur, le due cose non funzionano bene insieme. Quando vengono sfocate, le stelle diventano deboli, e quando l’immagine si ferma, tornano nuovamente a brillare. Sean, quindi, ha sviluppato questo programma che allevia le differenze tra movimento e immagine ferma, ottenendo un’esposizione uniforme”. Inoltre, tutte le stelle sono accurate. “Se un astronomo guardasse il cielo nel dettaglio, si accorgerebbe che le stelle sono posizionate correttamente”. Nel film, gli shuttle sono un misto di modelli fisici e in computergrafica, perché spesso era più facile effettuare il motion tracking dello shuttle in CG, fa notare Hoover. La Dream Quest si è molto impegnata per assicurarsi che i due modelli avessero un aspetto identico. “Abbiamo realizzato una scena con due shuttle, nella quale uno era un modello fisico e l’altro era in CG. Li abbiamo messi sullo schermo e confrontati per capire che cosa dovevamo fare per rendere il modello in CG esattamente identico a quello fisico”. Un passo importante è stato quello di scegliere un approccio diverso al texture mapping, con una tecnica ideata dall’artista Mark Segal. Spiega Hoover: “Invece di fotografare il modello su pellicola tradizionale e digitalizzare quelle fotografie per creare le texture, abbiamo usato la macchina da presa e ripreso fotogrammi dello shuttle girandoci intorno per 360 gradi in orizzontale e verticale, digitalizzando poi le immagini come faremmo con quelle del film. Dopodiché, abbiamo affiancato e applicato le immagini al modello”. I risultati? “Abbiamo mostrato il modello fisico e quello in CG a persone che non sapevano quale fosse quello generato al computer, e nessuno ha saputo distinguerlo”. 149 Regia: Michael Bay Usa,1998 PERSONAGGI E INTERPRETI Bruce Willis.... Harry S. Stamper Billy Bob Thornton.... Dan Truman Ben Affleck.... A.J. Frost Liv Tyler.... Grace Stamper Will Patton.... Charles "Chick" Chapple Steve Buscemi.... Rockhound William Fichtner.... Colonel William Sharp Owen Wilson.... Oscar Choi Michael Clarke Duncan.... Jayotis 'Bear' Kurleenbear Peter Stormare.... Lev Andropov Ken Hudson Campbell.... Max Lennert Jessica Steen.... Co-Pilot Jennifer Watts Keith David (I).... General Kimsey Chris Ellis (I).... Walter Clark Jason Isaacs.... Ronald Quincy 150 DEEP IMPACT Mimi Leder, 1998 Il quattordicenne Leo Beiderman ama guardare le stelle, ma preferirebbe e di gran lunga essere guardato dalla dolce Jenny Lerner è una giovane e rampante giornalista, assetata di carriera. Ciò che li accomuna è una cometa di discrete dimensioni che ha deciso di entrare in rotta di collisione con la terra. Leo l'ha vista per caso una sera con il suo telescopio. Jenny al contrario si è trovata fra le mani ambigue informazioni sul Presidente degli Stati Uniti e, convinta di avere a che fare con uno scottante sexy gate, si è lanciata nella sua ricerca con spirito battagliero. Ma la misteriosa ELLIE su cui si vocifera non è l'occasionale amante del Presidente, ma la famosa cometa di cui sopra. Spetta a quest'ultimo l'ingrato compito di annunciare al mondo l'imminente catastrofe, nonché il criterio selettivo con cui la nazione ha deciso di "scegliere" le persone cui assicurare la sopravvivenza. Impresa ben più ardua quella affidata all'emblematico "Messia", inviato nello spazio con a bordo un gruppo di eroi incaricati di raggiungere la superficie della cometa e di frantumarla. Con una scansione temporale inquietante e drammatica l'ora dell'impatto comincia ad avvicinarsi: i prescelti vengono portati in una città sotterranea dove vivranno per due anni, mentre gli altri si preparano a consumare i propri attimi interrogandosi sul significato dell'esistenza. Due gigantesche comete sono su una traiettoria d’impatto con la Terra. Come farà il Governo degli Stati Uniti e la popolazione mondiale ad affrontare una minaccia di questo tipo? Questa è la domanda posta dal film Deep Impact. Ma alla Industrial Light & Magic, gli artisti in CG dovevano affrontare un problema diverso, posto dai produttori del film: come fare a rendere una cometa in CG realistica e nello stesso tempo minacciosa? “Ci è stato detto subito che la cometa è di fatto un personaggio”, racconta Bill George, cosupervisore degli effetti visuali per il film insieme a Scott Ferrar. “È il “cattivo” della situazione, quindi doveva essere minacciosa e terrorizzante, ma nello stesso tempo i produttori volevano che il suo aspetto fosse realistico. Abbiamo fatto molte ricerche. Fondamentalmente, una cometa è una grande palla dai contorni indefiniti. Abbiamo quindi iniziato a seguire quella strada, ma, dopo un po’, ci siamo accorti che non sembrava per niente minacciosa: sembrava soffice. Allora, abbiamo deciso di rendere la roccia più visibile e di togliere alcuni dei layer”. Anche se potrebbe sembrare che le particelle siano la scelta naturale per un fenomeno come quello di una cometa, la ILM ha scelto invece un sistema a patch (anche se sono state utilizzate le particelle per aggiungere alcuni dettagli). “Abbiamo iniziato a usare le particelle, ma poi abbiamo scoperto che bastava anche una piccola variazione per 151 cambiare completamente l’aspetto complessivo”, dice George. “Con il sistema a patch abbiamo potuto lavorare molto più velocemente”. Di conseguenza, la cometa è in effetti un modello in wireframe con strati di mappe di trasparenza e di altro tipo. La ILM ha usato i frattali per impartire movimento, spiega Ben Snow, supervisore della computergrafica. “Se avete una texture map, potete cambiare il modo in cui guardate quella mappa usando una tecnica di variazione frattale. Se state indicizzando una texture, potete usare un frattale per modificare il punto che state campionando nella texture. E se state animando con i frattali, come abbiamo fatto per questo film, le variazioni sono ancora più accentuate”. La ILM ha usato estensivamente le particelle per una scena, fa notare George, quando gli astronauti atterrano sulla cometa per cercare di farla esplodere. La superficie della cometa aveva bisogno di qualche elemento che le desse un senso di energia e di atmosfera. Dopo vari tentativi, i produttori hanno deciso di usare neve simulata. Ma, come si è scoperto presto, la generazione di neve simulata può sembrare ingannevolmente semplice, così come succede per i campi stellari. “Scott e io pensavamo: “Giriamo le scene e poi aggiungiamo la neve in seguito”. Il problema è che quando si impostano tutti i parametri procedurali, come velocità, movimento e casualità, i fiocchi di neve danno l’impressione di essere vivi, come se fossero una specie di api. È stato veramente difficile ricreare la sensazione che quei fiocchi fossero spinti casualmente dal vento”. Questo procedimento per tentativi ha comunque dato i suoi frutti, e la ILM ha ottenuto il look che cercava sia per la cometa, sia per la neve. Complessivamente, gli artisti della ILM hanno creato 129 scene della cometa per Deep Impact. Parlando di questo lavoro, George commenta: “Tutte le scene hanno presentato difficoltà”. 152 Regia: Mimi Leder Sceneggiatura: Bruce Joel Rubin e John Wells Fotografia: Dietrich Lohmann Costumi: Ruth Myers Effetti Speciali: Michael Lantieri Prodotto da: Richard D. Zanuck e David Brown Produttore esecutivo: Steven Spielberg (USA, 1998) Durata: 120' Distribuzione cinematografica: UIP Distribuzione home video: CIC VIDEO PERSONAGGI E INTERPRETI Spurgeon Keeney: Robert Duvall Tea Leoni: Jenny Lerner Elijah Wood: Leo Beiderman Vanessa Redgrave: Robin Lerner Morgan Freeman: Tom Beck Leelee Sobieski: Sarah Hotchner 153 LOST IN SPACE Stephen Hopkins, 1998 A Lost in Space, versione cinematografica della popolare serie televisiva di fantascienza degli anni ’60, hanno lavorato vari studi di effetti speciali. Ma la Magic Camera Co. (MCC; Shepperton, Inghilterra) ha creato una delle scene più complesse del film: la sequenza spaziale di apertura di 3 minuti e mezzo nella quale il maggiore Don West (Matt Le Blanc) e la sua squadra combattono nei Bubble Fighter in CG contro i terroristi, anch’essi su astronavi in CG chiamate Sedition Raiders. La missione è quella di proteggere l’Anello di lancio, una struttura in fase di costruzione per trasportare astronavi. Anche l’Anello è generato al computer. La MCC ha creato tutti i modelli delle astronavi partendo dal lavoro concettuale fornito dal reparto di produzione di Lost in Space. Per modellare l’Anello di lancio, gli artisti della MCC hanno usato LightWave della NewTek. I Bubble Fighter e i Sedition Raider sono stati modellati e animati con 3D Studio MAX della Kinetix. Tuttavia, l’inserimento degli attori nelle loro astronavi in CG e la corrispondenza dell’animazione 3D con le immagini dal vivo si sono dimostrati compiti non facili. Per prima cosa, gli attori sono stati filmati su un set in greenscreen usando una speciale struttura telecomandata che simulava la cabina di pilotaggio, spiega Angie Wills, responsabile degli effetti digitali alla MCC. Gli artisti hanno poi costruito il resto del Bubble Fighter intorno alla cabina usando 3D Studio MAX. Per far corrispondere l’animazione 3D e le sequenze dal vivo, la MCC ha sviluppato un particolare plug-in, che consente agli artisti di prendere i dati dalla struttura in motion-control e importarli in MAX, come spiega Alan Marques, supervisore degli effetti digitali. “La struttura in motion-control comprende un software proprietario che fornisce la posizione nello spazio della telecamera virtuale. Invece di costruire una replica dell’intera struttura al computer per cercare di ottenere quel dato, il software può comunicare la posizione della telecamera in metri rispetto a un punto di riferimento. Fornisce le coordinate xyz della posizione della telecamera nello spazio, e anche le coordinate xyz dell’oggetto puntato dalla telecamera”. MAX supporta una telecamera basata su target, ma, sfortunatamente, non può caricare dati ASCII grezzi, come quelli forniti dal software: “Si tratta, letteralmente, di un flusso di dati per la posizione della camera per ogni fotogramma”, dice Marques. Quindi, per portare quei dati in MAX, la MCC ha scritto un plug-in. La sequenza è stata ripresa con un obiettivo anamorfico, che schiaccia orizzontalmente l’immagine. “Se caricate quelle immagini su un computer, il sistema non avrà idea della curvatura dell’obiettivo e non si riuscirà ad allineare nulla”, spiega Marques. “Per aggirare questo 154 problema, fondamentalmente abbiamo creato una griglia in bianco e nero e l’abbiamo ripresa con ogni obiettivo utilizzato nella scena. Abbiamo posizionato la griglia a una certa distanza dall’obiettivo, in modo da poter vedere come le linee venivano distorte dalla curvatura della lente. Poi, abbiamo usato Elastic Reality e realizzato una mesh di warping basata sulla distorsione della griglia. Questa mesh compensava la curvatura delle linee, ottenendo alla fine linee dritte”. La MCC ha dovuto elaborare tutte le 40 riprese dei piloti con quel processo, prima che gli artisti potessero iniziare a lavorarci sopra. E, finito il lavoro, gli artisti hanno dovuto rovesciare il processo per inserire di nuovo la distorsione. In effetti, le sole scene che includono in parte azione dal vivo sono quelle in cui si vedono i piloti. 155 Regia: Stephen Hopkins Sceneggiatura: Akiva Goldsman dalla serie TV di Irving Allen Fotografia: Peter Levy, A.C.S. Creature Animatroniche: Jim Henson's Creature 's Shop: Scenografia: Norman Garwood Musica: Bruce Broughton Montaggio: Ray Lovejoy Prodotto da: Mark W. Koch, Stephen Hopkins, Akiva Goldsman, Carla Fry (USA, 1998) Durata: 130' Distribuzione cinematografica: MEDUSA PERSONAGGI E INTERPRETI John Robinson: William Hurt Dr. Smith/Spider Smith: Gary Oldman Don West: Matt Le Blanc Maureen Robinson: Mimi Rogers Judy Robinson: Heather Graham Penny Robinson: Lacey Chabert Will Robinson: Jack Johnson Older Will Robinson: Jared Harris Jeb Walker: Lennie James Business Man: Edward Fox General: Mark Goddard The Principal: June Lockhart Lab Technician: Adam Sims 156 PLEASANTVILLE Gary Ross,1998 Nel mondo senza tempo della televisione, una situation comedy in bianco e nero degli anni ’50 può essere facilmente metabolizzata dallo spettatore quanto uno spumeggiante video musicale trasmesso da MTV. Quindi, è facile che un ragazzo difficile degli anni ’90 fantastichi di vivere la vita perfetta di qualche commedia americana dei tempi d’oro, dove il sole splende sempre e tutte le cose vanno per il verso giusto. Questa è la situazione descritta in Pleasantville, un film del genere commedia/avventura scritto, diretto e prodotto da Gary Ross, lo sceneggiatore che si è guadagnato una nomination all’Oscar per Big e Dave. Il debutto registico di Ross ha visto come attori Jeff Daniels, Joan Allen, William Macy, Tobey Maguire, Reese Witherspoon, Don Knotts e J. T. Walsh. Nel racconto fantastico del film, David e Jennifer, interpretati da Maguire e Witherspoon, sono due gemelli che vivono con la madre divorziata in una tipica famiglia degli anni ’90. David si appassiona alle repliche di una sitcom classica, Pleasantville, e la usa per fuggire dal mondo reale che condivide con una sorella assolutamente modernista, alla moda e non sempre gentile. La vita dei due gemelli subisce una svolta drammatica quando vengono risucchiati dal televisore nella sitcom e si ritrovano a far parte del cast come membri della famiglia televisiva, i Parkers. Con il nuovo nome di “Bud”, David è eccitato di vivere nel suo paradiso in bianco e nero. Jennifer, invece, che ora viene chiamata “Mary Sue”, non si diverte. Quando lei dà libero sfogo alla sua personalità colorita, a Pleasantville cominciano ad accadere strane cose. Presto, la città e i suoi abitanti subiscono una trasformazione: prima una rosa diventa rossa; poi compare un filo d’erba verde, una lingua rosa e degli occhi marroni. Alcune persone hanno la pelle color carne invece che grigia, una cosa che sciocca e fa irritare gli altri. Distribuito dalla New Line Cinema, questo film da 40 milioni di dollari (64 miliardi di lire) ha debuttato al Toronto Film Festival del settembre dell’anno scorso ed è uscito negli Stati Uniti in ottobre. Ingegnosamente concepito e ottimamente realizzato, Pleasantville è una parabola provocatoria, complessa e sorprendentemente antinostalgica avvolta nelle vesti ingannevoli di una commedia commerciale di alta levatura. Lo straordinario lavoro è stato realizzato da un team di produzione di grandi calibri, che includono l’operatore alla macchina da presa John Lindley, il production designer Jeannine Oppewall, il supervisore degli effetti visuali Chris Watts e, 157 probabilmente nel ruolo più importante, il designer degli effetti di colore Michael Southard. L’impressionante giustapposizione di colore e bianco e nero nelle scene chiave è stupefacente. Ma è la persuasività complessiva delle magie ad alta tecnologia di questo film che eleva veramente la favola di Ross al di sopra del livello della mera operazione commerciale. Un lavoro nascosto Complessivamente, il film comprende 1600 scene di effetti visuali, probabilmente molte di più di qualsiasi altro film ripreso dal vivo. Chris Watts, supervisore degli effetti visuali, dichiara: “L’intero film, da 10 minuti dopo l’inizio fino a 5-10 minuti prima della fine, è completamente elaborato in modo digitale. Tutti i 163.800 fotogrammi”. Sono stati necessari 15 mesi di lavoro di 25 persone (animatori, color designer, operatori al film recorder, montatori, sviluppatori software e tecnici hardware) per creare gli 82 minuti di giustapposizioni “persuasive”, usando strumenti digitali per mescolare alla perfezione le immagini in bianco e nero con il colore. “L’elemento trainante di questo film è il colore”, spiega Watts. “Le persone appaiono a colori nei punti di svolta della storia, per esempio quando leggono un libro o fanno sesso”. In effetti, il colore era così importante in questo film che Ross e Watts hanno deciso fin dall’inizio di formare uno studio di effetti interno invece che appaltare il lavoro esternamente. “Non si può tenere distante uno strumento che si deve usare così intensamente”, sostiene Ross, “e una volta fatti i conti, si è rivelata una soluzione più economica, dato che si tratta di un lavoro così specializzato”. Dopo aver iniziato con un software per colorizzare le pellicole, Watts e il suo team hanno finito per scrivere programmi proprietari di animazione e correzione del colore per fare il grosso del lavoro. Con quel software funzionante su workstation O2 della Silicon Graphics configurate con 256 MB di RAM, hanno potuto lavorare alla risoluzione di 2048 x 1556 usando una profondità di colore di 10 bit e ottenere un feedback in tempo reale a risoluzione 1K. “Probabilmente, avremmo potuto ottenere lo stesso risultato con qualche pacchetto di painting di fascia alta, ma, considerando che avremmo dovuto comprare 10 licenze, è risultato più economico scriverci il software da soli. Inoltre, non avevamo bisogno di tutte le funzionalità di quei pacchetti”. Watts ha anche scritto un programma da lui battezzato Panorama per tenere traccia delle singole scene usando un time code codificato all’interno di ogni fotogramma. Per facilitare la visualizzazione delle immagini in bianco e nero e a colori, ed effettuare la conversione di colore, hanno integrato Shake, software di compositing della Nothing Real (Venice, CA, USA) con il loro software proprietario; e per alcune operazioni di painting, hanno usato Matador della Avid 158 Il team degli effetti visuali ha iniziato per prima cosa digitalizzando le sequenze a colori riprese dal vivo e poi ritoccando digitalmente il colore delle immagini usando un Kodak Spirit Datacine per bilanciare e regolare colore e densità. Una volta terminata questa operazione, hanno potuto convertire selettivamente la pellicola a colori in bianco e nero. Southard spiega il processo: “Estraevo almeno un’immagine fissa da ciascuna scena, talvolta più di una. Con queste, costruivo keyframe per gli animatori”. Poi, iniziava a convertire in bianco e nero regioni delle sequenze a colori. La ricetta usata per il “bianco e nero” è 59% di verde, 30% di rosso e 11% di blu. “È lo stesso risultato che otterreste mostrando un film a colori su un televisore in bianco e nero”. Per trasformare il colore in bianco e nero, hanno usato il software proprietario che Southard descrive come “una specie di super Paintbox con il quale si può fare animazione”. Southard ha disegnato forme intorno alle aree che voleva rimanessero a colori (un ovale intorno a una mela, per esempio) e le ha usate per impostare i keyframe. Il software si occupava di convertire i fotogrammi intermedi in bianco e nero, mantenendo all’interno della forma il colore originale o un colore creato appositamente. Tutto questo era abbastanza semplice nel caso di una mela. Altre scene si sono dimostrate molto più difficili: una sequenza in bianco e nero con petali di fiore color rosa-salmone che cadono a terra, per esempio, ha richiesto fino a 70 poligoni, tutti in movimento durante la scena. “Non è come creare maschere tradizionali”, spiega Southard. “Abbiamo preso la scansione originale e animato il colore sopra di essa, sia nel caso di colori esistenti, sia nel caso di colori creati ex-novo”. 159 Problemi d’integrazione Fare in modo che il colore apparisse “giusto” è diventata un’arte in se stessa. Per prima cosa, i colori originali erano troppo saturi quando apparivano nello stesso fotogramma con le parti in bianco e nero. “L’intenzione originale era di disegnare una linea intorno alle aree che sarebbero state a colori e lasciarle visibili sullo schermo. Non ha funzionato molto bene. Davano l’impressione di essere luci al neon”. “Spesso, abbiamo desaturato il colore fino al 70%, ma la quantità di saturazione cambia con la storia, con l’atmosfera. Quando le persone sono incerte, possono anche avere solo l’8% di saturazione e riflessi in bianco e nero”. E, talvolta, i colori originali non erano giusti per una scena, quindi li hanno cambiati. Un’altra difficoltà è stata l’integrazione del colore con il bianco e nero in modo che la scena “funzionasse”. “Se una persona in bianco e nero sta tenendo una mela rossa, tutto va bene quando la mano è lontana”, dice Watts, “ma quando la mano è vicina alla mela, sembra morta, come la mano di Frankenstein. Di conseguenza, abbiamo inserito un riflesso della mela sulla mano per aumentare il realismo”. In modo simile, se una persona a colori passa davanti a un’auto in bianco e nero, il riflesso sul metallo sarà a colori. Inoltre, Southard ha scoperto che, indipendentemente da quello che succede in un fotogramma, l’occhio segue il colore. In una scena all’interno di un bar, per esempio, un personaggio a colori si porta sullo sfondo mentre i personaggi in bianco e nero in primo piano continuano la trama. Per dirigere gli occhi del pubblico sui personaggi principali, sono stati aggiunti colori alle torte e ai dolci sul bancone in primo piano. In effetti, Ross ha sempre considerato il colore come un altro personaggio. “Non è solo un aspetto stilistico. Significa qualcosa. Per esempio, esprime quello che succede ai personaggi nella storia”. “Quando iniziano a provare sentimenti, nascondono il loro colore quando sono imbarazzati e lo rivelano quando sono orgogliosi. Una mia grande preoccupazione era che le persone in bianco e nero potessero sembrare morte. Ma il pubblico ha imparato a conoscere i personaggi, quindi aspetta che si colorino”. In una scena che Ross ha visto in presenza del pubblico, la Lover’s Lane (la strada degli innamorati) diventa a un certo punto a colori, mentre i personaggi nella scena rimangono ancora in bianco e nero. Il pubblico ha reagito gridando: “Coloratevi. Coloratevi!”. Con Pleasantville, Watts ritiene che il team degli effetti visuali abbia raggiunto nuovi traguardi in molti aspetti. In cima alla lista, cita il numero record di fotogrammi trattati in modo digitale per un film ripreso dal vivo. Al secondo posto, ritiene che questo film abbia fatto un passo in avanti verso la masterizzazione digitale dei film. Terzo, osserva che in questo film tutto quello che tradizionalmente 160 viene fatto otticamente, come dissolvenze e tendine, è stato realizzato digitalmente, dato che il film era già in formato digitale. E, infine, la creazione di un film in bianco e nero partendo da una pellicola a colori è qualcosa di unico. “Nessuno ha mai tentato di farlo su questa scala”, afferma Watts. Ross potrebbe aggiungere a questo elenco di primati l’uso del colore come personaggio. “Sono fortunato”, dice Ross. “Agli spettatori accade un fenomeno viscerale. Si abituano al bianco e nero, e, non appena si dimenticano di vedere immagini in bianco e nero, appare il colore e si accorgono di quello che manca. È divertente giocare con questa reazione del pubblico nel corso del film”. 161 Sceneggiatura e Regia: Gary Ross Fotografia: John Lindley Scenografia: Jeannine Claudia Oppewall Costumi: Judianna Makovsky Musica: Randy Newman Montaggio: William Goldenberg Prodotto da: Robert John Degus, Jon Kilik, Edward Lynn (III), Gary Ross, Steven Soderbergh (USA, 1998) Durata: 110' Distribuzione cinematografica: MEDUSA PERSONAGGI E INTERPRETI David/Bud Parker: Tobey Maguire Mr. Johnson: Jeff Daniels Betty Parker: Joan Allen George Parker: William H. Macy Big Bob: J.T. Walsh TV Repairman: Don Knotts Margaret: Marley Shelton 162 GUSTI E TENDENZE NELLA CG In questa sessione ho selezionato quattro film: (Wild Wild West, Fight Club, Lake Placid e Inspector Gadget),che rappresentano alcune delle attuali tendenze negli effetti visuali. In Wild Wild West, la star in CG è una macchina, un modello a superfici rigide, come i droidi di Star Wars Episodio I, ma con uno stile alla Giulio Verne, invece che moderno o spaziale. In Wild Wild West e in Inspector Gadget, vediamo esseri umani digitali usati come stuntman e attori in carne e ossa dotati di protesi digitali, una cosa che si era già vista in La Mummia. Fight Club ci spedisce all’interno di un cervello umano, in un fly-through che è il più possibile fotorealistico e scientificamente accurato. La cosa interessante è che gli artisti della Digital Domain hanno usato le stesse procedure basate su regole, chiamate L-system, per far crescere gli alberi in Al di là dei sogni (che ha vinto l’Oscar 1999 per gli effetti visuali) e per far crescere le strutture all’interno del cervello per Fight Club. Più gli effetti sono naturali, più è probabile che gli artisti usino algoritmi per aiutarli a generare una complessità visuale o cinetica. Capelli, peli, piume, fumo, vapore, polvere e sabbia vengono tipicamente creati in modo procedurale, spesso con l’aiuto di sistemi di particelle. Gli shader procedurali scritti in RenderMan della Pixar vengono usati spesso per creare e animare, oltre che per ombreggiare la geometria. In Lake Placid, gli shader di displacement modificano la geometria; in Wild Wild West e in Fight Club, gli shader vengono usati per creare movimenti. Questi film dimostrano quanto siano diventati abili gli artisti nel creare computergrafica fotorealistica e nell’integrare la grafica 3D con l’azione dal vivo. Anche un pinguino fotorealistico in Fight Club, l’orso, la mucca e il coccodrillo in Lake Placid e una vespa in Wild Wild West illustrano questo punto. Ma c’è un altro tipo di abilità che alcuni stanno sviluppando, quella di creare computergrafica non fotorealistica. Ne è un ottimo esempio il film Al di là dei sogni, dove si è creata l’illusione che Robin Williams cammini all’interno di un dipinto a olio, e più recentemente nel film d’animazione Tarzan, nel quale personaggi animati in 2D si muovono attraverso una giungla creata con fondali 3D dipinti. 163 WILD WILD WEST Barry Sonnenfeld USA, 1999 Diretto da Barry Sonnenfeld, noto per il film Men in Black, Wild Wild West della Warner Bros vede protagonisti Will Smith nei panni di James West e Kevin Kline in quelli di Artemus Gordon, due agenti governativi che devono salvare il presidente Grant dal malvagio (e senza gambe) Dr. Arliss Loveless (Kenneth Branagh). Nonostante le critiche piuttosto tiepide, il film ha riscosso un discreto successo negli Stati Uniti. Basato su una serie televisiva degli anni ’60, il film imita l’uso di strani gadget caratteristici della serie offrendone alcuni nuovi, creati in gran parte dalla ILM sotto la direzione del supervisore Eric Brevic. Il gadget più grande di tutti è la “tarantola”, una macchina alta 25 metri controllata dal Dr. Loveless da una cabina di pilotaggio aperta nella sua “testa”. Fatta di ruote, cavi, contrappesi e travi d’acciaio, la tarantola è come una Torre Eiffel a otto gambe che cammina, fa notare Simon Cheung, supervisore dei modelli digitali, che ha creato il gigantesco modello usando Maya della Alias/Wavefront. Dato che ogni gamba è diversa, Cheung non ha potuto semplicemente replicare un modello per otto volte; tuttavia, per rendere l’operazione di modellazione leggermente più facile, ha potuto per lo meno sfruttare gli shader di displacement per alcune delle viti. “Volevamo risparmiare il più possibile sulla modellazione, quindi abbiamo cercato di creare alcuni elementi, come le viti e la ruggine, in modo procedurale”, spiega Craig Hammack, direttore tecnico capo per la ricerca e sviluppo. “È stato difficile, dato che parte del modello è poligonale, quindi abbiamo finito per usare Viewpaint”. Viewpaint è il programma di painting 3D della ILM, che ha permesso la creazione di mappe per ruggine, graffi, sporco, olio, bump e altro ancora, secondo quanto dichiara Steve Braggs, supervisore della computergrafica. “La grande difficoltà era il bisogno di un alto dettaglio. È il più grande modello a superfici rigide che abbiamo mai realizzato, sei volte più grande del T-Rex di Jurassic Park. E in termini di painting, ha un numero di texture map superiore di 20 volte”. Quando la tarantola cammina, ci sono ruote che girano, cavi che si tendono e si rilassano, olio che scivola lungo le gambe, pistoni giganti che si muovono in ogni giuntura, e vapore che fuoriesce da 64 piccole aperture nelle giunture. Con 150 parti mobili in ogni gamba, questa tarantola è sicuramente una macchina intricata, e ha rappresentato una sfida interessante per Dan Taylor, supervisore dell’animazione. “Barry Sonnenfeld voleva dare la sensazione di meccanismi difettosi; una macchina che era potente, pesante, ma nello stesso tempo traballante”. “Nel caso di un dinosauro, è possibile rappresentare il movimento dei muscoli mediante rigonfiamenti. Con questa macchina non è possibile”. 164 Taylor ha studiato come si muovono le tarantole, ma ha scoperto che non danno una sensazione di peso, di passi pesanti. Quindi, per la macchina ha deciso di trasferire il movimento dalla gamba al corpo e, dopo un po’ di esperimenti, ha allontanato il peso dalla gamba più vicina alla macchina da presa. L’animazione delle varie parti in movimento delle gambe, invece, è stata spesso gestita in modo procedurale. Espressioni scritte in Softimage 3D della Avid hanno fatto girare le ruote, la dinamica di Maya ha fatto muovere i cavi, gli shader di RenderMan hanno fatto scorrere l’olio e hanno mosso le mappe di bump, uno script MEL (Maya) ha fatto uscire automaticamente il vapore dalle aperture in base alle angolazioni delle giunture, e le particelle di Maya hanno creato il fumo che fuoriesce dai fumaioli e, qualche volta, si mischia con fumo reale. “È stato complicato”, dice Alex Jager, direttore artistico degli effetti visuali. “Il fumo reale ha una tensione superficiale tra ogni particella, e simulare fumo che si avviluppa e si accavalla è difficile”. Per creare l’effetto, hanno usato ombreggiature, texture e riflessi complessi all’interno del fumo. Oltre alla tarantola, la ILM ha creato diversi altri effetti in CG, incluse le gambe meccaniche di Loveless, che assomigliano a quelle della tarantola, una sedia a rotelle in CG che doveva essere uguale a quella vera usata nel film, una vespa che punge una tarantola durante la scena di un bivacco, e una “vespa” meccanica, una specie di monociclo alato dotato di razzi che viene cavalcato dagli attori Smith e Kline. Dopo aver creato quest’ultima scena usando interamente il bluescreen, la troupe ha deciso di utilizzare in parte repliche digitali degli attori. “Gli attori in blue-screen sembravano piccoli manichini”, racconta Taylor. “Ma utilizzando la vespa e i personaggi in CG, abbiamo potuto esagerare il movimento e rendere efficace la scena”. Per Will Smith, hanno usato una scansione fatta per il film Men in Black; Kevin Kline è stato modellato da Geoff Campbell e sono state poi mappate le fotografie dell’attore sul modello. Complessivamente, la ILM ha lavorato su 400 scene per Wild Wild West, 100 delle quali in 3D. 165 Regia: Barry Sonnenfeld Sceneggiatura: S.S.Wilson, Brent Maddock, Jeffrey Price, Peter S. Seaman Fotografia: Michael Ballhaus, Stefan Czapsky Scenografia: Bo Welch Costumi: Deborah Lynn Scott Musica: Elmer Bernstein Montaggio: Jim Miller Prodotto da: Jon Peters, Barry Sonnenfeld (USA, 1999) Durata: 107' Distribuzione cinematografica: Warner Bros PERSONAGGI E INTERPRETI James West: Will Smith Artemus Gordon: Kevin Kline Dott. Loveless: Kenneth Branagh Rita: Salma Hayek 166 FIGHT CLUB David Fincher USA, 1999 Il thriller drammatico Fight Club del regista David Fincher, prodotto dalla 20th Century Fox con protagonisti Brad Pitt, Edward Norton ed Helena Bonham Carter, mostra che cosa succede quando uno yuppie ha troppo tempo libero e testosterone. Gli effetti vengono usati per aiutare gli spettatori a capire che cosa sta succedendo nel cervello dei protagonisti. Per la sequenza d’apertura, è stato chiesto alla Digital Domain di seguire un pensiero dalla sua origine all’interno del cervello umano fino alla sua emersione attraverso un follicolo del cuoio capelluto sulla testa sudata di Ed Norton. Il compito è stato affidato appropriatamente a Kevin Mack, supervisore degli effetti visuali, che, nel suo tempo libero, aveva già cercato di far crescere strutture neurologiche artificiali. Per creare quella scena di 95 secondi enormemente dettagliata, il team degli effetti è partito da disegni realizzati da un illustratore medico che ha diviso la scena, e quindi il viaggio attraverso il cervello, in “stanze”. In ogni “stanza”, gli artisti hanno tentato di creare immagini anatomicamente corrette. La maggior parte della geometria è stata creata in modo procedurale usando Houdini della Side Effects Software; il rendering è stato effettuato con RenderMan. La prima stanza è nelle profondità dell’amigdala, una struttura nel proencefalo e parte del sistema limbico che aiuta a regolare le emozioni e la memoria. La scena si apre con neurotrasmettitori chimici che vengono rilasciati dai neuroni (cellule nervose che trasmettono informazioni). Per creare i neurotrasmettitori, l’artista digitale Dan Lemmon ha usato il sistema di particelle di Houdini. Il risultato assomiglia a una nuvola d’inchiostro che viene rilasciata da un poro. A quel punto, la telecamera carrella indietro in una delle “stanze” più interessanti della sequenza: una complessa rete di neuroni marroncini, assoni (estensioni lunghe e fibrose dei neuroni che inviano le informazioni) e dendriti (estensioni dei neuroni più corte e simili ad alberi che ricevono informazioni). Lungo gli assoni scorrono bagliori bluastri, che rappresentano i potenziali di azione, la carica elettrica creata quando un neurone viene attivato e la sua membrana cambia da negativa a positiva. Tutto questo è stato modellato, animato e renderizzato in modo fotorealistico usando come riferimenti le ricerche di articoli scientifici e le immagini ottenute con microscopi a scansione elettronica. Per creare i potenziali di azione, l’artista digitale David Prescott ha usato Houdini per animare in modo procedurale l’oggetto lungo un percorso generato da un assone, poi lo ha renderizzato separatamente. Per creare assoni e dendriti, Prescott ha usato procedure L-system implementate in Houdini. Gli L-system, inventati dal botanico Aristed 167 Lindenmayer nel 1968, offrono descrizioni simili a regole dello sviluppo delle piante, cioè di una forma 3D. Applicando quella descrizione a se stessa, è possibile creare forme frattali e ricorsive; aumentando il livello di ricorsività, la forma può diventare più complessa. Per creare gli oggetti finali, Prescott ha usato metaball, isosuperfici e algoritmi di suddivisione, poi, dato che la geometria risultante era densa di poligoni, ha fatto crescere solo nove set (tre risoluzioni) di ciascun oggetto. Le risoluzioni inferiori sono state usate per gli oggetti non molto vicini alla telecamera. “Abbiamo usato una profondità di campo reale, non una simulata con il motion blur”, spiega. Usando un sistema intelligente per creare istanze annidate, è riuscito a moltiplicare efficacemente il numero di set che appaiono nella scena finale durante il rendering. Per animare gli assoni e i dendriti che ondeggiano nella “materia grigia” del cervello, Lemmon ha scritto uno shader di displacement usando RenderMan. Da questa “stanza”, la telecamera ci fa passare attraverso altra materia cerebrale, attraverso un poro, nell’osso corticale, nella pelle, attraverso qualche cellula di grasso, nel follicolo di un capello e finalmente all’esterno. Alla fine della scena, si guarda in effetti una microfotografia del volto di Ed Norton con la parte della fronte vicina all’attaccatura dei capelli imperlata di sudore. Le texture map disegnate da Martha Snow Mack hanno determinato dove far crescere i capelli in modo procedurale. Uno degli aspetti più difficili della scena è stato il tentativo di far volare la telecamera attraverso la complessa rete di geometria, ma una volta individuato il percorso, gli artisti digitali hanno bloccato la scena e iniziato il rendering. I tempi di rendering medi sono stati di circa cinque o sei ore per fotogramma per elemento; ogni fotogramma normalmente comprendeva tre o quattro elementi. “La difficoltà era legata al fatto che il cervello è una struttura caotica, quindi ogni elemento di geometria era davanti e dietro altri elementi”, dice Prescott. Ma il risultato sul grande schermo è di grande impatto. 168 Regia: David Fincher Sceneggiatura: Jim Uhls, dal romanzo omonimo di Chuck Palahniuk Fotografia: Jeff Cronenwth Scenografia: Alex McDowell Costumi: Michael Kaplan Musica: The Dust Brothers Montaggio: James Haygood Prodotto da: Art Linson, Cean Chaffin, Ross Grayson Bell (USA, 1999) Durata: 135' Distribuzione cinematografica: Medusa PERSONAGGI E INTERPRETI Tyler Durden: Brad Pitt Il narratore: Edward Norton Marla Singer: Helena Bonham-Carter Robert Paulsen: Meat Loaf 169 LAKE PLACID Steve Miner USA, 1999 In questo film della 20th Century Fox di genere commedia/horror, è un coccodrillo che ruba la scena... e anche una mucca, un orso e un elicottero. Tutti questi sono, almeno per parte delle scene, oggetti 3D creati e animati dagli artisti della Digital Domain. Diretto da Steve Miner, il film vede protagonisti Bill Pullman e Bridget Fonda, che combattono un coccodrillo mangiatore d’uomini che vive in un lago remoto del Maine, e Betty White, alla quale il coccodrillo sembra invece piacere. Per creare gli effetti, gli artisti digitali, diretti dal supervisore Andre’ Bustanoby, hanno usato un’ampia gamma di pacchetti software commerciali e proprietari. Le particelle di Houdini hanno creato gli spruzzi nel lago mentre il coccodrillo emerge. Il software Paraform 1.0 della Paraform (Santa Clara, California, USA) ha aiutato a trasformare dati scansiti in un modello NURBS da poter usare in Maya e Softimage 3D. Le particelle di Maya sono state usate per muovere la sabbia sotto le zampe del coccodrillo. Il sistema dinamico di Maya ha aiutato gli animatori a muovere la pelle sul ventre del coccodrillo. La fluidodinamica nel software RealWave della Next Limit Research (Madrid, Spagna) ha aiutato a creare la superficie del lago. E FurDesigner della Nordisk Film (Copenaghen, Danimarca) ha aiutato a creare la pelliccia dell’orso. Il modello dell’elicottero è stato fornito dalla Viewpoint Digital (Orem, UT, USA); le creature dalla Zygote (Provo, UT, USA). In molte scene, il coccodrillo è un “pupazzo” di Stan Winston. L’orso è una combinazione di ripresa dal vivo e CG in alcune scene, completamente in CG in altre. La mucca che viene mangiata dal coccodrillo è un modello in CG. Bustanoby ha preso molto sul serio il compito di far corrispondere il modello in CG del coccodrillo a quello fisico di Stan Winston. “Volevo essere sicuro di non dover reinventare nulla e che sfruttassimo il più possibile le capacità artistiche e scultorie del team di Winston”, spiega. Per farlo, il team di Bustanoby ha scansito le maquette di Winston per creare il modello, e invece di disegnare a mano le texture, ha messo i dettagli scolpiti della maquette nelle mappe di displacement. Questo non solo ha reso più facile far corrispondere il modello in CG con quello di Winston, ma ha fatto anche risparmiare tempo. “Penso che se avessimo disegnato tutto a mano fin dall’inizio, avremmo facilmente raddoppiato il tempo di creazione del coccodrillo”, afferma Bustanoby. 170 Il coccodrillo in CG è stato usato nelle scene dove si muove velocemente, in particolare quando l’animale balza fuori dall’acqua per attaccare e quando sta inseguendo le persone sulla terraferma. Le scene nell’acqua sono state particolarmente difficili a causa dell’interazione tra il modello in CG e l’acqua. Il livello dell’acqua cambiava con il movimento del coccodrillo, costringendo a realizzare l’acqua in CG (con tecniche simili a quelle di Titanic); è stato necessario animare spruzzi e gestire riflessi. Ma anche se Bustanoby preferisce parlare del lavoro fatto dal suo team per modellare, applicare texture, colorare, animare e renderizzare i personaggi digitali e gli elementi, come l’acqua, uno degli aspetti più interessanti del suo lavoro per questo film è stato il modo in cui ha aiutato il direttore della fotografia a previsualizzare le scene e ha continuato a lavorare con la troupe durante la produzione. “Avevamo sul set una O2 della SGI con Softimage 3D”, e in Softimage, Bustanoby ha creato un set virtuale della scena della spiaggia con versioni digitali dei supporti delle macchine da presa, versioni in bassa risoluzione di veicoli, persone e del coccodrillo, con diversi cicli di animazione per quest’ultimo. Portando questa previsualizzazione del set nella location dove sono state girate le scene dal vivo, ha potuto mostrare al direttore della fotografia quale sarebbe stato l’aspetto della scena scegliendo un particolare obiettivo o macchina da presa, e il direttore poteva apportare modifiche di conseguenza. 171 Sceneggiatura e Regia: Steve Miner Fotografia: Daryn Okada Scenografia: Willie Heslup Costumi: Jori Woodman Musica: John Ottman Montaggio: Marshall Harvey Prodotto da: David E. Kelley (USA, 1999) Durata: 92’ Distribuzione cinematografica: BIM PERSONAGGI E INTERPRETI Jack Wells: Bill Pullman Kelly Scott: Bridget Fonda Hector Cyr: Oliver Platt Sceriffo Hank Keough: Brendan Gleeson Dolores Bickermann: Betty White Kevin Campell: Adam Arkin 172 INSPECTOR GADGET David Kellogg,1999 “Questo film riguarda soprattutto l’integrazione, più che ogni altra cosa”. Diretto da David Kellogg, il film di genere commedia/fantasy della Walt Disney Pictures basato sulla serie televisiva di cartoni animati L’ispettore Gadget vede come protagonista Matthew Broderick nei panni di un agente speciale incline ai disastri che è “potenziato” da vari aggeggi, grazie a un esperto di medicina/robotica. Molti dei gadget in CG creati dalla Dream Quest sono stati modellati in base a modelli fisici realizzati da Stan Winston; alcuni sono stati creati direttamente in computergrafica; e la maggior parte si è dovuta ripiegare per stare in spazi assurdamente piccoli. Un elicottero, per esempio, esce dalla testa dell’ispettore Gadget. “Nel film si cerca sempre di mostrare al pubblico un nuovo gadget”, dice Hoover, “e i gadget avevano tutti un qualche tipo di animazione per ripiegarsi in piccoli spazi, per poi uscire e ingrandirsi in modo telescopico. Quindi l’animazione è elaborata e divertente da guardare”. Che tipo di gadget? Bizzarri dispenser, bolle digitali, spray, rampini di ferro, orologi, un lanciafiamme, coltelli, una sega a nastro, un piede/razzo, una penna Bic che si trasforma in pistola... Quando l’ispettore Gadget vuole arrivare in fretta da qualche parte, può guidare la sua gadgetmobile dotata di jet o utilizzare gambe cromate alte 4 metri, entrambe create dalla Dream Quest. John Murrah, supervisore della grafica 3D, racconta che le gambe sono state particolarmente difficili da realizzare, perché gli animatori dovevano far corrispondere i movimenti a quelli dell’attore filmato in un set in greenscreen mentre correva su trampoli alti un metro collegati a corde elastiche. Hanno usato dati di tracking per far combaciare alla perfezione il movimento; per animare i suoi pantaloni, hanno usato Maya Cloth. “La parte difficile è stata la creazione delle pieghe”, spiega Rob Dressel, supervisore dell’animazione. “Lavorare con una veste ampia è tutta un’altra cosa; i pantaloni, invece, formano molte pieghe, e realizzarle nel modo giusto è difficile”. Un’altra scena difficile è stata quella nella quale Gadget si trasforma in un airbag: corpo rotondo, gambe e braccia gonfie, piccole scarpe attaccate sotto, testa che sporge sopra. Per animare l’ispettore “gonfiato”, Dressel ha usato strumenti “lattice” per farlo rimbalzare come una palla e farlo sfrecciare nell’aria quando viene colpito. Per mettere il volto di Broderick sulla testa, il team ha creato elementi tipo macadam (tipo di massicciata stradale in pietrisco) tratti dalle riprese in grenscreen (gli elementi assomigliano a mappe create a partire da un globo). Poi, hanno ritoccato gli elementi, li hanno avvolti sulla testa 3D e hanno mosso il filmato nello spazio 173 tridimensionale mentre l’ispettore “gonfiato” rimbalza. “È come la Casa Stregata di Disneyland”, commenta Dressel. “Quando la si guarda di fronte, fa molta impressione, ma se la si guarda di lato, l’effetto comincia a svanire”. 174 Regia: David Kellog Usa,1999 PERSONAGGI E INTERPRETI Matthew Broderick.... John Brown (Inspector Gadget)/Robo Gadget Rupert Everett.... Sanford Scolex (Dr. Claw) Joely Fisher.... Brenda/RoboBrenda Michelle Trachtenberg.... Penny Andy Dick.... Kramer Cheri Oteri.... Mayor Wilson Michael G. Hagerty.... Sikes Dabney Coleman.... Chief Quimby D.L. Hughley.... Gadgetmobile Rene Auberjonois.... Artemus Bradford Frances Bay.... Thelma Mr. T.... Himself Richard Kiel.... Famous Guy with Metal Teeth (Jaws) Richard Lee-Sung.... Famous Villian with Deadly Hat (Odd Job) Bobby Bell (I).... Famous Identifier of Sea Planes (Tattoo) 175 THE MUMMY Stephen Sommers, 1999 Egitto, 1709 a.C. Il gran sacerdote Imothep s'innamora della moglie del Faraone e con il suo aiuto ne uccide il marito. Scoperti dalle guardie imperiali i due sono destinati ad una tragica fine. L'imperatrice si uccide mentre il sacerdote viene mummificato vivo e diventa vittima di una maledizione. Chiunque lo riporterà in vita tramite il Libro dei morti è destinato a perire e sarà responsabile di avere scatenato le dieci piaghe dell'Egitto sulla terra. Tremila anni dopo l'avventuriero Rick O' Connell, arruolatosi nella legione straniera, durante un conflitto con i beduini scopre casualmente la città sacra dove riposano (non ancora in pace) i resti di Imothep. Rick confida il suo segreto all'archeologa Evelyn Carnarvon e a suo fratello Jonathan. L'insolito terzetto decide così di avventurarsi nel deserto alla ricerca della mitica città di cui si favoleggiano i tesori nascosti. Al gruppo si uniscono degli esploratori americani, anch'essi alla ricerca di facili guadagni. Non sanno davvero a quali orrori andranno incontro risvegliando Imothep dal suo sonno temporaneo... Basato sul classico del 1932 con Boris Karloff, questa aggiornata versione segue una bella egittologa e suo fratello nella ricerca del tesoro della città perduta di Hamunaptra. Insieme a loro c'è un avventuroso legionario, che li guida nelle profondità del deserto egiziano. Una volta trovata la città, accidentalmente svegliano la mummia di Imhotep dal suo sonno di 3000 anni, leggendo a voce alta il Libro dei Morti e scatenando così la sua vendetta. Gli esterni del film sono stati girati l'estate del 1998 nel deserto del Marocco presso Erfoud, dove la temperatura spesso raggiungeva 54° dai -13° del mattino. "Squisita. Ossessionante" è come Fraser, il legionario, ha descritto la sua esperienza nel deserto. "La sabbia sarebbe diventata una tempesta alla fine del giorno. La sabbia non era mai veramente sabbia. Era più simile ad un talco. Non vi era modo di sfuggirle. L'ho continuata a trovare nel mio spazzolino, quando sono tornato a Los Angeles mesi dopo". Il regista, Stephen Sommers, non ha avuto problemi a lavorare nel deserto. "Il motivo per cui il film è diventato così grande è perché siamo andati nel Sahara e fatto le riprese nel deserto e bisognava accettare tutti i problemi che ne conseguivano. I ragni e gli scarafaggi, gli scorpioni e il caldo, e le tempeste di sabbia sono tipiche del territorio. Ho girato un film in India, quindi il Marocco in confronto era una favola". 176 La Universal ha speso 80 milioni di dollari nella produzione del film ed una buona parte di questi sono stati usati per i fantastici effetti speciali forniti dai maghi della Industrial Light & Magic di Lucas. Il personaggio della mummia in particolare non è sempre un attore reale. "È feroce, formidabile, può cambiare forma. Recitare insieme a qualcuno che non c'è può essere un problema, soprattutto se lo devi baciare, come la Weisz, l’egittologa, ha dovuto fare con la mummia. Non c'era niente davanti a me. Ero sola e baciavo l'aria. Dovevo soltanto immaginarlo". Ha il potere di far scendere sulla terra le dieci piaghe, ma con la premessa di base di un uomo che è rimasto vivo per 3000 anni in cerca del suo amore perduto" ha commentato Fraser. Creare questo tipo di personaggio non è stata una facile impresa per John Benton, il supervisore degli effetti visivi, e il suo gruppo. Ovviamente anche interpretarlo non è stato semplice come Arnold Vosloo, (Imhotep), ha messo in evidenza. "Tecnicamente era incredibilmente impegnativo, ma c'è un momento in cui tu devi andare oltre tutto questo e mettere in evidenza la cosa più importante" egli ha affermato. "Per me era interpretare l'uomo invece che l'orrore". "Ringrazio che me l'abbiano permesso. Interpretare semplicemente il cattivo e gridare e comportarsi da pazzo sarebbe stato noioso". Ma interpretare un antico egiziano innamorato non è l'unico problema che Vosloo ha dovuto affrontare. Ha dovuto anche creare il linguaggio che usa nel film. "Ho lavorato con un egittologo dell'UCLA per creare questo linguaggio. Ovviamente non ci sono conoscenze sicure su di esso. Pensiamo di sapere che suono abbia, ma non abbiamo delle prove certe. Ho dovuto imparare tutto questo a voce. Lo scopo era che, qualunque cosa ne fosse venuta fuori, questa fosse convincente. Non è come in qualsiasi altro film, dove puoi semplicemente improvvisare". Probabilmente la scena più difficile da girare per Vosloo è stata quella in cui è stato fasciato completamente. "Mi avevano fasciato fino alle spalle, quando sfortunatamente dovettero cambiare le luci. Così sono dovuto rimanere per ben due ore fasciato". Poi mi hanno messo nella bara, hanno sparso degli scarafaggi su di me e l'hanno chiusa. La cosa più strana è stata quando mi hanno fasciato la faccia, perché non potevo parlare, né sentire, né vedere. Ma la parte peggiore è stata rimanere sdraiato nel sarcofago, bendato e coperto da scarafaggi che mi strisciavano addosso. Non è qualcosa che voglia ripetere al più presto. Hanno usato 200 scarafaggi di gomma, ma 30 erano veri. Non era un grande divertimento!" Dovevo uccidere quattro persone per ottenere i quattro contenitori con gli organi vitali di Anck-Su-Namun. Ogni volta che ne uccidevo una mi rigeneravo. La mummia uno e due sono state create interamente dalla 177 ILM, mentre la tre e la quattro erano interpretate da me. Per la terza però recitavo indossando alcune protesi. Per entrambe portavo dei pezzi di plastica sul corpo. Erano molto soffici, flessibili - una rotonda, una quadrata, una allungata ecc... e rappresentavano dei buchi nel mio corpo. Su di essi sono stati disegnati denti marci, muscoli e carne decomposta". Gli effetti speciali sono stati determinanti: grazie a loro abbiamo potuto ricreare l'Egitto di 3000 anni fa, il Cairo degli anni '20 e l'effetto magico della Mummia. L'attrazione di Hollywood per la Mummia nasce all'inizio degli anni '30. Il primo film de "La Mummia" è stato prodotto all'inizio del 1932 e per noi è stato importante riportare "La Mummia" nuovamente negli studios della Universal. Gli effetti di questo film comprendono una mistica tempesta di sabbia, uno sciame di locuste, insetti che entrano ed escono delle persone, e una scena di combattimento con alcune terrificanti creature mummificate dell’oltretomba, tutti creati dalla ILM. Parte del lavoro più innovativo, però, si è concentrato sulla mummia e sui suoi “colleghi”. Il solo studio dell’immagine definitiva della mummia ha richiesto circa tre mesi. “Il regista voleva una mummia che non desse l’impressione di essere una persona avvolta nelle bende”, racconta John Berton della ILM, supervisore degli effetti visuali. In effetti, quando viene aperta la sua tomba, Imhotep non sembra neanche umano, anche se quando il cadavere rivoltante e quasi scheletrico si alza dal suo sarcofago, si sa che una volta lo era. “Steve Sommers voleva una mummia disseccata attraverso la quale si potesse guardare, ma che comunque respirasse e si muovesse”, riporta Berton. “Non è un animatronic. È grande, terrificante, veloce, cattiva, orribile, ed è molto forte”. E questo è solo il primo stadio. L’obiettivo di Imhotep nel film è di combattere tutti i tentativi per impedirgli di rigenerarsi in questo mondo. Quindi, con il progredire del film, il corpo di Imhotep si trasforma lentamente fino a quando, alla fine, comincia ad assomigliare a un essere umano, in particolare all’attore Vosloo. Ma quando Imhotep è nel suo stato di mummia, è completamente in CG. Progettata e portata alla “vita” dalla ILM, la mummia ha creato molti problemi al team degli effetti visuali, sia per il suo aspetto, sia per il modo in cui si muove. Nello stadio più mummificato, sembra uno scheletro con pezzi di pelle attaccati alle ossa e qualche parte molle all’interno dello scheletro. Nella Fase due della rigenerazione di Imhotep, gli organi interni diventano più definiti, più “umidi e complessi”, come dice John Anderson, progettista principale della CG; pezzi di carne e di pelle penzolano dalle ossa, e spuntano tendini e nervi. Nelle fasi finali, le parti mummificate diventano protesi digitali poste sull’attore reale. 178 Per creare il corpo della mummia, il team degli effetti ha usato una combinazione di modellazione e displacement map. Per realizzare il movimento del cadavere parzialmente decomposto, hanno messo insieme tre tecniche di animazione: motion capture, keyframe e animazione procedurale. Muovere la mummia Dato che la mummia si sarebbe evoluta nell’attore con il progredire del film, è stato deciso fin da subito di catturare i movimenti di Vosloo e di applicarli alla mummia digitale. Il reparto di motion capture della ILM, supervisionato da Jeff Light, ha catturato i movimenti di Vosloo riflessi da 50 marker sferici con un sistema di motion capture ottico Vicon della Oxford Metrics (Oxford, UK,USA). Poi, hanno usato il software del sistema Vicon e il software proprietario Mojo per ripulire i dati catturati, in modo che potessero essere usati dagli animatori. “Il motion capture è ottimo per offrire agli animatori la temporizzazione di base di un attore e per catturare l’essenza dei suoi movimenti, ma gli animatori devono poter cambiare i dati per aggiungere le sfumature”, afferma Light. “Ci vogliono i migliori animatori per manipolare i dati di motion capture senza perdere la loro essenza”. “Per Imhotep, siamo partiti con il motion capture dello stesso Arnold e abbiamo usato questi dati per alcune azioni fisiche riprese a distanza”, racconta Daniel Jeannette, supervisore dell’animazione. “Per i primi piani, abbiamo usato pose estratte dal motion capture, poi abbiamo aggiunto keyframe all’animazione”. Nei computer della ILM, oltre ai dati del motion capture sono state riversate tutte le altre immagini di Vosloo. Sono state poi effettuate delle riprese specifiche con l’attore per studiare la sua andatura e altri particolari del suo modo di muoversi, per poi riportare il tutto nello spazio tridimensionale. Un uso particolarmente efficace del motion capture, secondo Jeannette, è stato per una scena di combattimento nella quale una ventina di mummie digitali animate con tecniche di motion capture e keyframe e qualche stunt-man in carne e ossa in costume da mummia battagliano con l’eroe del film. Le mummie digitali sono facilmente individuabili: sono quelle i cui colli si polverizzano quando gli viene tagliata via la testa. “È stato interessante fondere il motion capture con l’animazione in keyframe e azione dal vivo”, commenta Jenn Emberly, capo animatore, che ridendo aggiunge: “Rimarrete sorpresi da ciò che può fare un corpo”. L’arte della decomposizione 179 Il compito di creare il vero aspetto visivo della mummia in vari stadi di decomposizione è spettato all’illustratrice Catherine Craig, che ha studiato immagini di cadaveri fino ad avere letteralmente gli incubi. Ogni modello della mummia aveva 3 mila superfici organizzate in cinque livelli principali: pelle, ossa, carne/muscoli/tendini, bende, e pezzi di carne penzolanti. Per ogni livello, Craig ha disegnato sei mappe usando Viewpaint, il sistema di paint 3D della ILM. Tre mappe controllavano colore, opacità e specularità; le altre tre controllavano il displacement della superficie. Le tre displacement map le hanno permesso di modificare la geometria in ognuno dei livelli. Con una displacement map, era possibile scavare o costruire texture più basse o più alte di circa 6 millimetri disegnando aree con il nero (più basso), il bianco (più alto) o il grigio (invariato). Una seconda mappa estendeva l’altezza e la profondità a 12 millimetri. La terza consentiva di tagliare fori nella geometria per rivelare un livello sottostante. “Quando si disegna una texture, sembra falsa”, dice Craig. “Si nota che le sporgenze non cambiano sui bordi. È preferibile usare una displacement map, anche se richiede più tempo per il rendering”. Michael Bauer, supervisore della CG, spiega i motivi di questa lunghezza del rendering. “Normalmente, un displacement così spinto crea immagini rumorose che compaiono e scompaiono, a seconda dell’angolazione della telecamera. Quando si usa uno shader per muovere i CV, si generano piccole imprecisioni, quindi abbiamo dovuto lavorare con campionamenti dei pixel a risoluzione più alta per evitare artefatti. Inoltre, anche l’animazione procedurale faceva muovere i CV”. E se queste difficoltà di rendering non fossero abbastanza, in una scena Imhotep passa dalla Fase uno alla Fase due, il che significa che lo shader di Render-Man doveva fare l’interpolazione tra i due set di mappe mentre la pelle cambiava. I modelli sono stati realizzati con PowerAnimator della Alias/Wavefront e il software ISculpt della ILM. La creazione dei modelli per La mummia ha portato la ILM più vicino che mai alla creazione di un essere umano realistico. In film ricchi di effetti visuali come questo, gran parte del lavoro viene realizzato in fase di post-produzione. Oltre alla mummia, infatti, molte altre scene di azione hanno visto pesanti interventi da parte della ILM per aggiungere oggetti, effetti e comparse digitali. Di conseguenza, molte scene sono risultate decisamente impegnative per gli attori, soprattutto tenendo conto che in un film dell’orrore, ci si aspetta che i protagonisti abbiano... paura. Fraser, l’attore che impersona il protagonista “buono” del film, racconta: “Per via di tutti gli effetti visivi, ci è capitato spesso di agire o reagire davanti al nulla. In situazioni simili, credo che l’unica risorsa a disposizione dell’interprete sia la fantasia”. Quando una determinata 180 scena esigeva che gli attori dimostrassero paura o terrore, i tecnici mostravano loro una fotografia di Arnold Vosloo nei panni della mummia per provocare la loro reazione. Rachel Weisz, la protagonista femminile, aggiunge: “Per farvi capire quali sforzi d’immaginazione sono stati necessari, posso raccontarvi di quella volta che Stephen, il regista, mi ha guardato e mi ha detto: “D’accordo, adesso di fronte a te c’è un enorme carro che si schianta al suolo e diecimila soldati armati si precipitano contro di te”. Ovviamente, davanti a me non c’era nulla, quindi ho dovuto ricreare l’emozione giusta, paura o altro, semplicemente guardando uno spazio vuoto”. Quella di recitare col nulla, dal momento che il digitale viene aggiunto in post-produzione, è la stessa esperienza che hanno dovuto affrontare anche gli attori di Star Wars:Episode I the phantom menace. 181 Sceneggiatura e Regia: Stephen Sommers Soggetto: Lloyd Fonvielle Fotografia: Adrian Biddle Scenografia: Allan Cameron Costumi: John Bloomfield Musica: Jerry Goldsmith Montaggio: Bob Duesay Effetti visivi: John Berton Effetti speciali: Chris Corbould Trucco: Nick Dudman Prodotto da: James Jack, Sean Daniel (USA, 1999) Durata: 121' Distribuzione cinematografica: UIP PERSONAGGI E INTERPRETI Imothep: Arnold Vosloo Rick O'Connell: Brendan Fraser Evelyn Carnarvon: Rachel Weisz Jonathan: John Hannah Beni: Kevin J. O'Connor The Egyptologist: Jonathan Hyde Ardet Bey: Oded Fehr 182 MATRIX The Wachowski Brothers, 1999 Siamo nel 1999, forse. Thomas Anderson, impiegato di giorno in una ditta di informatica e hacker di notte con lo pseudonimo di Neo, sente che qualcosa non va nella sua vita e in quella che si svolge attorno a lui, ma soprattutto sogna qualcosa di più, sogna di "svegliarsi". Il misterioso Morpheus, su cui sulla rete se ne dicono tante, è l'uomo che potrebbe rispondere alle esigenze e alle domande di Neo. Anche Morpheus ha bisogno di Neo. Che infatti viene prelevato da casa e portato a cospetto dell'uomo ritenuto più pericoloso dalle autorità. Neo potrebbe essere l'uomo predetto dall'oracolo a liberare la razza umana. Cos'è dunque The Matrix? The Matrix è il computer che si è preso la briga di generare il mondo (non siamo nel 1999 ma in realtà nel 2070). Nel 2001, quando una ribelle intelligenza artificiale ha preso il potere, essa si è occupata di illudere gli umani di vivere sempre nel 1999 (ecco spiegato il disagio di Neo). Ora gli umani vivono dominati dalle macchine e le loro energie corporee vengono saccheggiate per alimentare le batterie di quest'ultime. Disposto a conoscere la verità svelatagli da Morpheus e da quelli della sua banda (nella quale si segnala una certa Trinity, che ruba la scena a tutti nella sorprendente sequenza iniziale, dove si incomincia a vedere il futuristico kung-fu con cui i nostri combattono i difensori della Matrix), Neo si sottopone a massacranti allenamenti in cui viene proiettato in una realtà virtuale dove può muoversi velocemente e menare colpi di un'efficacia e di un'eleganza sbalorditivi. E con i suoi nuovi compagni si appresta a combattere la perfida Madre di tutte le macchine, non prima di avere sconfitto l'agente Smith, parodico clone di un agente FBI, anch'esso virtuale e che appare orribilmente indistruttibile. In tutta questa sarabanda di avvenimenti c'è tempo anche per una riflessione mistica, Matrix è forse Dio? Il film nasce da un idea dei fratelli Wachowski, ex fumettisti e sceneggiatori, che molti anni fa dettero vita a Matrix, questa bozza di sceneggiatura fu vista da Joel Silver, il produttore di film come Arma letale e Die Hard, che intuì immediatamente la validità della pellicola. Prima di presentare questa idea Silver voleva constatare la validità dei due fratelli dietro la macchina da presa; banco di prova fu il film Bound che ebbe un ottimo successo e che spinse Silver a presentare ai vertici della Warner Bros questo progetto. Per riuscire a convincere la Warner Bros a investire una cifra pari a 60 milioni di dollari ingaggiarono il disegnatore Geof Darrow per presentare nel miglior modo il progetto. Il progetto piacque talmente che la Warner Bros aumentò immediatamente il badget avendone fiutato il successo. 183 La parte più interessante del film sono gli effetti speciali studiati appositamente per esso. Le immagini al rallenty di alcune scene d’azione contribuiscono alla creazione del particolarissimo stile di Matrix, inoltre alcuni passaggi della sceneggiatura hanno richiesto l’utilizzo di speciali tecniche di ripresa. Queste sequenze richiedevano un movimento della camera da presa vicino ai 12000 fotogrammi al secondo, che i fratelli Wachowski hanno definito “Bullet Time” (riprese alla velocità delle pallottole). Questo processo Flow-Motion consente al regista una flessibilità quasi illimitata nel controllo della velocità e dei movimenti degli elementi inquadrati. Per fare un esempio si può far vedere un lottatore che salta per dare un calcio al rivale accelerando l’immagine all’apice del salto, vedere l’uomo librarsi in aria, estendere le gambe con uno scatto velocissimo e poi ricadere al suolo con una naturalezza e grazia infinita. I fratelli Wachowski si sono recati nella sala della Manex Visual Effect (Alameda,CA,USA), per discutere delle loro idee riguardo al film con il direttore degli effetti visivi John Gaeta. I Wachowski sono appassionati di fumetti e conoscono bene lo stile giapponese d’animazione chiamato Anime, che hanno ricreato per l’occasione con attori veri e propri. Questo tipo di animazione si basa sulla “fisica della decimazione”, ovvero scompone l’azione nelle sue diverse componenti e fa sì che ogni elemento venga meticolosamente controllato per trarre la massima drammaticità dal movimento dinamico. I registi e il team guidato da Gaeta hanno dapprima stabilito i movimenti e la posizione degli attori per una determinata scena e l'hanno poi filmata usando macchine da presa tradizionali. Hanno poi scannerizzato le immagini ottenute in un computer e usando un sistema laser, sono riusciti a “mappare” i movimenti della cinepresa necessari ad inquadrare la scena al meglio. A questo punto una serie di cineprese fisse sono state poste lungo il percorso precedentemente individuato e ogni macchina ha scattato una singola foto. Le immagini così ottenute sono poi state inserite in un computer che ha creato una striscia di immagini fisse simili a quelle dell’animazione. Il computer ha poi generato dei disegni intermedi per far muovere un personaggio da una posa all’altra e la serie di immagini ottenute può quindi scorrere davanti agli spettatori alla velocità desiderata dal regista senza perdere in chiarezza. Il punto chiave della scena “Bullet Time” era quello di far rallentare l’azione al punto che, teoricamente, sarebbe stato possibile vedere il percorso di un proiettile, questa tecnica è stata utilizzata per quattro scene chiave di Matrix. In una si vede l’attore Keanu Reeves che schiva una serie di pallottole, i cui percorsi vengono rappresentati come file di dischi 3D d’argento. 184 La scena sembra ripresa da un punto d’osservazione che compie un cerchio completo intorno all’attore, una cosa impossibile da fare con una normale macchina da presa. Invece, il supervisore tecnico Kim Libreri e il suo team hanno posizionato 122 fotocamere 35 mm caricate con pellicola cinematografica in un set in greenscreen dove Reeves, attaccato a dei fili, piegava la schiena con agilità per schivare le pallottole. Il progetto della scena ha richiesto molto lavoro. Usando il software Softimage della Avid funzionante su workstation SGI, il team ha impostato la scena usando un manichino animato, ha progettato un percorso della macchina da presa, e con l’aiuto di un plug-in proprietario, ha calcolato il posizionamento di ogni fotocamera nello spazio fisico. Una volta sul set, il team ha posizionato un cubo con al centro un puntatore laser che ha regolato in altezza, distanza, angolazione e inclinazione per individuare la posizione di ogni fotocamera. Per facilitare la successiva ripulitura digitale della scena, hanno coperto tutte le attrezzature con greenscreen a parte gli obiettivi delle fotocamere. Le fotocamere, che potevano essere attivate con un ritardo minimo tra l’una e l’altra di un millesimo di secondo, venivano controllate da un computer Intergraph con il software Filmbox della Kaydara; il software è stato modificato con l’aiuto della stessa Kaydara (Montreal, Canada) appositamente per questo progetto. Per produrre il movimento tra i fotogrammi fissi, la Menax ha collaborato con la Snell & Wilcox (Petersfield, England), per creare una nuova tecnologia d’interpolazione del movimento. Tuttavia questo ha risolto metà del problema, si doveva ancora mettere uno sfondo intorno all’attore. Per questo, si sono rivolti a George Borshukov della Manex che, quando era studente alla UC Berkeley, ha contribuito allo sviluppo di una particolare tecnologia di modellazione dell’immagine. Il software che Borshukov ha creato per la Manex, chiamato Virtual Cinematography, consente di trasformare un set o una location ripresi dal vivo in una scenografia virtuale fotorealistica per generare qualsiasi movimento della macchina da presa. Come prima cosa si scatta una fotografia al set cinematografico, poi attraverso le foto si genera una geometria tridimensionale e sempre partendo dalla foto si applica una texture map all’ambiente 3D. Il set virtuale risultante può essere re-illuminato e usato per il compositing come una scena dal vivo. Per la scena in cui Reeves schiva le pallottole in cima ad un grattacielo, è stato usato Virtual Cinematography per creare tutti gli edifici nelle riprese a 360 gradi, facendoli corrispondere con precisione a quelli della location reale. 185 Per aumentare il realismo delle riprese delle finestre visibili nella scena, è stato utilizzato uno shader procedurale di Softimage: MentalRay, per applicare Bump map alle intelaiature delle finestre, in modo da riflettere in modo accurato l’ambiente. Le scene “Bullet time” avvengono nella realtà virtuale che in questo film, imita il più possibile il mondo di oggi. La vera realtà di Matrix, invece, è un mondo sintetico creato in gran parte dalla Menax con strumenti in CG. Rodney Iwashina ha collaborato con il modellista Grant Neisner e il supervisore del colore e dell’illuminazione Rudy Poot. “Tutto è scuro e consunto”, dice Iwashina, perché “le macchine non si preoccupano del loro aspetto”. Tra le macchine biomeccaniche di Matrix c’è il DocBot, un robot con appendici meccaniche multiple usate per dispensare medicine e cure mediche agli esseri umani racchiusi nei baccelli, e le Sentinelle, che sono macchine simili a calamari con 15 tentacoli. La cosa che più turba di questo mondo, però, sono i campi di feti. “Questo film include le immagini più scioccanti che abbia mai visto creare con la CG”, afferma Gaeta. In una lunga sequenza, per esempio, un feto umano è sospeso in un guscio simile alla placenta, dove il suo teschio malleabile sta già crescendo intorno a un tubo che fornisce le scene in RV. Il guscio, che penzola da uno stelo, viene raccolto da una macchina simile a una trebbiatrice e piantato in uno degli sterminati campi di esseri umani. La sequenza è stata creata interamente in CG. Per creare il realismo “carnale” di un feto che galleggia in un baccello, Rudy Poot ha usato un sistema che ha sviluppato nel corso degli anni e che, unico nel suo genere, permette di sovrapporre shader di Renderman in un solo oggetto. Il sistema è, in effetti, uno shader globale, un codice di grandi dimensioni con centinaia di parametri. All’interno di questo shader, Global Surfacing Rendering (GSR), si possono attivare modelli d’illuminazione proprietari ed effetti d’atmosfera volumetrici scritti con l’aiuto di Steve Demers, e varie centinaia di funzioni di rumore per aggiungere elementi come le goccioline. Quindi, anche se il baccello in sé è una semplice forma ovoidale, grazie al programma di rendering sembra essere un volume con tessuti realistici e muco all’interno. “I baccelli hanno quattro layer. Si vede il tessuto carnoso del bambino rifratto all’interno, uno strato di sporco, uno strato di muco e, sopra tutti gli altri, una membrana chiara”, descrive Poot. “Tutti questi elementi sono istanze di uno shader che agisce su un solo oggetto. Con l’editor che abbiamo costruito intorno a RenderMan, possiamo creare centinaia d’istanze di shader che comunicano tra loro e creano l’ambiente. La luce è trasmessa nel modo corretto e il muco ha effetti di volume”. Usando GSR, il team può creare l’80-90% del look di un film usando i parametri dello shader, senza dover scrivere shader personalizzati, una 186 cosa che, secondo Poot, rende le previsualizzazioni più veloci e più vicine al look finale. Matrix ritrae un tetro futuro nel quale gli esseri umani, i cui cervelli sono bloccati nella realtà virtuale, esistono per generare bioelettricità per le macchine. Ironicamente, per realizzare questo film, i team degli effetti della Manex hanno usato le macchine per creare nuovi strumenti che rendono più facile previsualizzare e creare realtà virtuali e per renderizzare immagini che si avvicinano più che mai alla raffigurazione del veri tessuti umani. 187 Sceneggiatura e Regia: The Wachowski Brothers Fotografia: Bill Pope Scenografia: Owen Paterson Costumi: Kym Barrett Musica: Don Davis Montaggio: Zach Staenberg Prodotto da: Joel Silver (USA, 1999) Durata: 136' Distribuzione cinematografica: Warner Bros PERSONAGGI E INTERPRETI Neo: Keanu Reeves Morpheus: Laurence Fishburne Trinity: Carrie-Anne Moss Agente Smith: Hugo Weaving Oracle: Gloria Foster Cypher: Joe Pantoliano Tank: Markus Chong Apoc: Julian Arahanga Mouse: Matt Doran Switch: Belinda McGlory Dozer: Anthony Ray Parker Agente Brown: Gordon Ragazzo cucchiaio: Roman Witt 188 STAR TREK: INSURRECTION Jonathan Frakes, 1999 La Paramount Pictures presenta Star Trek: insurrection, un film di Jonathan Frakes prodotto da Rick Berman. Scritto da Michael Piller su soggetto di Rick Berman e dello stesso Piller, Star Trek: insurrection è ispirato alla serie televisiva create da Gene Roddenberry. Alla realizzazione del film hanno contribuito Martin Horstein (produttore esecutivo), Peter Lauritson (coproduttore) e Patrick Stewart (produttore associato). La Paramount Pictures e una società del gruppo Viacom Inc. Star Trek: insurrection, che è uscito nei cinema italiani l’11 giugno, ha cercato di sfidare la tradizione che vuole le puntate “dispari” della serie meno riuscite, armandosi questa volta di spettacolari effetti speciali in computergrafica. La tradizione non è però stata smentita e negli Stati Uniti, dov’è uscito a metà dicembre, ha incassato in totale 70 milioni di dollari (126 miliardi di lire). In Star Trek: insurrection, il capitano Picard e il suo equipaggio dell’astronave Enterprise visitano il pianeta dei Ba’ku, dove la Federazione e i suoi alleati Son’a stanno conducendo un’indagine di natura culturale. Picard, tuttavia, scopre il progetto della vecchia razza Son’a, capeggiata da Ru’afo, di rapire i Ba’ku, una razza giovane e pacifica, e di esiliarli dal loro mondo perché il pianeta da loro abitato è immerso in una radiazione che inverte i processi d’invecchiamento. Il capitano Jean-Luc Picard (Patrick Stewart) è molto preoccupato. A quanto gli è stato riferito, il tenente comandante Data, in preda ad un attacco di follia, ha preso in ostaggio il team scientifico che effettuava un'ispezione sul popolo dei Ba'ku per conto della Federazione. Se non si trova un modo di riportarlo alla normalità, l'androide Data dovrà essere distrutto. Ma la vicenda presenta molti lati oscuri. Anche il gruppo d’ispettori della Federazione sembra animato da scopi reconditi che mal si accordano con i principi di giustizia planetaria. Il comandante Picard si trova catapultato improvvisamente nel bel mezzo di un dilemma morale. Dovrà scegliere tra la disobbedienza ad un ordine diretto dei suoi superiori e la fedeltà al primo articolo della costituzione intergalattica. Ne consegue la classica battaglia tra bene e male, che spesso si svolge a bordo delle varie astronavi che sono state realizzate con strumenti di computergrafica. “Per la prima volta nei film di Star Trek, abbiamo usato immagini generate al computer invece di modellini fisici in motion control per creare le astronavi che si muovono nello spazio”, racconta Herman Zimmerman, production designer della Paramount per il film. “Tre anni 189 fa, quando abbiamo realizzato First Contact, probabilmente non lo avremmo neanche preso in considerazione”. Ora, invece, sono disponibili strumenti commerciali per creare modelli digitali che reggono anche le riprese ravvicinate. “Nel corso degli anni, gli artisti di computergrafica si sono evoluti e sono diventati più abili nel creare e animare modelli digitali. Le macchine sono più veloci e il software è migliore. Quindi, oggi è possibile fare di più. Si può zoomare su una certa sezione di un’astronave in CG e vedere molti dettagli. Il suo aspetto non è più falso come sarebbe successo cinque anni fa”, afferma Jason Turner, scultore digitale senior e capo progetto alla Viewpoint Data Labs (Orem, Utah, USA), che è stata incaricata di contribuire alla costruzione dei modelli digitali dell’Enterprise e della relativa navetta. Oltre a quelle astronavi, Star Trek: insurrection include versioni in CG delle navette e droni dei Son’a, un laboratorio scientifico, un collettore spaziale e una nave olografica, che sono stati realizzati dalla Blue Sky/VIF (Los Angeles, USA) e dai Santa Barbara Studios (Santa Barbara, California, USA). Scene spaziali In particolare, la Viewpoint è stata incaricata dai Santa Barbara Studios, la società di produzione responsabile per più di 100 scene di effetti nello spazio, di realizzare modelli NURBS estremamente dettagliati dell’astronave Enterprise e della relativa navetta. Il lavoro è stato svolto principalmente con Maya della Alias/Wavefront. I modellisti hanno anche usato PowerAnimator e Advanced Visualizer della Alias/Wavefront, oltre a software della Softimage e della Nichimen Graphics (Tokyo, Giappone), tutti funzionanti su varie workstation della Silicon Graphics. Il risultato è la prima flotta di astronavi interamente in CG nella lunga storia di questa classica serie di fantascienza, che tradizionalmente ha usato una mistura di modelli in CG e modelli fisici. “Per la prima volta, la Paramount ha potuto mettere in pensione i suoi modellini, sostituendoli con una nuova flotta di veicoli spaziali in CG destinati anche a missioni future”, dichiara Bruce Jones, produttore esecutivo e vice presidente di produzione dei Santa Barbara Studios. Per l’Enterprise, la Viewpoint ha digitalizzato un modellino in scala da tre metri dell’astronave (realizzato dalla ILM per l’episodio precedente della serie) con il digitalizzatore 3D della FARO Technologies (Lake Mary, FL, USA) e poi ha usato degli schemi dettagliati di quell’astronave e della navetta per costruire i modelli in CG. Prima della modellazione, però, il team della Viewpoint ha dovuto riparare digitalmente irregolarità della superficie del modello fisico, che si era deteriorato con l’uso. 190 “Il trucco è stato quello di creare un modello NURBS 3D dell’Enterprise che potesse essere visualizzato tutto in una volta, ma che nello stesso tempo permettesse di zoomare direttamente sulla baia di attracco e vedere tutti i dettagli”, dice Walter Noot, vicepresidente della produzione alla Viewpoint. La decisione di costruire un modello NURBS invece di un modello poligonale è stata predeterminata dai Santa Barbara Studios, che stavano usando Maya. “All’inizio della lavorazione, Maya era ancora in versione beta, ma dato che usa la geometria NURBS, permette di avvicinarsi al modello a piacimento senza vedere sfaccettature, un grande vantaggio per la modellazione di queste astronavi”, spiega Noot. Secondo Turner della Viewpoint, i Santa Barbara Studios volevano la flessibilità di fare una carrellata continua dell’astronave a distanza, per poi avvicinarsi molto alla sua superficie. Un modello NURBS poteva offrire quella flessibilità. Può essere un modello a bassa risoluzione a distanza per risparmiare sui tempi di rendering, e quando l’immagine è ravvicinata, può avere tutti i dettagli senza dover cambiare il modello, come avreste dovuto fare in passato. Tutto quello che si deve fare è alzare o abbassare la risoluzione. Nel caso di un modello poligonale, si sarebbe dovuto per lo meno creare una versione in bassa e una in alta risoluzione. Noot aggiunge: “La difficoltà, d’altra parte, è stata quella di non appesantire troppo il modello, perché è facile creare modelli dall’aspetto bellissimo che però finiscono per uccidere la memoria. Abbiamo utilizzato trim e raccordi per non rendere troppo complesso il modello, pur mantenendone la precisione”. Per creare l’illusione di una scala immensa, si sono dovuti incorporare dettagli intricati nella geometria del modello dell’Enterprise, inclusi ponti, baie, cupole di osservazione, più di 1.200 finestre e componenti meccanici come motori, condotti di scarico, ventole e portelli. Di conseguenza, il team della Viewpoint ha prima digitalizzato un modello in scala, poi ha confrontato il modello con disegni tecnici molto dettagliati. “Quando gli artisti della Paramount hanno disegnato queste astronavi, hanno raggiunto un estremo dettaglio, come se progettassero vere astronavi”, racconta Noot. Tuttavia, i disegni non sempre corrispondevano al modello fisico della Paramount, quindi i modellisti della Viewpoint hanno dovuto improvvisare. “È stato molto difficile. Quando si ha a che fare con i fan di Star Trek, bisogna essere molto precisi. Alcuni di loro conoscono ogni centimetro dell’astronave”, aggiunge. “Eravamo terrorizzati dalla possibilità che i fan individuassero le piccole variazioni tra la nostra astronave e il modellino visto nel film precedente. Se c’era qualche difetto nel modello fisico, non dovevamo ripulirlo, al contrario dovevamo assicurarci che il modello in CG lo comprendesse”. 191 Texture inusuali Una delle principale difficoltà per la realizzazione delle astronavi è stata la resa delle superfici. Il team dei Santa Barbara Studios, infatti, voleva evitare quel look tradizionale da “plastica in CG”, come lo definisce il supervisore della CG Mark Wendell. “I riflessi speculari dovevano dare l’idea di una superficie metallica a pannelli, col tipo di bagliore visto nel film che utilizzano i modellini fisici”. Per raggiungere questo risultato, è stato necessario scrivere degli shader personalizzati per le superfici metalliche in RenderMan, un lavoro che ha richiesto parecchio tempo. Inoltre, in particolare per l’imponente astronave Enterprise, è stato utilizzato un approccio innovativo all’applicazione delle texture. È giusto dire che in Star Trek: insurrection è la prima volta che la flotta di astronavi è interamente in CG. Ma non è certo la prima volta che la computergrafica è stata utilizzata nella serie di film ispirata a questa fortunata saga fantascientifica. A parte qualche piccolo contributo nel film inaugurale della serie, il primo elemento veramente innovativo di computergrafica è comparso nel secondo episodio, L’ira di Khan. In quel film, il celeberrimo “Effetto Genesi” utilizzava geometria frattale e i primi sistemi di paint 3D per creare una trasvolata mozzafiato di un mondo che si trasformava da paesaggio inospitale e deserto in un pianeta pieno di vita. La sequenza all’epoca era costata moltissimo, e forse anche per questo è ricomparsa con varie scuse anche in un paio di episodi successivi. Nel quarto episodio della serie, Rotta verso la Terra, è stata utilizzata la digitalizzazione 3D, mentre nel film Rotta verso l’ignoto sono stati sfruttati morphing e particelle. Negli ultimi due film della serie, Generazioni e Primo Contatto, sono state anche realizzate astronavi digitali, usate però insieme a modellini fisici. Ma è solo con Star Trek: insurrection che è stato completamente abbandonato il consolidato modello in motion control. Naturalmente, nelle serie televisive di Star Trek le astronavi in computergrafica hanno già fatto la loro comparsa da tempo, da Next Generation in poi, ma in quei casi la risoluzione e il dettaglio sono proporzionali ai budget televisivi. Nonostante ciò, il fatto di aver lavorato in precedenza alle serie televisive, ha favorito l’affiatamento dei team che si sono occupati di Star Trek: insurrection, permettendo di ottenere risultati di qualità in tempi molto ristretti. La computergrafica in Star Trek “Abbiamo scelto un approccio molto complicato al texture mapping delle astronavi: quello di usare le luci di proiezione”, spiega John Glower, 192 presidente e supervisore degli effetti visuali ai Santa Barbara Studios. Intorno al modello dell’astronave è stata collocata una vera e propria nuvola di luci di proiezione, in modo che puntassero verso l’interno. Ogni luce proietta una singola texture. “In questo modo, avevamo texture proiettate che coprivano tutti i particolari del modello, non solo una vista laterale, ma anche una frontale e una dall’alto”. Questa tecnica non è una novità, ma non era mai stata utilizzata prima dai Santa Barbara Studios. “La tecnica di projection-mapping è poco intuitiva”, commenta Glower, “ma su forme curve così complesse, come quelle che caratterizzano tutte le astronavi, è difficile proiettare texture in modo ortogonale, a causa delle deformazioni causate dalla curvatura. La nostra tecnica di proiezione ci ha permesso di gestire queste curvature complesse senza dover suddividere la geometria: è stato sufficiente iniziare a proiettare. È stata utile anche per evitare deformazioni ai poli dei pianeti”. Ma non è stato tutto così semplice. “Il problema con questa tecnica”, spiega Glower, “deriva dalle aree in cui si sovrappongono varie proiezioni. Per fondere in modo invisibile le varie aree, è stato necessario sviluppare un buon bagaglio di trucchi. Ma è decisamente il solo modo per affrontare questo tipo di forme complesse. Abbiamo potuto usare per ogni immagine risoluzioni molto alte, dell’ordine dei 4K. Ognuna di queste proiezioni era essenzialmente un livello d’informazioni. È stato necessario creare una gerarchia di texture, per eliminare sovrapposizioni bizzarre, come la comparsa di un fianco dell’astronave dall’altra parte. Però, una volta allineate correttamente le proiezioni e delineate le gerarchie, il sistema di texturing ha funzionato molto bene”, sostiene James Straus, supervisore delle animazioni. La trama si infittisce Lavorando separatamente, la Blue Sky|VIFX, produttrice degli effetti visuali per le scene in interni e l’animazione dei personaggi, ha creato più di 200 scene in CG per Star Trek: insurrection, inclusi l’astronave olografica (una gigantesca astronave al cui interno era ricreato olograficamente un intero pianeta), gli shuttle e i droni dei Son’a, l’interno del collettore spaziale usato per raccogliere i raggi ringiovanenti del pianeta Ba’ku, vari paesaggi Ba’ku, personaggi animati (un simpatico animaletto domestico, un colibrì e un pesce) e vari tipi di armi. Gli animatori della Blue Sky|VIFX hanno prodotto una trentina di scene in CG per una sequenza chiave nella quale due shuttle Son’a lanciano ondate di droni per colpire i Ba’ku in modo da teletrasportarli via dal loro pianeta. In questa sequenza sono stati usati droni in CG, dal loro lancio fino al combattimento ravvicinato con l’equipaggio dell’Enterprise. 193 Anche in questo caso, è stato scelto Maya come strumento di modellazione e animazione su Octane della SGI. Il rendering è stato effettuato con RenderMan della Pixar. Inoltre, la Blue Sky|VIFX ha ingaggiato la Viewpoint per creare due modelli NURBS della testa dell’ammiraglio Dougherty per facilitare il morphing facciale della sua ingloriosa e dolorosa fine. Non sempre per realizzare una movimentata scena di azione fantascientifica è necessario usare raffinati effetti speciali. Qualche volta, un po’ di fantasia nell’uso della macchina da presa può fornire risultati migliori. Ecco come Matt Leonetti, direttore della fotografia, racconta la realizzazione di una scena di Star Trek: insurrection in cui si vede un’astronave in balia della violenza del fuoco nemico. “Dopo aver posizionato alcuni cuscini sotto la macchina da presa, l’abbiamo colpita a mani nude facendola vibrare durante la ripresa. In un primo tempo, infatti, la produzione, per rendere l’effetto dei colpi sull’astronave, aveva deciso di far ondeggiare l’intero set. Ma la cosa non funzionava, perché era poco realistica. Allora abbiamo fatto ricorso a questo semplice metodo, il cui risultato mi sembra eccellente perché muove l’inquadratura e sembra che il set sia scosso da una specie di terremoto. E anche grazie agli attori, che hanno interpretato in maniera magistrale la scena, abbiamo raggiunto il nostro scopo senza utilizzare alcun effetto speciale”, conclude Leonetti. Effetti Speciali Jim Rygiel, supervisore degli effetti visuali alla Blue Sky|VIFX, il team di modellazione della Viewpoint ha scansito il volto dell’ammiraglio (con e senza trucco) usando uno scanner laser 3D della Cyberware (Monterey, CA, USA) per creare la geometria iniziale per i modelli 3D. Poi ha usato software proprietario per trasformare i dati dei punti in modelli NURBS. Usando Elastic Reality della Avid Technology, RenderMan e Maya funzionanti su O2 della SGI, gli animatori hanno creato un morphing 3D. Per aiutare a nascondere le differenze tra la versione in CG e le riprese dal vivo, la Viewpoint ha creato superfici aggiuntive 3D per le orecchie, i denti, i capelli e gli occhi del personaggio. “È difficile far deformare un volto davanti alla macchina da presa. Non si può fare con il semplice trucco”, fa notare Turner. La computergrafica ha giocato un ruolo chiave anche nel drammatico confronto finale tra Picard e Ru’afo a bordo del collettore spaziale Son’a, il cui aspetto è stato amplificato dagli animatori della Blue Sky|VIFX. Il production designer Zimmerman precisa che il duello avviene su una gigantesca cavità formata da travi metalliche che si apre sullo spazio. “La combinazione di un set reale alto quattro piani e un modello della 194 struttura generato al computer, ha creato uno degli interni più spettacolari mai visti in Star Trek”, afferma Zimmerman. Anche in questo caso è stato utilizzato Maya per l’animazione e la modellazione, insieme a Houdini della Side Effects Software, mentre il team ha scelto RenderMan per il rendering e Chalice della Silicon Grail, e Inferno della Discreet per il compositing. “L’ultima scena è risultata particolarmente complessa. Abbiamo dovuto costruire una miniatura per gli effetti pirotecnici e fonderla con gli interni in CG dell’astronave, poi posizionare Picard e Ru’afo (che erano stati filmati davanti a un greenscreen) nella scena. Mettere insieme tutti questi elementi non è stato facile”, conclude Rygiel. Ma il risultato finale è veramente “esplosivo”. Star Trek: live action Le riprese di Star Trek: insurrection hanno avuto inizio a Los Angeles il 31 marzo 1998. La lavorazione del film è terminata il 2 luglio del 1998, sempre a Los Angeles. Tra gli esterni utilizzati dalla produzione il lago Sherwood, in prossimità di Thousand Oaks e le montagne che circondano il lago Sabrina nella Sierra Nevada. Parlando della genesi di Star Trek: insurrection, il produttore Rick Berman racconta: “Lo sceneggiatore Michael Piller e io collaboriamo da più di dieci anni. Abbiamo iniziato a lavorare alla storia di Star Trek: insurrection circa un anno fa ispirandoci al romanzo Cuore di tenebra. L'idea di partenza era che Picard si recasse in un pianeta ostile per salvare qualcuno. Quel qualcuno in un secondo tempo e diventato Data e poi la storia ha preso una direzione totalmente diversa”. Il salvataggio di Data da un luogo desolato e terrificante si è trasformato in una nuova avventura di Star Trek in cui l'equipaggio dell'Enterprise deve scongiurare il pericolo che minaccia di annientare un pianeta simile al paradiso terrestre. “Il racconto ha subito molte modifiche”, ricorda Berman, “ma questo accade ogni volta che io e Piller lavoriamo insieme. Partiamo sempre con l'intenzione di scrivere una storia migliore della precedente. Questa di Star Trek: insurrection è senz'altro più ambiziosa delle altre, per ciò che concerne la tematica, il numero dei personaggi e le ambientazioni”. Secondo il parere del regista Jonathan Frakes, che nel film interpreta anche il ruolo del comandante Riker, “per le riprese di Star Trek: insurrection è stato necessario utilizzare molti più esterni rispetto ai precedenti film della serie, al punto che più della metà delle sequenze è stato girato al di fuori dei teatri di posa”. 195 Le rive del lago Sherwood hanno ospitato il set del rustico villaggio dei Ba'ku dotato di abitazioni e negozi e di un edificio per le assemblee. La produzione ha inoltre provveduto alla costruzione di un ponte e persino alla creazione dei campi coltivati dai pacifici Ba'ku. Nel corso della vicenda, i Ba'ku sono costretti a lasciare il loro villaggio in seguito a un attacco. Gli uomini, le donne e i bambini si rifugiano nell'oscurità cercando di mettere in salvo le greggi di lama che costituiscono una delle loro principali fonti di sostentamento. Per le scene ambientate nell'accampamento di montagna dove i Ba'ku si rifugiano dopo l'attacco, la produzione si è trasferita nella Sierra Nevada, in una località molto isolata che sovrasta il lago Sabrina. Il set, collocato a tremila metri sul livello del mare, era talmente inaccessibile da rendere necessario l'uso degli elicotteri per il trasporto del cast, della troupe e dei materiali. “Una cosa del genere non mi era mai accaduta prima. Un'esperienza fantastica”, racconta il regista Frakes. “Il set sulla Sierra Nevada lasciava senza fiato per più di una ragione. A disposizione dei partecipanti al film si trovava infatti uno staff di medici pronti con l'ossigeno nel caso di malori dovuti all'altitudine. Per realizzare Star Trek: insurrection, abbiamo dovuto superare un considerevole numero di difficoltà”, ricorda lo scenografo Herman Zimmerman. “Mentre in Primo contatto abbiamo allestito 37 set, per questo film è stato necessario crearne ben 55. Quella di Star Trek: insurrection è stata certamente la scenografia più impegnativa di tutta la serie cinematografica, anche per la difficoltà di inventare nuove ambientazioni vista la lunga tradizione che avevamo alle spalle. Per fortuna lavorare con Frakes è stato un vero e proprio piacere e Berman è un produttore eccezionale. La stretta collaborazione che abbiamo stabilito con Peter Lauritson, produttore degli effetti speciali, ci ha aiutato enormemente”. Zimmerman ha lavorato a stretto contatto con Berman e Frakes per l'allestimento del villaggio dove i Ba'ku vivono pacificamente dopo aver rinunciato alla tecnologia e ai viaggi spaziali. “I Ba'ku sono persone affabili dotate di una forte inclinazione per la spiritualità”, commenta Zimmerman. “Per loro libera scelta, sono passati da un livello tecnologico del tutto simile a quello del resto della Federazione a uno stile di vita semplice e pastorale, testimoniato anche dalle abitazioni in cui vivono. Nella creazione del loro villaggio ci siamo ispirati all'architettura tailandese, giapponese, cinese e polinesiana, tutte improntate alla massima essenzialità e armonia con l'ambiente circostante”. A Zimmerman è stato inoltre affidato il compito di creare il mondo dei Son'a. 196 Zimmerman ha disegnato la nave spaziale nonché una sorta di centro estetico che riflette l'ossessione di questo popolo per l'eterna giovinezza. Il confronto finale tra il capitano Picard e Ru'afo ha luogo sulla nave laboratorio spaziale dei Son'a, attrezzata per estrarre le particelle metafisiche dell'eterna giovinezza situate sugli anelli che circondano il pianeta dei Ba'ku. La lotta tra Picard e Ru'afo si svolge principalmente su grandi travi di metallo sospese nel vuoto. Questa sequenza ha costituito “una vera e propria sfida per tutti noi”, dichiara Zimmerman. “L'ambientazione è stata infatti creata in scala reale in un teatro di posa. Questa enorme struttura metallica è stata poi combinata a un modello generato al computer, e in questo modo la produzione è riuscita a dar vita a una delle scene più spettacolari mai viste nella storia di Star Trek”. L'utilizzazione della grafica computerizzata per le sequenze di volo, non ha escluso l'uso dei tradizionali modellini. In una scena chiave del film i Son'a attaccano il villaggio dei Ba'ku con sofisticati congegni telecomandati per costringerli ad abbandonare il loro mondo. Durante questa sequenza si vedono i membri dell'equipaggio dell'Enterprise che distruggono personalmente alcuni di questi pericolosi marchingegni. Per questa scena, la produzione ha deciso di utilizzare dei modellini piuttosto che la grafica digitale. La costruzione di questi congegni ha richiesto all'incirca sei settimane. La sequenza del film in cui compaiono le astronavi Son'a impegnate nell'attacco al villaggio Ba'ku, è invece stata girata grazie alla grafica computerizzata. Per filmare questa scena, il team degli effetti speciali ha scansionato i modellini per inserirli nell'immagine digitale. Star Trek: insurrection rappresenta un'altra pietra miliare della saga più popolare dei nostri tempi. All'inizio del 1998, è stato inaugurato all'Hilton di Los Angeles Star Trek: The Experience, un parco di divertimenti multimediale interamente dedicato alle avventure dell'Enterprise. Accolto freddamente negli USA e criticato aspramente dai fan di lunga data, Insurrection rappresenta un deciso cambiamento di marcia rispetto ai precedenti film della saga. Il risultato finale fa forse pensare ad un episodio televisivo dilatato a dismisura, anche grazie alla regia di Jonathan Frakes, ottimo nell'orchestrare le poche ma efficaci scene con effetti speciali quanto furbo nel smorzare i toni epici (di per sé autoconclusivi) in favore di una serializzazione che rimanda continuamente "al prossimo episodio". 197 Regia: Jonathan Frakes Sceneggiatura: Michael Piller Fotografia: Matthew F. Leonetti Scenografia: Herman Zimmerman Costumi: Sanja Milkovic Musica: Jerry Goldsmith Montaggio: Peter E. Berger Trucco: Michael Westmore Prodotto da: Rick Berman (USA, 1999) Durata: 103' Distribuzione cinematografica: UIP PERSONAGGI E INTERPRETI Jean Luc Picard: Patrick Stewart Data: Brent Spiner Riker: Jonathan Frakes Geordi: Levar Burton Worf: Michael Dorn Beverly: Gates McFadden Deanna Troi: Marina Sirtis Ru'afo: F. Murray Abraham Anij: Donna Murphy Dougherty: Anthony Zerbe Gallatin: Gregg Henry Sojef: Daniel Hugh Kelly Artim: Michael Welch 198 STAR WARS: EPISODE I THE PHANTOM MENACE George Lucas,1999 A una prima visione lo spettatore potrebbe evidenziare negli effetti speciali il pregio più importante del film, ma sebbene quello che si veda in Star Wars Episode I non può paragonarsi a niente di mai visto prima, i cinefili apprezzeranno soprattutto l'immenso talento con il quale il regista miscela tutti gli elementi convenzionali del genere fantasy per presentare una storia appassionante. Tensione, umorismo, lotte, stupore, tutto è dosato nelle quantità giusta per accontentare tutti. I più piccoli troveranno una fonte di divertimento nei personaggi di Anakin Skywalker (Jack Lloyd) e Jar Jar (Ahmed Est), oltre che nello Yoda (Frank Oz) e i due droidi R2 D2 e C3 PO. L'immaginazione di Lucas ci fa visitare città fantastiche, inabissate sotto il mare o per aria, anfiteatri di sabbia e interni d'altri tempi ripresi nella Reggia di Caserta. Tra le scene più appassionanti ricordiamo un viaggio sottomarino in cui i protagonisti debbono affrontare dei mostri, una corsa di bighe che rimanda a quella, indimenticabile, tra Charlton Heston e Stephen Boyd in Ben Hur e il vibrante finale, quando il montaggio parallelo ci mostra il confronto tra due eserciti, Skywalker nell'occhio di un ciclone e un duello con spade laser in uno spazio fantastico. John Williams costruisce una partitura musicale strepitosa e il cast è inappuntabile, Liam Neeson è perfetto nel ruolo del Cavaliere Jedi Qui Gon Jinn, il giovane Obi Wan Kenobi è ben rappresentato dall'emergente Ewan McGregor e, come protagonista giovane, risulta più convincente di Mark Hamill. Anakin Skywalker viaggia su un'astronave simile alla slitta del piccolo Kane-Welles, e questo è solo uno dei richiami al cinema del passato che Lucas ci offre in questo film. Il tema dell'infanzia perduta è infatti lo stesso di Citizen Kane. Questo dovrebbe dimostrare come il film di Lucas non debba essere considerato soltanto un'opera destinata all'intrattenimento dei più piccoli. Star Wars Episode I è infatti l'opera di un visionario che ha regalato al cinema quello che Alex Raymond ha offerto al mondo dei fumetti tanti anni fa. Nella storia del cinema popolare in rarissimi casi s'incontrano film che uniscono smisurate ambizioni artistiche (alla Welles) e innovazioni del linguaggio ad un saldissimo rapporto col pubblico. La saga di Guerre Stellari è stato soprattutto questo. Alla vigilia dell'ultima rivoluzione cinematografica del '900, Star Wars: Episode I The Phantom Menace, lo spettatore prenda congedo dal cinema propriamente detto, e si disponga alla visione dell'ultimo film della storia del cinema. Dal punto di vista narrativo Episode I porta alle estreme conseguenze la fusione dei generi cinematografici: eroi senza tempo agiscono in un intreccio iperstrutturato, abbattendo in un sol colpo gli insopportabili 199 retaggi del linguaggio cinematografico (realismo, verosimiglianza, coerenza narrativa). Dal punto di vista produttivo, Lucas rivoluziona l'idea stessa della realizzazione di un film: la presenza di attori in carne ed ossa è totalmente asservita ad un disegno ben più ampio che un banale prelievo di realtà, e coinvolge energie impensabili. Basti pensare che le riprese con gli attori di questo supercast (Liam Neeson, Ewan McGregor, Natalie Portman) non sono durate che due mesi, mentre l'iter produttivo del film si è protratto per alcuni anni. La squadra che ha lavorato a Star Wars: Episode I, composta da circa 250 persone, disintegra l'odioso, obsoleto concetto di Autore Unico, e ci ricorda che forse è il momento di relazionarci al cinema senza il buffo armamentario romantico della critica europea. L'offerta simultanea di personaggi e trame, la creazione di mondi non solo evocati ma pazientemente costruiti, il ritmo incalzante di azione e riflessione sono alcuni degli elementi di spicco di Episode I. L'impressione è che il cinema, avvalendosi dei mezzi di produzione di questo tempo, utilizzi a pieno regime quella capacità immaginifica che dovrebbe essere inscritta nel suo statuto. Star Wars: Episode I The Phantom Menace è stato preparato per anni con la costruzione della Lucas Digital delle tecnologie informatiche necessarie a rendere possibile la creazione di qualsiasi tipo di immagine, garantendo un alto livello di controllo su problemi quali verosimiglianza, rendering e risoluzione. Per anni l’Industrial Light & Magic si è impegnata in un costante lavoro di ricerca e avanzamento tecnologico nel campo della computergrafica. Collaborando alla creazione degli effetti speciali di film come Terminator 2, Salvate il soldato Ryan, The Mask, Mars Attacks, Jumangii, e moltissimi altri, ha accumulato l’esperienza e il background necessario per realizzare un film come Star Wars. Nel Novembre del 1996, poco dopo la stesura della sceneggiatura di Star Wars, Christian Rouet, responsabile tecnico alla ILM, organizza una serie di interventi necessari al fine di rendere più efficiente l’enorme flusso di dati e di lavoro che per tre anni avrebbe impegnato gli artisti e i tecnici della Lucas Digital. Nel reparto di ricerca e sviluppo, quindici progettisti software sotto la direzione di Rouet, hanno iniziato a rinnovare gli strumenti esistenti nello studio e a crearne di nuovi, in modo da facilitare e velocizzare il lavoro di modellisti, disegnatori, animatori e direttori tecnici. Processi che erano scomodi sono diventati interattivi, animazioni che sarebbero state noiose da realizzare, sono diventate automatiche, e strumenti familiari sono stati rinnovati. Il reparto di computergrafica della ILM è basato su hardware SGI e software commerciali come RenderMan della Pixar, Softimage 3D della Avid, Power Animator e Maya della Alias Wavefront, tutti integrati con i software proprietari della ILM. 200 Le nuove tecnologie create appositamente per il film Star Wars, includono un simulatore di dinamica, un gestore di coreografie, un programma di match-move 3D e un generatore di terreno adattivo. Molti personaggi sono stati animati con software 3D commerciali e poi rifiniti con il software Isculpt della ILM. Con Isculpt un modellista usa tipicamente un brush 3D di dimensioni variabili. Posizionando il puntatore vicino alla geometria che s’intende modificare, il modellista può spingere, tirare, torcere e creare pieghe senza necessariamente intervenire sui CV (vertici di controllo).Questo permette una maggiore rapidità di esecuzione e un controllo sul modello che si avvicina alle tecniche di scultura tradizionale. Il fatto di non dover intervenire sui singoli vertici, caratteristici in una patch o in una mesh, facilita in qualche modo la modellazione all’animatore di definire con maggior libertà i tratti caratteristici e anamorfici del modello. Cary Philips è stato il principale responsabile della creazione del sistema nato come Caricature, utilizzato per la prima volta per creare l’animazione facciale e la sincronizzazione labiale del drago di Dragonheart. Per Star Wars era necessario rinnovare l’interfaccia sapendo che i personaggi in CG avrebbero dovuto palare tra di loro. Con Caricature è possibile impostare la forma di un volto, muovere i muscoli, creare oscillazioni della pelle e vedere immediatamente i risultati. Ha un feed-back istantaneo. Una volta creata la forma di base di un personaggio, si passa alla creazione dello skin e dell’envelope. Lo skin è un insieme di superfici spline (patch a quattro lati), che vengono incollate insieme; questo processo viene anche chiamato socking. Il team di ricerca e sviluppo ha ottimizzato il software di socking della ILM, che risaliva ai tempi di Terminator 2, e lo ha aggiornato per gestire personaggi 3D complessi che spesso avevano piccole aree, come gli angoli della bocca, dov’era necessario incollare insieme diversi patch. Se le patch non sono connesse strettamente, possono comparire delle aperture nel rendering finale. Per mettere in relazione lo skin con le articolazioni dello scheletro in modo che quando lo scheletro si muove, si tira dietro lo skin dando l’impressione che sotto ci siano dei muscoli. Wishwa Ranjan ha riscritto il sistema originale sviluppato inizialmente per Jurassic Park. Il nuovo sistema crea una relazione spaziale tra skin e articolazione che era indipendente dalle superfici soggette all’envelope. La scena della fuga degli animali sul pianeta Naboo, nella parte iniziale del film è stata creata utilizzando un nuovo software creato appositamente per animare le 61 creature che corrono spaventate. Per muovere i personaggi gli animatori hanno prima creato una libreria di cicli di movimento, poi hanno importato in Fred la geometria per la 201 scena 3D (un semplice terreno e qualche oggetto), insieme ai personaggi e ai cicli di camminata. Fred ha separato la geometria e l’animazione di ciascun personaggio e ha ridotto la risoluzione della geometria per ottenere una varietà di rappresentazioni 3D, per guadagnare il più possibile in memoria, in moda da velocizzare il lavoro. Quando sono disponibili tutti gli elementi, gli animatori disegnano percorsi sul terreno, assegnano personaggi ai percorsi e applicano cicli di movimento ai personaggi. Per coreografare i percorsi di più personaggi, Fred offre sia un Edit Decision List 2d, che mostra ogni clip su una timeline, sia strumenti 3D interattivi, che consentono agli animatori di spostare gli elementi nel tempo e nello spazio. Per animare un numero maggiore di personaggi, si è adottato il sistema di particelle in Maya. Per creare i vari tipi di materiale e oggetti, dai vestiti alle antenne dei mostri marini, il team si è servito di un software per la simulazione ideato appositamente da John Annerson. Il simulatore usa un modello ispirato alla fisica, con una rappresentazione delle proprietà dell’oggetto o del materiale da animare, considerate più importanti. Il sistema funziona con una, due, tre dimensioni. Una delle sequenze più coinvolgenti di Episode I è la gara di sgusci interamente realizzata in CG. Per riuscire a lavorare interattivamente con una geometria (il terreno),che sfreccia a 950 km all’ora, il team di ricerca e sviluppo ha creato un generatore di terreno adattivo in tre fasi. Nella prima fase viene creata una specifica, usando dati che determinano quanto dettaglio è necessario in una particolare regione e quanto deve essere alta la risoluzione. A quel punto viene generato il terreno usando le informazioni di una pre-passata, come spiega Alan Trombley. Nella fase di pre-passata, la (fase due), viene creata la geometria del terreno a tutte le risoluzioni possibili, e ogni forma risultante o tessera, viene confrontata con quella a risoluzione più elevata. In memoria vengono memorizzate le informazioni sui dettagli di ogni tessera, sulla risoluzione e sulle differenza di una certa tessera e quella a risoluzione più alta. “L’elemento fondamentale e che questi dati sono di piccole dimensioni quindi possono tenere molti fotogrammi in memoria”, spiega Trombley. Nella fase tre il software determina se una certa tessera è visibile; se è così decide quale versione di quella tessera creare, in base alla sua distanza dalla macchina da presa. È un concetto simile al paging dinamico usato nei simulatori di volo, osserva Rouet, con una differenza: “ È molto più preciso. Molti simulatori di volo non si preoccupano che si vede un flickering del terreno mentre si avvicina. Per noi invece sarebbe un disastro.” 202 Quindi una volta che il sistema ha deciso quale risoluzione è accettabile crea la tessera corrispondente e anche quella con dettaglio e risoluzione immediatamente superiore, poi interpola la geometria in modo che la tessera effettivamente visualizzata sia una fusione delle due. Per la gara degli sgusci Irender ha generato una simulazione interattiva del terreno con ombre. Irender è stato incorporato in Viewpaint, e offre un ambiente d’illuminazione interattivo. Ora è possibile vedere una rapida approssimazione di mappe di opacità, bump e displacement senza dover aspettare il rendering della scena. In Star Wars sono stati usati altri due sistemi proprietari, un sistema di traking 3D che ha aiutato gli animatori a posizionare i personaggi nelle scene dal vivo, e Comptime, un nuovo sistema di compositing; anche se alcune scene sono state composte con Sabre, le estensioni della ILM al software Flame e Inferno della Discreet Logic. Il novantacinque per cento di questo film è digitale. Gli attori in carne e ossa interagiscono con personaggi digitali, pupazzi e persone che indossano teste di gomma, e tutti si muovono in paesaggi e città su tre diversi pianeti, Tatooine, Coruscant e Naboo, che sono stati realizzati mettendo insieme pezzi di sequenze dal vivo, set in miniatura, modelli digitali e matte painting. Le macchine sono talvolta modelli fisici, altre volte modelli digitali, altre volte ancora dipinti di sfondo. Acqua, polvere, fuoco e fumo possono essere elementi reali in un ambiente digitale, o elementi digitali in un set in miniatura. In questo episodio della leggendaria Trilogia di Guerre Stellari, facciamo conoscenza con Anakin Skywalker, interpretato dall’attore Jake Lioyd, il giovane figlio di uno schiavo, dotato di immensi poteri e che diventerà il temuto Darth Fener degli episodi successivi. Anakin vive su Tatooine, un pianeta desertico popolato da giocatori d’azzardo e fuorilegge, dove ricchi malviventi schiavisti fanno soldi commerciando sul mercato nero. Tutto questo è illegale nella Repubblica Galattica, ma i criminali incontrano una scarsa opposizione in questo territorio periferico colonizzato di recente. Il centro della Repubblica Galattica è Coruscant, un pianeta coperto quasi interamente da grattacieli e spazioporti. È la sede del governo galattico, il centro di potere. La capitale di Coruscant, Imperial City, ospita il tempio Jedi, dove il Consiglio sorveglia le fluttuazioni della forza, testa le reclute e controlla i cavalieri Jedi inviati nelle parti più remote della galassia. All’inizio del film, due di questi guardiani della pace della giustizia, Obi-Wan Kenobi (Ewan McGregor), un giovane e determinato Cavaliere Jedi, e Qui-Gon Jinn (Liam Neeson), il suo venerabile maestro Jedi, sono arrivati in uno spazioporto nell’orbita di Naboo per negoziare un accordo con la Federazione dei Mercanti, che sta minacciando d’isolare e invadere il pianeta. 203 Nulla può ormai impedire l’invasione e la Regina, i due cavalieri e l’intera corte sono costretti a rifugiarsi sul pianeta desertico di Tatooine. Qui incontrano Anakin Skywalker e grazie al suo aiuto riescono a sfuggire alle forze del male, pilotate dal pericoloso Darth Sidious e dal suo adepto, il terribile Darth Maul. Anakin, il piccolo schiavo, conquista la libertà in seguito ad una vittoria conseguita in una gara di velocità, affettuoso omaggio alla celeberrima corsa sulle bighe di Ben Hur. Il piccolo Jedi abbandona Tatooine e insieme ai suoi amici, il maestro Qui-Gon Jinn, Obi-Wan l’allievo e la regina Amidale, si reca al tempio Jedi. Qui-Gon Jinn vorrebbe addestrare alla Forza Ankin ma il saggio Yoda è contrario: percepisce nel piccolo un aspetto oscuro pericoloso, destinato ad avere conseguenze nefaste su tutto l’Impero… 204 Ambientazione e personaggi digitali Naboo, il pianeta giardino, è costituito da rocce di migliaia di chilometri di diametro, circondate da caverne. Laghi paludosi, mari aperti e masse terrestri ricche di vegetazione ricoprono la superficie. Naboo è caratterizzato da due culture distinte molto avanzate. La maggior parte degli abitanti di Naboo vive nella bella capitale, Theed, e sono governati direttamente dalla regina Amidale, interpretata dall’attrice Natalie Portman (negli episodi successivi sposerà Anakin e darà alla luce due bambini Luke e Leia Skywalker). I Gungan, una razza anfibia che vive in città sottomarine composte da enormi bolle collegate da una rete di passaggi, sono governati da Boss Nass. L’intera razza dei Gungan è stata creata dalla ILM con strumenti di computergrafica e lo stesso vale per molti animali del pianeta. Quando i negoziati di Qui-Gon e Obi-Wan nello spazioporto falliscono, atterrano su Naboo per avvertire la regina Amidale. Il loro atterraggio scatena la fuga di animali in CG. Nella sequenza più lunga della fuga, 61 di questi strani animali, (di sei specie diverse), emergono da una palude correndo all’impazzata. Ogni creatura ha la pelle che sobbalza mentre l’animale corre o poggia le zampe sul terreno, e ognuno ha le sue espressioni facciali. La fuga è costituita solo da un paio di scene ma è importante perché avviene quando s’incontrano per la prima volta Qui-Gon e Jar Jar. Più che un incontro si tratta letteralmente di uno scontro. Jar Jar Binks, come tutti i Gurgan, è un personaggio con arti flessibili generato al computer, che assomigli un po’ ad una lucertola con il becco d’anatra, gli occhi in cima alla testa e orecchie che penzolano fino alla vita. Da quel momento in poi Jar Jar viaggia insieme a Gui-Gon e Obi-Wan, diventando un compagno volenteroso ma anche maldestro che rappresenta l’elemento comico del film i cui errori si riveleranno spesso utili ai protagonisti. Oltre a Jar Jar ci sono altri tre personaggi principali in CG, Sebulba, un pilota di podracer su Tatooine, Watto, rigattiere di Tatooine, e Boss Nass, il re dei Gungan su Naboo. Il processo di modellazione è iniziato nel 1996 con il personaggio di Jar Jar Binks, Geoff Campbell, supervisore di modelli digitali ha continuato a lavorare sul modello che è diventato la base per l’intera specie Gungan. Applin, si è dedicato a Watto il rigattiere con un naso di elefante e ali da colibrì, e Paul Giacoppo si è occupato di Sebulba, il perfido pilota di sgusci. Come aiuto per l’animazione di Jar Jar, il team ha potuto fare riferimento alle riprese video sul set di Ahmed Best, che ha dato voce al personaggio. 205 ”Abbiamo potuto abbozzare l’animazione con Amhed nella scena e poi abbiamo lavorato su una scena pulita”. Per animare le lunghe orecchie flessibili di Jar Jar, il gruppo di ricerca e sviluppo ha realizzato un algoritmo di animazione automatica, evitando quindi agli animatori la fatica di farlo a mano. In modo simile per gli strati più interni del costume di Jar Jar, il supervisore della CG Doug Smythe ha scritto un programma che genera automaticamente displacement map per creare pieghe mentre Jar Jar si muove. Un programma di simulazione creato dal reparto di ricerca e sviluppo fa muovere gli strati più esterni dei vestiti. Tutti i personaggi del film indossano vestiti: Watto e Sebulba hanno vestiti di pelle, Boss Nass e Yoda indossano una toga, e i Gungan hanno vari costumi a seconda che siano soldati, cavalieri, civili o personaggi principali. La simulazione è stata usata anche per il costume del re dei Gungan, Boss Nass che è costituito da una lunga veste flessibile. Per creare la recitazione del simpatico re, il team si è ispirato alla gestualità dell’attore Brian Blessed. “Il modo in cui agita le dita è preso da Blessed”, dice l’animatore Hal Hickel. “Ci sono alcuni movimenti della mascella che vengono direttamente da Brian. Si riesce ad essere più fedeli al personaggio se si può usare la faccia che produce il suono.” Anche se Boss Nass ha un aspetto molto diverso da Jar Jar, è comunque un Gungan quindi il suo modello è derivato da quello di Jar Jar. Complessivamente Cambell ha supervisionato il lavoro di una quindicina di animatori che hanno creato più di duecento modelli tra guardie, civili, mercenari e inoltre tutte le librerie di espressioni facciali e le librerie di forme con il software proprietario Caricature e I Sculpt. Uno dei personaggi più strani e Watto, un rigattiere di Tatooine che possiede come schiava la madre di Anakin, Shmi (l’attrice Pernilla August). Incontriamo Watto e Anakin dopo l’atterraggio di fortuna di Qui-Gon, Obi-Wan e Jar Jar su Naboo con un astronave danneggiata. La ricerca di pezzi di ricambio su Tatooine li portano a Watto. Con ali simili a quelle di colibrì, uno stomaco gigantesco e una corta proboscide sul muso, Watto ha presentato due grandi difficoltà per gli animatori: farlo volare e farlo parlare. “Sembrano due cose che non vanno d’accordo nel mondo reale”, commenta Tim Harrington, un animatore che ha lavorato sia su Watto sia su Boss Nass. Le ali di Watto infatti sono ridicolmente piccole per le dimensioni del suo corpo. La bocca invece era composta da parti rigide che mal si adattavano alle espressioni facciali necessarie per il parlato. Per aggirare il problema della sincronizzazione labiale, gli artisti della ILM hanno deciso di fargli usare la parte sinistra della bocca. 206 Gli animatori hanno usato le spalle per motivare i suoi movimenti, inclinando di conseguenza le ali. Quando Watto si solleva da terra i suoi piedi penzolano sotto il suo corpo. Le ali sono state animate usando cicli. Il quarto protagonista digitale, Sebulba ha quasi le dimensioni di Draco, (il gigantesco drago del film Dragonheart), è stata creata la sua struttura di base con Power Animation e poi i volumi sono stati modificati con I Sculpt, per allungare le braccia e ingrandire la testa, infine manipolando i CV in Softimage 3D, si è potuto raffinare il modello. Sebulba è un esperto pilota di podracer su Tatooine. I podracer sono macchine da corsa complesse, costituite da due motori a reazione e da una cabina di pilotaggio connessa mediante cavi, che sfrecciano a 950 chilometri all’ora tenendosi a un metro d’altezza dal terreno. Quando sono fermi sono modelli fisici, in gara sono in CG. Sebulba ha la caratteristica di camminare sugli avambracci e usa le zampe come mani, ma quando è nel veicolo da corsa, il fatto di avere un paio di mani in più lo aiuto a far brutti scherzi ai suoi concorrenti. Per animare la sua faccia durante la gara, creando l’illusione di una forte velocità, il team di animazione di Sebulba ha usato Caricature per muovere baffi e occhiali come se fossero spinti dal vento. I veicoli per la corsa degli sgusci sono stati modellati con Studio della Alias Wavefront. La realizzazione di modelli a superficie rigida (astronavi, droidi, podracer) è risultata particolarmente difficile essendo l’ILM specializzata nella modellazione di creature. Per questo film hanno inventato nuove tecniche di costruzione che consentono ai modellisti di mischiare e accoppiare forme, poligoni e spline. La gara ha luogo in un gigantesco stadio, che è in effetti un set in miniatura riempito dai direttori tecnici con persone digitali. Alcune di queste persone sono state riprese in video digitale, poi clonate e trasformate in 150 mila sprite per occupare gli spalti; invece, le 4-5 mila persone digitali che si aggirano di fronte agli spalti sono state modellate e poi animate in modo procedurale usando un plug-in proprietario scritto da Hiromi Ono, che funziona all’interno di Maya della Alias/Wavefront. “Queste persone digitali hanno libertà di arbitrio”, dice Habib Zargarpour, supervisore della CG. “Si evitano l’uno con l’altro, si muovono in direzioni diverse; possono anche decidere di correre al bagno”. Per creare l’ambiente della gara, i direttori tecnici hanno usato matte painting digitale, modelli in CG e numerose texture map. Per gestire le spettacolari esplosioni dei podracer, causate dall’imperizia dei piloti o dalle scorrettezze di Sebulba, la ILM ha scelto di ricorrere a un simulatore di fisica. Dopo aver definito i percorsi dei podracer, i dati sono stati passati al simulatore realizzato da Zargarpour e Chris Mitchell. “Lucas voleva che i crash assomigliassero a quelli 207 delle macchine da corsa, quindi abbiamo fatto riferimento a filmati di corse di Formula 1 e NASCAR”, riporta Zargarpour. Gli effetti di disintegrazione del podracer sono stati ottenuti disegnando le linee di rottura del metallo direttamente sulla superficie dei modelli 3D esistenti, usando Maya. Il plug-in Break-off, scritto sempre da Zargarpour insieme a Hiromi Ono, ha permesso la simulazione del movimento di pezzi di geometria alla stessa velocità di un simulatore di particelle. Il Motion Capture Per animare più facilmente i personaggi digitali nello spazio 3D si ricorre sovente alla tecnica del motion capture. Nello studio di Motion capture, l’ILM ha installato un sistema Vicon8 e 20 telecamere. Allo scopo di catturare e registrare i movimenti degli attori, o marionette mosse da fili, si applicano dei marker ottici nei punti delle giunture e in tutti gli altri punti che contribuiscono a descrivere un particolare movimento. I movimenti vengono catturati dal software Vicon e trasferiti nel software di editing dei movimenti Mojo, proprietario della ILM, dove vengono convertiti in una forma gestibile agli animatori. Nella scena di combattimento mentre i caccia stellari Naboo e la nave da guerra della Federazione combattono in orbita intorno al pianeta, a terra si svolge una gigantesca battaglia tra migliaia di soldati Gungan e droidi da combattimento. Per animare i soldati Gungan, Jeff Light, supervisore del motion controll si è applicato i marker ottici ed è diventato un soldato Gungan. Jones Tooley, supervisore dell’animazione, è diventato un droide da combattimento. I movimenti catturati sono stati ripuliti, memorizzati in forma di cicli e usati per animare migliaia di personaggi. Per il rendering l’ILM ha dedicato a questo film da otto a dieci Origin 2000 a 32 processori, ognuno con 8 o 12 GB di memoria, dieci macchine Power Challenge Rio K a sedici processori e quattro Challenge a 265 Mhz; tutte le macchine sono della SGI. “E poi durante la notte si aggiungevano di fatto altre 200 macchine. I giornalieri venivano visionati da Lucas su un proiettore DLP Digital Projection con il nastro Digital Betacam. Complessivamente sono stati ripresi circa 400 chilometri di pellicola, per un totale di 240 ore di materiale. L’utilizzo di obbiettivi anamorfici ha costretto gli artisti della ILM ad applicare un algoritmo di deformazione a tutti gli elementi in CG. Questo algoritmo non ha dovuto tener conto solo delle deformazioni geometriche dovute al particolare formato di ripresa, ma anche delle aberrazioni cromatiche legate al tipo di obbiettivi, evidenti in modo particolare ai bordi del fotogramma. 208 Star Wars infatti è stato fotografato in un formato widescreen anamorfico a 35mm. Le lenti anamorfiche sulla machina da presa “schiacciano” l’immagine widescreen su una normale pellicola, e poi gli obbiettivi del proiettore della sala cinematografica riportano le immagini di rapporto originale. Nel processo di telecine l’immagine è stata parzialmente “allargata” e trasferita in formato wide anamorfico 16:9 il cui rapporto è leggermente minore del 2:1 della pellicola. Quando il materiale veniva riprodotto nelle sale di montaggio sul monitor 16:9, il monitor completava il processo di allargamento in modo da visualizzare il corretto aspect ratio di 2.40:1, con piccole bande in alto e in basso sul tubo catodico da 1,78:1. Se l’immagine veniva visualizzata su un normale televisore 4:3, come tipicamente succedeva nelle sale di missaggio audio, l’immagine appariva compressa. Se le immagini di Star Wars sono fenomenali non poteva essere da meno il suono che le accompagna. George Lucas non contento delle attuali tecnologie surrounId, in qualità di capo della THX Division, (la società che certifica la qualità audio di sale cinematografiche e produzioni video) ha sfidato le società responsabili dei tre formati di suono digitale, Dolby, DTS, e SDDS, a trovare qualcosa di nuovo. La soluzione è una terza traccia surround posizionata al centro tra i due canali posteriori. Questa traccia viene codificata un attimo prima della creazione del master, e viene decodificata solo nelle sale che dispongono del relativo decodificatore, senza impattare sul formato di registrazione delle tracce già esistenti. In pratica se la sala non è attrezzata, questa traccia verrà smistata in parti uguali sui due canali posteriori. Se invece la sala dispone dell’apposito sistema di decodifica e del relativo impianto, è possibile ascoltare suoni posizionati esattamente dietro e al centro rispetto al pubblico, distinguendoli da quelli provenienti da dietro a sinistra e da dietro a destra. Citare tutti i tecnici, gli artisti, gli animatori, i modellisti e tutti coloro che hanno contribuito alla realizzazione del film sarebbe impossibile. Complessivamente 15 animatori hanno lavorato su Jar Jar, da 5 a 10 sui droidi, 7 su Watto, da 4 a 5 su Boss Nass, da 2 a 3 su Sebulba. Geoff Campbell supervisore dei modelli Gungan ha controllato il lavoro di 18 modellisti che hanno creato più di 200 modelli, librerie di espressioni facciali e sincronizzazioni labiali per i personaggi parlanti principali. Habib Zargapour supervisore della CG insieme a Kevin Rafferty, hanno coordinato il lavoro della gara dei podracer, il compositing è stato supervisionato da Tim Alexander. Peter Daulton supervisore della modellazione e animazione delle 160 scene dei podracer. James Toole, supervisore all’animazione dei droidi 209 e Christophe Hery supervisore della CG, che ha organizzato le librerie di 143 cicli di movimento per tipi di creatura. Ebbene, dopo quattro anni di lavoro, le scene di Star Wars:Episode I sembrano proprio indicare che l’Industrial Light & Magic è riuscita a dare un nuovo volto al cinema 210 Sceneggiatura e Regia: George Lucas Fotografia: David Tattersal Scenografia: Phil Harvey (II), Fred Hole, John King (V), Rod McLean, Ben Scott (II) Costumi: Trisha Biggar Musica: John Williams Montaggio: Ben Burtt, Paul Martin Smith Effetti visivi: Industrial Light and Magic Prodotto da: George Lucas, Rick McCallum (USA, 1999) Durata: 131' Distribuzione cinematografica: 20Th Century Fox PERSONAGGI E INTERPRETI Qui-Gon Jinn: Liam Neeson Obi-Wan Kenobi: Ewan McGregor Queen Amidala: Natalie Portman Anakin Skywalker: Jake Lloyd (I) Shmi Skywalker: Pernilla August Yoda: Frank Oz Senator Palpatine: Ian McDiarmid Sio Bibble: Oliver Ford Davies Captain Panaka: Hugh Quarshie Jar Jar Binks: Ahmed Best Mace Windu: Samuel L. Jackson Darth Maul: Ray Park Darth Maul: Peter Serafinowicz Ric Olié: Ralph Brown (I) Chancellor Vallorum: Terence Stamp 211 MISSION TO MARS Brian De Palma, 2000 Diretto da Brian De Palma, regista di film di successo come il recente Mission Impossible, Mission to Mars è un’avventura di fantascienza ambientata in un futuro non troppo distante, che offre agli appassionati di effetti visuali fantastiche tempeste su Marte create con simulatori di fluidodinamica e sistemi di particelle, numerose scene con astronauti apparentemente senza peso, e alcune interessanti proiezioni olografiche create con computergrafica 3D. Il contributo della NASA La NASA ha stipulato con la produzione di Mission To Mars un contratto per partecipare al film. Per più di un anno la produzione ha lavorato quindi in stretta collaborazione con la NASA, affidandosi alla preziosissima consulenza dei suoi esperti, garantendo con gli autori e gli interpreti la ricercata autenticità. I consulenti tecnici del film sono Story Musgrave, ex astronauta della NASA che detiene il record di maggiore anzianità di servizio e di maggior numero di ore di passeggiate spaziali, e Joe Allen, già consulente tecnico di Armageddon - Giudizio finale. Il loro lavoro ha avuto inizio durante la fase di preparazione del film, con la rilettura della sceneggiatura, poi Musgrave ed Allen si sono incontrati con il cast degli interpreti prima dell'inizio delle riprese, per parlare della loro personale esperienza nello spazio. La partecipazione della NASA ha dato un importante contributo in termini di disponibilità degli scienziati e di visite a Houston e in Florida per conoscere cosa si progetta e cosa sia già realtà. In Mission To Mars la navetta viene lanciata dalla World Space Station, disegnata sul modello della vera stazione spaziale attualmente in progettazione alla NASA, con l'aggiunta di un elemento circolare roteante nello spazio che ospita la missione di controllo. La stazione spaziale internazionale, il progetto più ambizioso mai tentato dalla NASA, coinvolge sedici paesi, sarà poco più grande di un campo di football e orbiterà intorno alla Terra a una distanza di circa 380.000 chilometri. Capo tecnico della missione Pathfinder, atterrata su Marte il 4 luglio 1997, Matt Golombek lavora al JPL (Jet Propulsion Laboratory) di Pasadena, il centro della NASA addetto al volo spaziale senza equipaggio, a cui fanno capo tutte le sonde che attualmente esplorano il nostro sistema solare. Golombek ha fornito la sua consulenza sulla sceneggiatura e in fase di post produzione ha lavorato con il reparto degli effetti visivi per garantire che l'immagine di Marte fosse realistica. 212 Il suo contributo è stato fondamentale quando si è dovuto stabilire che aspetto avesse il cielo di Marte. “Una sorta di giallo-bruno, non proprio rosso ma molto vicino al rosso,” descrive Golombek. “Siamo quasi certi che questo colore sia dovuto a una polvere di grana finissima che si solleva durante le tempeste. Ma deve anche esserci qualche altra spiegazione. Sono stati osservati piccoli cicloni che sollevano il pulviscolo fin su nell'atmosfera. E' una polvere talmente leggera che impiega moltissimo tempo a ricadere, e anche se l'atmosfera è molto rarefatta, è sufficientemente densa da tenerla sospesa e così ha sempre questo aspetto rossastro. Infatti, il sessanta per cento della luce che illumina il pianeta è filtrata dalle particelle di polvere sospese nell'atmosfera. Di conseguenza, ogni cosa che non sia illuminata direttamente, ogni ombra, ogni zona in ombra, appare rossastra. E' molto diverso dalla Terra. Qui, anche se ci mettiamo all'ombra, possiamo sempre dire che indossiamo una camicia blu. Su Marte apparirebbe rossa.” Fra i set più imponenti che siano mai stati costruiti per un film, la superficie di Marte è stata realizzata alle dune sabbiose di Fraser, poco a sud di Vancouver. I cinquantacinque acri di terreno sono stati modellati sulla sabbia delle dune e poi coperti per migliaia di metri quadrati di 'shotcrete', un particolare tipo di calcestruzzo da nebulizzare. Per colorare il terreno ci si è serviti di manichette antincendio, che hanno spruzzato più di 350 litri al minuto di vernice di latex atossica rosso Marte, per un totale di 454.200 litri. Per il produttore esecutivo Sam Mercer la sfida maggiore era rappresentata dal set degli esterni di Marte: “Che aspetto avrebbe dovuto avere Marte, come avremmo riprodotto quel suo cielo vagamente somigliante ai tramonti inquinati di Los Angeles? E dove avremmo trovato lo spazio sufficiente ad effettuare le riprese?” Dopo aver valutato tutte le possibilità, inclusa quella, improbabile, di trovare un set insonorizzato di dimensioni tali da soddisfare le esigenze della produzione, la scelta è caduta sulle dune sabbiose di Fraser. “Su Marte gli spazi sembrano senza fine,” fa notare Mercer. “La Valle Marineris è lunga quanto tutti gli Stati Uniti. Ma le dune erano quattro volte più estese delle altre location che stavamo considerando, e il lato che dà sul fiume, privo di alberi, è diventato il nostro orizzonte infinito.” “Era come giocare in un enorme recinto di sabbia,” dice Verreaux, “abbiamo portato delle enormi ruspe e abbiamo creato il nostro ambiente.” Così è nata la superficie di Marte. “Eravamo tutti d'accordo sul fatto che Marte dovesse avere un aspetto verosimile,” aggiunge il direttore della fotografia Stephen Burum, che insieme a Verreaux ha lavorato alla mappatura del pianeta. Con l'aiuto di un software che traccia un grafico del tragitto del sole in base a una data e un luogo”, spiega Burum. “Ed è riuscito a orientare le colline in modo da avere sempre la luce migliore. Così siamo riusciti a rendere meglio il senso di vastità degli spazi e abbiamo potuto utilizzare l'intero 213 giorno di ripresa, avendo sempre qualche punto ben illuminato. E' stato utilissimo avere i bulldozer, che hanno rimodellato il territorio esattamente come serviva a noi in base al grafico del percorso del sole.” Per essere certi che il paesaggio e le condizioni ambientali di Marte descritti nel film non discordassero dai dati attualmente in possesso della scienza, gli autori si sono rivolti agli esperti della NASA. Su Marte le tempeste di polvere possono durare fino a sei mesi. Per ricreare una di queste tempeste marziane, Elmendorf e il suo team di tecnici degli effetti speciali hanno realizzato alcuni generatori di vento che soffiavano sulle dune una polvere di silice rosa. Gli oltre quattrocento effetti visivi del film hanno richiesto l'esperienza di due studi specializzati in questo: la Dream Quest Images e l'Industrial Light and Magic. Contributi digitali Due studi californiani la The Secret Lab (TSL, ex Dream Quest Images), che ora ha sede a Burbank, e la Industrial Light & Magic, con sede a San Rafael, hanno creato la maggior parte degli effetti visuali, con qualche contributo da parte della Tippett Studios di Berkeley. I primi cinque minuti del film sono ambientati sulla Terra. Dopodiché, tutto avviene su astronavi, nello spazio e sulla superficie di Marte. Prima che i team degli effetti cominciassero a creare questi ambienti artificiali, Yeatman ha creato animatic in CG o storyboard 3D usando il software Maya della Alias/Wavefront. L’esplosione particellare, il campo stellare,i pianeti orbitanti e la sala olografica sono tutti effetti visuali creati dalla ILM. “Abbiamo costruito intere sequenze 3D in Maya che sono state montate dal montatore del film, Paul Hirsh”, spiega Yeatman. Gli animatic 3D hanno anche offerto i dati per costruire le scenografie e posizionare le apparecchiature. Una volta realizzati gli elementi fisici, sono stati effettuati dei rilievi, e i dati così ottenuti sono stati riportati in Maya per ritoccare gli elementi 3D e creare scenografie virtuali accurate. Alcune di queste scenografie virtuali hanno incluso modelli esatti dei giganteschi sistemi di motion control delle macchine da presa e delle imbracature per gli attori “senza peso”, oltre a repliche virtuali di miniature e scenografie dal vivo. “Brian De Palma usa quelle che personalmente chiamo “zoomate cosmiche”, cioè grandi movimenti di macchina continui e inusuali”, dice Yeatman. “Siamo riusciti a disegnarle nell’ambiente virtuale e a usare i dati per controllare le macchine da presa in motion control”. Questo metodo ha ridotto la necessità di noiosi e lunghi motion tracking. 214 “Gli elementi ripresi dal vivo e quelli in CG si sono agganciati con precisione”, afferma Darin Hollings, supervisore degli effetti digitali alla TSL. L’elemento in CG più difficile per la TSL, secondo Hollings, è stato il 'vortice'. Inquadriamo la scena: durante la prima missione con uomini su Marte, un mezzo d’esplorazione telecomandato scorge una formazione in cima a una montagna che potrebbe essere di acqua ghiacciata. Andati a verificare di persona, gli astronauti usano il radar per determinare la composizione della montagna. Quest’azione attiva inavvertitamente un vortice che spazza via dalla 'montagna' rocce e detriti, rivelando una gigantesca struttura a forma di volto. La tempesta di sabbia risultante si trasforma in un tornado invertito, il vortice. Un astronauta viene risucchiato dal vortice e sparisce. Un altro cade sul terreno, colpito da una roccia. Un terzo viene inseguito dal vortice e aspirato all’interno, dove esplode per la tremenda forza centrifuga. Tempesta di sabbia rossa Per creare il vortice, la TSL ha usato un simulatore proprietario di fluidodinamica che può renderizzare centinaia di milioni di particelle. Chiamato Hookah, il software è stato originariamente sviluppato per il film Armageddon per creare nubi gassose. Per Mission to Mars, il simulatore è stato modificato per ottenere un vortice più 'polverizzato' e per offrire al regista il controllo del movimento. Per aiutare a canalizzare la simulazione del vortice, il team degli effetti ha creato in Maya una serie di cilindri annidati. Le forze dinamiche nei cilindri esterni tentano di spingere le particelle verso l’interno, e le forze nei cilindri interni tentano di spingere le particelle verso l’esterno. Gli animatori hanno usato cinematica inversa e animazione in keyframe per posizionare i cilindri e di conseguenza il vortice nel tempo. Per inserire rocce e astronauti rotanti all’interno del gigantesco vortice, il team degli effetti ha usato informazioni tratte dalla scenografia virtuale per creare mappe di profondità Z di questi elementi. Le mappe sono state usate come maschere per creare buchi nel vortice renderizzato, dove i compositor hanno successivamente inserito gli elementi a varie profondità. Per creare l’illusione di una maggiore profondità, sono state renderizzate particelle di polvere con vari livelli di opacità determinati dalla loro distanza dalla telecamera. Per creare e renderizzare il vortice, la TSL ha usato sei Origin della SGI con 16 processori e 16-24 GB di RAM. 215 Il film comprende 36 scene del vortice con lunghezze variabili tra 100 e 600 fotogrammi; un errore in un fotogramma significava rifare l’intera simulazione. “Alcune scene hanno richiesto settimane”, dice Hollings, ricordandone una che è risultata particolarmente difficile, una scena da 450 frame durante la quale la telecamera (virtuale) si muove attraverso strati di particelle per rivelare il volto di un astronauta mentre viene spazzato via. Per recuperare eventuali sopravvissuti della prima missione, viene inviata su Marte una missione di soccorso. Il racconto di questa seconda missione occupa il resto del film, che include scene create dalla ILM con astronauti all’esterno dell’astronave, all’interno del “Volto” e in partenza da Marte. “Originariamente, ci erano state affidate 30-40 scene all’interno del Volto, ma quella sequenza è diventata sempre più lunga e il nostro lavoro si è espanso a circa 300-400 scene”, racconta John Knoll, supervisore degli effetti visuali alla ILM. “Ci hanno dato le sequenze montate a novembre dell’anno scorso, e abbiamo terminato le scene verso la metà di febbraio di quest’anno. Il numero di scene per settimana è stato più alto che in Star Wars”. Poco prima di arrivare su Marte, dei micrometeoriti investono l’astronave di salvataggio causando l’esplosione del motore. Gli astronauti sono costretti ad abbandonare la nave. Fortunatamente, un modulo di appoggio si trova nelle vicinanze. Un astronauta si lancia verso il modulo tenendo in mano un cavo. Riesce ad agganciare il cavo, ma arriva troppo velocemente e sorpassa il modulo. Gli altri astronauti possono comunque seguire il cavo per arrivare sul modulo. Questa scena è stata ripresa con gli attori in tute d’astronauta davanti a un bluescreen o uno sfondo nero. Tutto il resto è in CG: la maestosa superficie di Marte sottostante, i cavi, le stelle e (a eccezione dei primissimi piani) il modulo di appoggio. “Gli attori indossavano imbracature per rimanere sospesi, ma i movimenti erano così limitati, che potevano salire semplicemente su cassette della frutta”, afferma Pat Myers, supervisore della CG Per dare la sensazione della mancanza di peso, il team degli effetti ha creato una simulazione 3D in Maya che mostrava le relazioni spaziali tra gli astronauti che si muovevano in gravità zero. Poi, usando il sistema Sabre della ILM, un software di compositing basato su Flame della Discreet hanno creato trasformazioni 2D che hanno mosso di conseguenza gli astronauti filmati. Le simulazioni hanno anche aiutato il team a posizionare i cavi in CG e a inserire particelle per i razzi e i propulsori di manovra. Per la superficie di Marte, hanno usato immagini reali in alta risoluzione del pianeta. 216 Hanno anche aggiunto polvere in CG e altre texture di superficie al modello fisico dell’astronave usata nei primi piani. “Era così pulito, che sapevamo che il pubblico avrebbe pensato che fosse un modello in CG”, dice ridendo George Murphy, cosupervisore degli effetti visuali alla ILM. Quando gli astronauti atterrano su Marte, trovano l’unico sopravvissuto della prima missione, con l’aiuto del quale scoprono come entrare all’interno del Volto. Una volta all’interno, si ritrovano inseriti in una visualizzazione olografica che rivela l’origine della vita sulla Terra. Tutto all’interno del Volto a parte gli astronauti è un elemento in CG creato dalla ILM. “Abbiamo usato shader di RenderMan per creare campi stellari e fotografie della NASA su sfere renderizzate per i pianeti”, spiega Myers. Le texture per la donna marziana sono state create con un complicato shader di RenderMan; un sistema di particelle ha trasformato Marte da pianeta verde in quello rosso che tutti conosciamo. I marziani siamo noi L'escursione sulla superficie di Marte ha presentato parecchie difficoltà per gli artisti della ILM, che dovevano ricreare un'ambientazione verosimile ma allo stesso tempo un po' onirica in cui i protagonisti incontrano un alieno che mostra loro l'evoluzione della Terra. Dopo l'atterraggio su Marte, gli astronauti entrano in un planetario olografico in cui è possibile percorrere a piedi tutto il sistema solare. La sequenza è stata realizzata creando l'immagine digitale e tridimensionale di un planetario e poi aggiungendo le immagini degli attori, ripresi separatamente su un fondale neutro. Poco dopo appare sulla scena un alieno che mostra agli astronauti l'immagine bielicoidale del DNA, che poi comincia a trasformarsi dall'una all'altra nelle creature che rappresentano l'evoluzione del pianeta Terra. La sequenza, un morphing di sette diverse creature con strutture corporee differenti (paramecio, pesce, lucertola, coccodrillo, dinosauro, mammut e buffalo) è stata, per animatori e direttori tecnici, straordinariamente impegnativa e ha richiesto una lavorazione di cinque mesi. Christophe Hery, supervisore della CG, spiega che prima hanno creato i modelli per le sette creature, ognuna con le proprie texture, shader ed envelope. A partire da questi, gli animatori hanno potuto creare morphing 3D raffinati mentre le creature camminano. “In un certo fotogramma, potreste vedere una creatura ibrida con arti che sono per l’80% di bufalo, per il 10% di mammut e per il10% di coccodrillo”, afferma Hery. “Ogni CV (Control Vertice) su una creatura può ricevere un valore di morphing diverso”. 217 L’intera sequenza include centinaia di elementi in CG in aggiunta alle creature in evoluzione: polvere, torce accese, raggi di luce e particelle nell’acqua, e un terreno complesso con erba animata. Oltre al software di morphing, il team di Hery ha lavorato con due altri software nuovi. Un programma è stato utilizzato per spezzare un modello patch in frammenti con texture. Il secondo è un nuovo motore di simulazione progettato da John Anderson per creare un vortice con milioni di particelle che evocasse quello della TSL. Diversamente da quest’ultimo, il vortice creato dalla ILM doveva essere infuocato invece che sabbioso. “Abbiamo iniziato con un renderer di volume, ma non c’era tempo”, racconta Hery. “Abbiamo quindi deciso di renderizzare molte passate di particelle”. Essenzialmente, i compositor hanno messo insieme i layer delle passate di particelle usando le particelle grandi come fluidi gassosi intorno alle particelle più piccole. “Abbiamo dovuto inventare nuove tecniche, e avevamo una grande mole di lavoro da fare con alcune scadenze impegnative, ma non è stato impossibile”, dice Knoll. “Star Wars è stato un ottimo banco di prova”. 218 Regia: Brian De Palma Sceneggiatura: Jim Thomas, John Thomas, Graham Yost Fotografia: Stephen Burum Scenografia Ed Verreaux Costumi: Sanja Milkovic Hays Musica: Ennio Morricone Montaggio: Paul Hirsch Prodotto da: Tom Jacobson (USA, 2000) Durata: 112' Distribuzione cinematografica: Buena Vista PERSONAGGI E INTERPRETI Woody Blake: Tim Robbins Jim McConnell: Gary Sinise Terri Fisher: Connie Nielsen Luke Graham: Don Cheadle Phil Ohlmyer: Jerry O'Connell Ramier Beck: Armin Mueller-Stahl 219 PARTE 3: CARTOONS 220 L’ANIMAZIONE 2D L’animazione, intesa nel senso più comprensivo del termine, rappresenta un mezzo fondamentale, forse unico, per rappresentare i sogni, per tramutarli, almeno per qualche decina di minuti, in qualcosa di completamente reale e tangibile. E’ un’officina le cui uniche limitazioni sono di natura tecnica, in grado di condizionare le possibilità di rappresentazione (tutto ciò almeno in teoria: bisogna infatti considerare altri parametri quali il budget economico, le capacità artistiche ed espressive degli animatori, ecc.). Con queste pagine mi piacerebbe percorrere a grandi linee i principali aspetti del mondo dell'animazione. Le Tecniche Il contenuto fondamentale di ogni tecnica di animazione ed in particolare modo del disegno animato, è la possibilità di trasformare un elemento bidimensionale (quale un foglio di carta od una cel di acetato) in un universo tridimensionale, perfettamente credibile e quindi vivibile se in risonanza con la propria natura e sensibilità. E’ evidente che per ottenere tutto ciò, il solo disegno (o la sola scultura in plastilina) non basta; serve introdurre altri fattori quali il movimento, il commento musicale, la traccia sonora e così via. Fatte queste premesse, possiamo ora entrare definitivamente nel mondo dell'animazione. Disegni Animati Questa tecnica è sicuramente la madre di tutto l’universo che stiamo, sebbene molto superficialmente, esplorando; molta strada è stata fatta dal prassinoscopio di Emile Reynaud; dal disegno frame by frame (prima a 12 fotogrammi al minuto e poi a 24) in cui ogni movimento del soggetto richiedeva la ripetizione completa di tutto il disegno, compresi i fondali, si è passati all’uso della cel di acetato (reinventata più volte nelle diverse regioni del mondo: un fenomeno di coevoluzione artistica dovuto alla scarsa comunicazione in questo particolare campo espressivo): tale cel trasparente permette infatti di sovrapporre al piano dei fondali, che rimane così fisso per diversi fotogrammi, i soggetti in movimento, riducendo enormemente i tempi di lavoro per unità di tempo effettivo di animazione e permettendo una maggiore resa artistica. I principi tecnici basilari del disegno animato sono dunque i seguenti: Per prima cosa, la storia a cui si intende dare vita viene rappresentata in modo molto dettagliato mediante il cosiddetto storyboard, costituito da una serie di disegni e schizzi delle varie scene da realizzare. 221 Stabiliti tutti questi particolari, il lavoro passa nelle mani degli animatori (dai responsabili della creazione fisica e spirituale del personaggio, agli intercalatori dei singoli fotogrammi, fino agli artisti del clean-up, operazione di fondamentale importanza per rendere omogenei ed uniformi i tratti di un personaggio creato da mani diverse), ai pittori responsabili dei fondali, ai tecnici degli effetti speciali (quali fumo, pioggia, lampi, ombre, ecc.). I disegni vengono prima eseguiti su carta, quindi montati in rough-reels; ciò consente un primo esame della animazione. Una volta approvato il tutto, i singoli fotogrammi vengono ricopiati su cels (una volta a mano, ora con l’ausilio del computer), colorati, ordinati in sequenza e fotografati uno dopo l’altro: ne occorrono 24 per ottenere un secondo di animazione. La credibilità di ciò che si vedrà sullo schermo è dovuta all’impiego della speciale tecnica con la quale le cels vengono fotografate: si utilizza infatti la multiplane camera (ideata da Ub Iwerks, coinventore di Mickey Mouse e creatore di Flip the Frog), uno strumento nel quale lo sfondo (che a sua volta può essere composto da diversi piani) e i soggetti animati sono disposti in modo da ottenere un verosimile effetto di profondità e di tridimensionalità. Al film, ormai completo, vengono aggiunti gli effetti sonori (voci in, off e over, rumori, ecc.) e la traccia musicale; per comprendere come queste componenti siano essenziali per la perfetta riuscita dell’animazione (e, più in generale, di qualunque film), si può condurre un piccolo esperimento: è sufficiente guardare la sequenza prima con la traccia sonora e subito dopo eliminandola completamente: la differenza non può passare inosservata! Una volta eseguito il montaggio e aggiunti i credits iniziali e finali, il prodotto è finito e pronto per essere visto dal pubblico. Possiamo fare anche qualche osservazione riguardo al concepimento del layout, cioè alla fase in cui si decide come una particolare scena deve essere rappresentata (è utile ricordare che nell’animazione nulla esiste all’inizio: prospettive, ombre, luci colori, sono tutti fattori da ricreare sulla carta). A mio avviso, si può distinguere uno studio eseguito rispetto ai personaggi ed uno eseguito rispetto alla scena in generale: i personaggi vanno visti da diverse angolazioni e prospettive che permettano di percepire il senso di tridimensionalità; devono interagire il più possibile con i vari piani dei fondali per dare il senso della profondità al campo; devono inoltre seguire linee cinetiche non troppo lineari e comunque ben integrate con le prospettive fornite dai fondali. In generale, il layout deve comprendere inquadrature e movimenti di camera non piatti, riducendo al minimo i travels ed i truck in e out; in modo particolare, tali movimenti di camera devono svilupparsi secondo prospettive che rendano naturali sia i personaggi sia i fondali. 222 E’, a questo punto, assolutamente necessario sottolineare un elemento essenziale dell’animazione: la vera animazione non è e non deve essere un semplice sfoggio di perfezione tecnica; infatti, il tipo di disegno utilizzato deve integrarsi perfettamente con ciò che si intende raccontare. Bisogna inoltre sempre ricordare che un personaggio, anche se disegnato in modo eccezionale, non può vivere senza un’anima. Per questo motivo, la caratterizzazione dei personaggi è la più importante di tutte le fasi di produzione. Go-Motion Questa tecnica è una modificazione, una automazione in un certo senso, della già descritta stop-motion. Il soggetto è sempre un pupazzo meccanico, che in questo caso è dotato di snodi e articolazioni controllate da microprocessori; infine tutto il sistema è in collegamento "bitronic" (il pupazzo può cioè ricevere ed inviare informazioni di movimento) con un computer. Il movimento viene prima eseguito mediante la manipolazione classica della stop-motion, cioè compiuta dell’animatore sul pupazzo: durante questa fase, la macchina invia segnali elettrici che vengono registrati dal computer. Al momento della ripresa, il suddetto movimento viene eseguito riproducendo le informazioni acquisite dal computer durante la prima fase. Esempi avanzati di questa tecnica sono riscontrabili in Jurassic Park, dove alcuni effetti speciali, soprattutto quelli riguardanti l’attacco del T. Rex, sono stati prodotti utilizzando pupazzi controllati da DID (Dinosaur Input Device) e utilizzando le informazioni di movimento, ottenute mediante manipolazione diretta, per la costruzione delle immagini al computer. 223 Silhouettes Questa tecnica si basa sull’impiego di figure di cartoncino nero ritagliate e poste in modo opportuno sugli sfondi, normalmente bianchi o comunque molto chiari; il risultato è che le figure sembrano come in controluce, dando al prodotto finale un’atmosfera morbida e molto particolare. La più grande artista in questa tecnica è stata sicuramente Lotte Reinger, autrice di un numero molto elevato di lungometraggi fra cui Die Abenteuer des Prinzer Achmed, Carmen e L’elisir d’amore, rimarchevoli per il senso di delicatezza, raffinatezza e fragilità delle filigrane animate che vi recitano. Mosaico La tecnica del mosaico possiede molti punti in comune con quella delle silhouettes; anche in questo caso i soggetti vengono disegnati su cartoncino e ritagliati, ma a differenza delle filigrane delle ombre cinesi, presentano la colorazione, spesso molto vivace. Esempi tipici di questa tecnica sono i cortometraggi ed i mediometraggi realizzati da Giulio Giannini e da Emanuele Luzzati (Italia, anni 1970) come Pulcinella, La gazza ladra, Il flauto magico e L’italiana in Algeri. Queste opere sono pervase da un’ingenuità che esercita un’azione liberatoria sulla fantasia, grazie anche al commento sonoro fornito dalle omonime musiche di Rossini. Stop – Motion Sorella minore della tecnica a Disegni Animati, la stop-motion ha trovato forse più spazio ed impiego, in modo particolare nel cinema "dal vero" dove è stata e viene comunemente usata nella creazione di effetti speciali. I principi fondamentali rimangono quelli dei disegni animati: si procede cioè a passo uno (frame by frame). In questo caso però, l’oggetto da animare è una scultura in plastilina o un pupazzo meccanico (come nel caso del recente The Nightmare before Christmas del notturno e geniale Tim Burton), oggetti già dotati di una propria tridimensionalità e consistenza. Nell’arco di ogni secondo, il personaggio viene mosso leggermente per ben 24 volte (e come accade frequentemente, anche in modo estremamente complesso) in uno scenario costruito con le debite proporzioni. La stop-motion che sfrutta le sculture di plastilina risulta chiaramente la più impegnativa, poiché ad ogni variazione di espressione o movimento, lo scultore è costretto ad intervenire sul modello per apportare le modifiche del caso; con i pupazzi meccanici (ove con il termine "meccanico" intendo indicare un’anima di metallo dotata di snodi articolari) il problema viene 224 risolto intervenendo sulle articolazioni e mettendo così "in posa" il soggetto o sostituendo la testa per modificare l’espressione del viso. Un impiego recente della stop-motion, insieme ad altre tecniche che considereremo in seguito, è stato fatto anche in Jurassic Park di Steven Spielberg: la scena che vede l’attacco dei due Raptors nella cucina del centro turistico è stata appunto "costruita" in parte con questa tecnica da artisti quali Phil Tippet e Randy Dutra. Le immagini della CGI L’impiego del computer sta prendendo fortemente piede anche nel campo dell’animazione: il suo utilizzo permette infatti di ottenere risultati di forte impatto emotivo in tempi inferiori a quelli normalmente richiesti dall’animazione convenzionale. Una prima tecnica consiste nel disegnare tutti gli stadi di animazione del soggetto: i singoli disegni vengono poi digitalizzati mediante scannering e fatti riprodurre dal calcolatore (il Tiger God del disneyano Aladdin , lo spirito di Mufasa in The Lion King); mediante il calcolatore si può anche moltiplicare all’infinito uno stesso soggetto, come nella scena della carica degli gnu nel già citato The Lion King. Oppure, i singoli fotogrammi possono essere realizzati interamente dal computer, costruendo un’animazione totalmente "virtuale" (scena finale in Jurassic Park: il T. Rex ed i Raptors sono stati tutti generati elettronicamente in sede di post-produzione; la folla della Parigi di The Hunchback of Notre Dame). In ultima analisi, vista la sempre più diffusa presenza dell'elaborazione elettronica nel campo dell'animazione, mi pare utile dare un'occhiata ai principali livelli di impiego: Illuminazione: le luci e le ombre di scena vengono riprodotte mediante la colorazione elettronica (tecnica che la Disney impiega già da alcuni anni mediante il Pixar). In sede di layout: i movimenti di camera e le prospettive con le quali sono visti i personaggi vengono calcolati dal computer, fornendo le "coordinate di disegno" agli animatori (scena del ballo in Beauty and the Beast, scena della liberazione di Esmeralda nel The Hunchback of Notre Dame e così via). Frame buffer: questa applicazione prevede il "riempimento" elettronico di alcune aree di un personaggio disegnato dall’animatore con un motivo tecnicamente impossibile da riprodurre per ogni fotogramma (a meno che non si intenda realizzare il lungometraggio in dieci anni!). E’ il caso del Tappeto in Aladdin, ottimo esempio di questa tecnica: il personaggio è stato disegnato con la normale procedura (da Randy Cartwright) e successivamente è stato introdotto il disegno della trama del tappeto; ad ogni movimento, tale trama è stata elettronicamente "deformata" per seguire le linee di disegno ed il profilo del personaggio. 225 Generazione di fondali: gli sfondi vengono generati elettronicamente e su di essi vengono sovrapposti i normali disegni dei personaggi (Tarzan, Il principe d’Egitto, la Cattedrale in alcune scene di The Hunchback of Notre Dame). 226 CARTONI ANIMATI ELETTRONICI I primi Topolino di Disney erano realizzati a mano, da un esercito di persone, a volte diverse centinaia, che disegnavano i personaggi, tutti i movimenti dei personaggi per dare l'animazione, e realizzavano naturalmente anche gli sfondi. Un lavoro molto lungo e anche molto prezioso che ha lasciato tutta una serie di quadri, valutati decine di milioni, che rappresentano una forma d'arte del nostro secolo. Molto più recente la storia della “computer animation”, quindi del cartone animato dal computer. Bisogna tornare indietro di 15 anni e il primo animatore si chiama John Lasseter. John Lasseter ideò Luxo Jr, la storia di due lampade Luxo animate digitalmente, che gli valse nel 1986 una nomination per i corti all'Oscar, e una serie infinita di altri premi. L'amore di John Lasseter per queste nuove tecnologie, però, era nato già da qualche anno, all'interno del gruppo Disney, dove aveva prodotto il primo corto nel 1982. La Disney, però, non era molto interessata a queste nuove tecnologie e lui la lasciò per andare alla Pixar la principale azienda concorrente della Disney. La Pixar aveva cominciato come società produttrice di effetti speciali digitali già da qualche anno, all'interno del gruppo Lucas film, di George Lucas. Questa azienda era stata responsabile di alcuni effetti digitali abbastanza noti, come quelli di Star Trek, oppure della seconda delle trilogie di Star Wars. La Pixar si era resa indipendente dal 1986 e aveva incontrato sulla sua strada appunto John Lasseter. Lasseter che, però, dovette aspettare ben 10 anni, il 1996, per approdare al suo primo lungometraggio digitale, il famoso Toy Story. Toy Story, che tradotto dall’inglese significa la storia dei giocattoli, fu coprodotto dalla Disney e dalla Pixar; riscosse subito un grande successo sia di critica sia di pubblico. La storia del parco giocattoli di Andy, in particolare la lotta per la supremazia all'interno del gruppo di giocattoli, tra Woody il cow boy e Bud, il protettore della galassia, è ormai diventato un classico del cartone animato contemporaneo realizzato con il computer. Negli ultimi anni il software si è molto evoluto. Sono stati messi a punto software più funzionali e veloci, creati appositamente per il cinema d'animazione. L’utilizzo di queste tecniche avanzate consentono di ridurre i tempi di produzione e i costi, senza per questo sacrificare la qualità. Ma la storia non si è fermata qui… Da “Il principe di Egitto” della Dreamworks di Spielberg, Geffen e Katzenberger, alla saga degli insetti di John Lasseter che firma A bug’s life - ancora una produzione Pixar-Disney - all'altra storia concorrente sulle formiche, della Dreamworks, Z la formica ispirata a Woody Allen e 227 da lui doppiata. Antz, che in Italia si chiamerà appunto Z la formica è il primo spettacolare lungometraggio prodotto dalla Pacific Data Images (PDI), società di San Francisco leader nella produzione di software per l’animazione computerizzata, e dalla Dreamworks. Cartoombria Per fare il punto sui nuovi linguaggi e sulle tecniche del cinema d'animazione prenderò in esame Cartoombria, la Mostra Internazionale dell'Animazione, organizzata dalla Fondazione Umbria Spettacolo. Cartoombria rappresenta un momento speciale per il cinema d'animazione, un momento in cui ci possiamo rendere conto che le nuove tecnologie e le immagini sintetiche in particolare, sono diventate delle tecniche molto flessibili, mature per raccontare ed esprimere delle storie, dare corpo alla fantasia di un autore, di un regista. Da Hollywood sono arrivati dei lungometraggi molto interessanti, lungometraggi per esempio come Antz, film che racconta delle storie totalmente realizzate con immagini virtuali. Segno quindi evidente che si esce da una sorta di attenzione alla tecnologia, in sé, per utilizzare invece queste tecnologie come strumenti di narrazione matura. "D'ora in poi nessun picnic sarà più lo stesso di prima" annunciano la Dreamworks e la PDI per lanciare il loro prodotto, “Z la formica”, presentato in anteprima a Cartoombria. Per illustrarne in anteprima le complesse fasi di realizzazione, era presente a Cartoombria Luca Prasso, direttore tecnico effetti visivi della PDI: "Si inizia ancora - ha spiegato Prasso - e si continuerà sempre a partire dalla carta. L'animatore, o i designer dei personaggi, l'art director del film o della produzione inizia disegnando il personaggio sulla carta. Vengono poi fatte centinaia e centinaia di prove. Una volta che il personaggio è stato approvato si passa a una scultura del personaggio, che normalmente viene realizzata di circa cinquanta centimetri di altezza. Quando questa è approvata vengono fatte molte sculture: sia sculture “gesturali”, dove il personaggio viene visto in diverse posizioni, in movimento, sia delle sculture che vengono usate poi per importare il personaggio all'interno del calcolatore. Questo viene fatto normalmente con una tecnica di digitalizzazione, dove, con una penna speciale, vengono rilevati dei punti sulla superficie del personaggio, e questi vengono poi inseriti nel calcolatore. A questo punto il personaggio arriva ai technical directors." I direttori tecnici hanno anche il compito di realizzare le espressioni dei volti dei personaggi. In questo caso, la PDI ha messo a punto un software speciale che ha permesso di raggiungere alti livelli di definizione dell’immagine: una struttura complessa a cui corrispondono muscoli, pelle, ossa, carne del corpo umano e grazie alla quale il movimento delle labbra è sincronizzato con quello delle guance e della pelle degli occhi, per rendere l'effetto più realistico, più coinvolgente. 228 Un ulteriore livello di espressione è stato raggiunto con la programmazione di un elenco di fonemi e i corrispondenti atteggiamenti delle labbra per pronunciarli. Un'altra sfida è rappresentata dalle scene di massa, fondamentali in un formicaio. Z la formica include oltre 500 sequenze di massa, a partire da un piccolo gruppo di formiche ad oltre 60.000 insetti. Anche in questo caso è stato elaborato un apposito sistema, di simulazione di folla e di miscelazione, ideato proprio da Luca Prasso e da altri due tecnici della PDI. Proseguendo nel processo di lavorazione, dallo storyboard si è passati al layout, cioè alla verifica dei movimenti dei personaggi, delle inquadrature, del fuoco, della profondità di campo. Parte di questo lavoro è realizzato dal regista e dal direttore della fotografia. Una volta messo a punto il layout definitivo, si arriva alla fase finale, dell'illuminazione, che conferisce al tutto un effetto realistico. Nel caso di Antz esiste una doppia caratterizzazione, tra il mondo di dentro, buio, il formicaio, ed il mondo di fuori, colorato, solare da cui “Z” è attratto. Un aspetto fondamentale della lavorazione di Antz, e un motivo di orgoglio per i tecnici e i creativi della PDI, sono le scene di acqua, anche queste realizzate con tale realismo da sembrare vere. “I nostri concorrenti - racconta infatti Luca Prasso - credono che abbiamo ripreso della vera acqua, mentre invece non è così. Il prossimo grande passaggio sono gli esseri umani." Come abbiamo visto il cartone sembra ormai ben avviato sulla strada dell’animazione computerizzata. Ma facciamo ancora un salto indietro nel tempo, alle origini dell'animazione e cerchiamo di individuare le analogie e le differenze tra le nuove tecnologie digitali rispetto alle tecniche d'animazione tradizionali, in due dimensioni. La continuità far le due tecniche possiamo trovarla soprattutto nel controllo matematico della luce, del colore e del ritmo, che permette di continuare al meglio la tradizione delle avanguardie artistiche dei primi decenni del secolo. La differenza fondamentale la troviamo nella costruzione spaziale che nel cinema di animazione tradizionale è stata sempre essenzialmente bidimensionale. In realtà, forse una delle maggiori specificità dell’animazione computerizzata è proprio il senso fortissimo della profondità, della terza dimensione. Nell’animazione di oggi è più spiccata la ricerca di realismo che è quello che poi va a sfociare in modo particolare negli effetti speciali. Ma, mentre l’animazione tradizionale rappresentava una realtà "altra", una realtà che aveva senso solo all'interno del film - pensiamo ai personaggi più classici dei cartoni animati - invece l’animazione digitale riproduce al meglio la realtà fisica, normale inserendovi però degli elementi fantastici che la rendono iperreale e fantastica nello stesso tempo.” 229 PARTE 4: MAKING OF 230 THE ADVENTURES OF ANDRÉ AND WALLY B John Lasseter, 1984 Della durata di 108 secondi, è la prima animazione Pixar realizzata con l’aiuto di John Lasseter, animatore della Disney e con l’ausilio della Pixar Image Computer per la composizione digitale in alta velocità. È la breve storia di un androide che incontra un ape gigantesca in una foresta. Primo cortometraggio realizzato completamente in digitale, da questo momento nasce un nuovo prodotto cinematografico, ovvero il film di sintesi, né di animazione né live, che assume sia i canoni del cartoon che quelli del film per creare un universo autonomo e parallelo che si sviluppa nel computer e non sulla pellicola, e che fa della tridimensionalità spinta la sua caratteristica principale. È in sostanza la prima volta che il digitale viene usato come strumento di creazione e non come soluzione di problemi, e dunque mette in scena un mondo fatto di curve morbide e di calde rotondità, ovvero tutto ciò che fino a quel momento era considerato proprio del mondo e della natura, e non dei calcolatori. 231 LUXO Jr. John Lasseter, 1986 Secondo cortometraggio realizzato da John Lasseter per la Pixar Animation Studios, dopo la separazione dalla Lucasfilm Ltd. È un’animazione di 2 minuti e 10 secondi; in essa una piccola lampada da tavolo, Luxo, prende vita e comincia a giocare a palla con il padre, una lampada più grande, fino a che la palla di gomma non si rompe accidentalmente. La piccola lampada saltella tristemente fuori di scena. Poco dopo la lampada-bambino torna con una palla ancora più grande, lasciando la lampada-padre stupita. È stato fatto un ulteriore passo avanti rispetto all’immagine tradizionale, poiché vengono abbandonati i personaggi umani o animali per dare espressività a oggetti quotidiani, esaltando così esclusivamente la trama del film, quale elemento fondante di qualsiasi elemento narrativo. Una storia semplice con protagonisti banali che grazie al digitale assumono dignità ed espressività. Gli snodi delle lampade hanno un ruolo espressivo molto forte, tanto che non hanno nemmeno bisogno di occhi e bocca, in quanto la loro espressività è data dalla rassomiglianza delle loro giunture con quelle degli esseri umani. Nel 1986 Luxo Jr. ha ricevuto una nomination all’Oscar per la categoria dei cortometraggi animati. Inoltre ha vinto importanti premi in molti festival internazionali di grafica computerizzata, compresi l’Orso d’argento per cortometraggi al festival di Berlino del 1987, il primo premio per l’animazione computerizzata in 3D al festival di Annency del 1987, il primo premio del festival internazionale dell’animazione di Hiroshima del 1987, e il Golden Nica per l’animazione computerizzata all’Ars Elettronica di Linz in Austria. 232 RED’S DREAM Jhon Lasseter, 1987 Il film che dura 4 minuti è stato diretto da John Lasseter con la direzione tecnica di Eben Ostby, William Reeves e H.B.Siegel. È un’eccezionale dimostrazione di come sia possibile attraverso l’animazione computerizzata creare storie cariche di emozioni e di intensità visuale pari a quella delle classiche animazioni dei cartoons. È la storia di un piccolo monociclo solitario che sogna un’avventura in un circo durante una notte di pioggia. All’inizio viene sminuito dal goffo clown che lo pedala ma, i giochi del clown sono lontani dalla perfezione e alla fine il monociclo si appropria dello spettacolo recitando meglio del clown, guadagnandosi un caldo e lungo applauso da parte della folla. Red’s Dreams è stato il primo tentativo della Pixar di animazione per mezzo di personaggi flessibili e deformabili. Questa soluzione ha permesso all’animatore di ottenere un maggior controllo creativo sulle manifestazioni emotive dei personaggi, grazie all’uso delle espressioni del viso e al linguaggio del corpo. Inoltre le esigenze create dalla notte di pioggia e dal negozio di biciclette, all’inizio e alla fine del lavoro, denotano uno scenario molto complicato; sistemi a particelle, ombreggiature e mappe per gli spostamenti creano quell’atmosfera tetra che contribuisce ad ambientare il sogno. Il film è stato premiato nel luglio 1987 dalla SIGGRAPH (Special Interest Group on Graphic). 233 TIN TOY John Lasseter, 1988 Per Tin Toy realizzato da John Lasseter sono occorsi circa otto mesi di lavoro per simulare con il computer le espressioni e i movimenti di un essere umano. Il cortometraggio Tin Toy è il banco di prova dei giocattoli digitali alle prese con i capricci di un bambino. Il film segue la storia di Tinny, un giocattolo la cui esistenza viene sconvolta dalla presenza umana di Billy, un neonato che mette a dura prova la tranquillità del soldatino di latta. Per la prima volta entra in scena un personaggio umano, con caratteristiche fisionomiche, di movimenti e atteggiamenti molto simili a quelli di un attore bebè in carne e ossa. Per realizzare Billy gli animatori hanno dovuto studiare per mesi attraverso fotografie e videotape le espressioni e i movimenti di un bambino, quindi hanno costruito lo scheletro elettronico di Billy, ricoprendolo poi di muscoli. Ne sono stati prodotti circa un centinaio per simulare le espressioni della faccia. In questo corto, in cui per la prima volta viene usato il programma RenderMan della Pixar per l’animazione di attori 3D, la gestione dei personaggi e più complicata rispetto ai precedenti lavori di Lasseter, in quanto i soggetti che agiscono hanno una caratterizzazione psicologica particolarmente raffinata: il bambino, con alti e bassi di entusiasmo e sconforto, e il suo giocattolo che camminando suona, hanno un rapporto intenso e complicato di amore e odio, di paura e compassione, per cui il gioco trema alla vista di quell’ammasso gelatinoso che lo vuole prendere, e il bambino freme alla voglia di afferrarlo. Alla fine il giocattolo sceglie il martirio per cui è stato “messo al mondo”, e cioè quello di servire e divertire i bambini. L’Oscar come miglior cortometraggio nel 1988 a Tin Toy consacra il digitale come nuova espressione artistica, alla stregua del cinema tuot court e all’animazione, dando la patente a Lasseter per poter proseguire una carriera di successi oltre che di sperimentazioni. 234 TOY STORY John Lasseter, 1995 Il film, Toy Story, prodotto e creato dalla Pixar Animation Studios (Pt. Richmond, CA, USA) e diretto da John Lasseter della Pixar, già vincitore del premio Oscar, comprende nel cast Tom Hanks per la voce di Woody, un bambolotto di pezza raffigurante un cowboy, e Tim Allen per la voce di Buzz Lightyear, un ranger dello spazio in versione giocattolo, con la musica di Randy Newman, già vincitore del premio Grammy. Di Toy Story si parla molto perché è il primo film non cortometraggio il cui contenuto è interamente realizzato con animazione digitale. Inoltre è il primo film realizzato in collaborazione dalla Disney e da Pixar. Tutti sanno chi è Disney, non molti sanno che Pixar è la società di Steve Jobs, uno dei due papà di Apple. Qual è il nesso tra Disney e Steve Jobs? Il computer multimediale. Non quello che fa girare applicazioni interattive. Quello che produce immagini e suoni di livello professionale per la grande industria dell’Entertainment tradizionale. Abyss, Terminator 2, Jurassic Park. La fanfara della rivoluzione digitale suonava già da tempo nel mondo del cinema. La notizia è che oggi siamo di fronte al primo concerto "a solo", la prima partitura per solo computer. La lunghezza del film e il tempo di realizzazione superiore a due anni hanno dato spazio di manovra al famoso team creativo di Lasseter e ai brillanti scienziati di computergrafica della Pixar. La Disney stessa recita: “Toy Story è un film diverso da ogni cosa che possiate aver visto prima”. Sempre la Disney assicura: “Animazioni realistiche di una profondità, una dimensione e uno stile sorprendente. "Nel scegliere la trama di Toy Story, eravamo interessati a un'evoluzione di TinToy”, riporta Lasseter, "esplorando ulteriormente il concetto che i giocattoli sono vivi. Questo concetto fondamentale non è cambiato. Ma quasi tutti gli altri aspetti sì”. Quando si parla di Toy Story con le persone della Pixar e della Disney, subito puntualizzano che anche con la tecnologia più perfezionata non si può realizzare un buon film. “Penso che la gente non capisca l'importanza dello storyboard”, afferma Lasseter. “Se il progetto funziona ed è divertente, quando si traduce in un'animazione diventa ancora meglio. Ma se non funziona già a livello di storyboard, non funzionerà neanche alla fine”. In effetti, il team ha fermato la produzione del film per due mesi per migliorare la storia, per rendere i giocattoli adulti senza farli diventare troppo severi e per arricchire le relazioni tra i vari personaggi. 235 La Pixar è stata aiutata dalla Disney per rendere migliore la storia e per imparare come si lavora su un progetto di largo respiro, in particolare grazie a Schneider e Tom Schumacher, vicepresidente di produzione. “Il mondo di Toy Story è un mondo caricaturale”, dice Lasseter. “Il pubblico sa che non esiste, ma con il 3D c'è un senso di realtà che è maggiore rispetto alla cel animation. La gente guarderà Buzz e lo riterrà credibile. Ha dei bulloni e delle rifiniture sulla sua tuta spaziale che dicono 'copyright Disney', che sono state fatte perché anche il mio giocattolo le ha. Questa collaborazione tra arte e tecnologia è assolutamente vitale. C'è credibilità grazie alla tecnologia”. Il primo passo della tecnologia è la modellazione. Fondamentalmente, i circa 366 oggetti del film (il letto di Andy, il furgoncino, lo stesso Andy, il servizio da tè della sorella...) sono stati modellati con il software Alias o con l'ambiente di modellazione procedurale della Pixar, MenV (anche se il cane Scud è stato digitalizzato da un modello in creta). MenV, ora arrivato alla quarta generazione, era stato realizzato originalmente per Lasseter da Bill Reeves (che ha ricevuto l'Oscar per Tin Toy insieme a Lasseter) ed Eben Ostby. Un film con ben 1.635 inquadrature diverse che contengono circa 366 modelli elaborati con un software proprietario della Pixar, chiamato Renderman. Un software che gira su 117 stazioni Sun SPARC 20 e che elabora 300 megabyte per fotogramma, per realizzare un processo di renderizzazione durato più di 800.000 ore, con un risultato di output pari a 3 minuti e mezzo di animazione completa per ogni settimana di lavoro dell'intera squadra di animatori. La cosa interessante, è che dietro le immagini che abbiamo visto al cinema non c'è un lavoro mastodontico di animazione, ma lo sforzo di creare un mondo che non esiste e di compiere tutte le riprese al suo interno. Toy Story è il primo film ad essere girato interamente in un posto: il cyberspazio. Quello che segue è quindi un reportage dal set di ripresa che sta tutto nel silicio dei microprocessori. La troupe John Lasseter è il regista. Da giovane, ha lavorato come animatore alla Disney; in seguito si è fatto le ossa sviluppando animazioni in computer grafica con la ILM, la Industrial Light & Magic della Lucas Film. Tuttavia Lasseter ha visto la sua reputazione crescere da quando ha realizzato alcuni cortometraggi con la Pixar che gli hanno valso diversi Awards, tra cui un Orso d'Argento al Festival del Film di Berlino ed una nomination all'Academy Award con il primo film realizzato in computer grafica ad essere ufficialmente designato per un Oscar: Luxo Jr. (1986). Per l'Art Direction è stato chiamato Ralph Eggleston: tra le sue referenze c'è anche il lavoro di animazione Fern Gully, the Last Rain Forest. “Quando venni qua [alla Pixar] dissi a John [Lasseter] che 236 odiavo i computer” dichiara Eggleston. “Ero nella condizione di dover prendere in fretta la decisione se impararne di più circa i computer o semplicemente curare l'art direction dell'opera. In realtà con i computer non è mai facile o veloce: semplicemente si passa da una serie di problemi all'altra. Così decisi di controllare l'art direction lasciando gli altri a preoccuparsi del resto”. La pianificazione del film ha richiesto una progettazione accurata: sono stati realizzati circa 25.000 disegni solo per gli storyboard. Il produttore è Ralph Gugghenheim. “Noi usiamo la nomenclatura tradizionale del cinema... Ma la differenza principale è che qui tutto è dentro il computer”, ha dichiarato. Uno che proprio non sta nella sedia quando parla di Toy Story è Steve Jobs, il quale ha stretto un accordo con la Disney per la produzione di tre film, di cui Toy Story è soltanto il primo. Jobs vede la concreta possibilità, attraverso il successo di questo film, di tornare a essere agli occhi dell'America (e del mondo) il ragazzo pazzo e visionario che aveva inventato il business dei personal computer. Tuttavia, dietro le motivazioni psicologiche ci sono anche quelle più concrete? diventare il novello Irving Thalberg, il ragazzo meraviglia di Hollywood che inventò dal nulla l'impero della Metro Goldwin Mayer. “Io penso che il nostro affare con Disney sia la seconda migliore opportunità imprenditoriale di Hollywood - giusto dietro l'exploit di Spielberg con Digital Domain - e noi cercheremo di realizzare dozzine di film con loro” ha dichiarato. “Noi potremmo avere anche una sola di queste famose partnership ventennali, dove noi dobbiamo fare un solo lavoro fenomenale per poi scambiarci il meglio di ciascuno di noi all'altro partner. E se questo non accade, bene, noi saremo guardati dalle altre case di produzione come uno dei partner più desiderabili con cui collaborare”. Trama e Personaggi Toy Story inizia nella stanza di un bambino, dove i giocattoli si animano quando le persone non ci sono. Il giocattolo preferito da Andy, questo il nome del bambino, è Woody, un pupazzo-cowboy con la cordicella da tirare per farlo parlare. Woody mantiene la legge e l'ordine nella stanza di Andy. Egli è ammirato e rispettato da tutti gli altri giocattoli, almeno fino all'ottavo compleanno di Andy. Quando un nuovo giocattolo viene a sovvertire l'ordine nel mondo di Woody: il suo nome è Buzz Lightyear, un Ranger Spaziale, membro dell'Unità di Protezione dell'Universo, dedito a difendere la galassia contro il malvagio imperatore Zung. Buzz è equipaggiato con un laser, ali jet retraibili e un processore a microchip che gli dà un vocabolario ricercato e ultrascientifico. Il problema è che Buzz non sa di essere un giocattolo. Neanche a dirlo, quindi, è destinato ad avere una crisi esistenziale, mentre il confronto con Woody si profila all'orizzonte. Woody è descritto con 52,865 linee del programma di modellazione. 237 Ci sono 712 controlli di animazione su Woody, 212 sulla sua faccia e 58 soltanto per la sua bocca. 26 sono le texture map, contando anche le texture che servono a riprodurre la polvere sulla sua faccia e sulle sue mani. Buzz non è stato trattato peggio. 34,846 linee di programma di modellazione. Ci sono circa 700 diversi controlli di animazione sul personaggio. Buzz ha 10 luci disposte internamente e 189 texture map diverse dove non è sporco o impolverato. Nelle sequenze dove è inzaccherato, Buzz ha altre 45 texture map che riproducono lo sporco. I dettagli Tutti i modelli per il film comprendono 5 milioni di linee di codice, cioè circa 270 megabyte di testo. Sono stati modellati 366 oggetti per più di 2 anni da un totale di 22 direttori tecnici. Di questi oggetti, 76 erano personaggi. Il lavoro di modellazione ha impiegato più di 10 anni-uomo per essere completato. Realismo quindi, ed in modo certosino. Per intenderci, un albero ha un numero di foglie tra 5.000 e 12.000, ogni ramo ha dalle 50 alle 200 foglie e molti alberi hanno dai 30 ai 60 rami. Si tratta di oggetti che comportano dai 2 ai 5 megabyte di codice. Ci sono dai 100 ai 200 alberi per isolato, circa 1.200.000 foglie. Sono stati utilizzati 8 differenti modelli di automobile nel film, in 12 colori diversi. Si vedono quindi più di 36 auto diverse, non includendo i 4 camion e auto speciali. Sono stati utilizzati 4 diversi tipi di copricerchione e 48 tipologie di sporco applicato alle carrozzerie. Infine sono stati inseriti 21 diversi cartelli stradali, ognuno con una reazione specifica evidente da parte degli equipaggi delle auto. Ostby ha utilizzato MenV per lavorare sul quartiere dove vive Andy, che è suddiviso in cinque aree. “Realizziamo il quartiere scena per scena”, dice Ostby. “Se la telecamera è vicina a una certa zona, la realizziamo in 3D. Se la telecamera è lontana, utilizziamo una rappresentazione più semplice”. Ogni zona del quartiere ha una casa, con strade, prati, automobili, pali della luce... Il dettaglio, nelle riprese ravvicinate, è stupefacente. Per creare l'asfalto della strada, per esempio, lo scienziato della Pixar Loren Carpenter ha fuso insieme molte fotografie di ghiaia e sabbia in modo che la texture apparisse abbastanza irregolare da sembrare reale. “Abbiamo usato una combinazione di tecniche”, riporta Carpenter. “È quasi una magia”. Tra le tecniche usate, ci sono la fusione di coordinate spaziali di colore utilizzando funzioni di rumore per perturbare le coordinate in modo da non renderle coincidenti, e una scalatura delle texture che cambia in funzione della profondità dell'immagine. 238 Per i personaggi, i modellatori hanno usato il software Alias e gli strumenti di patch-editing di MenV. Alias è stato usato per personaggi come Buzz che hanno un aspetto 'fabbricato', mentre MenV è stato utilizzato per i modelli più organici, come Woody e gli umani. Dovendo modellare ogni luogo, scena, particolare e personaggio del film, il team creativo è diventato un ottimo riciclatore, copiando e riutilizzando i modelli. Per esempio, hanno rimpicciolito i piatti nella sala da pranzo di Andy per creare un servizio da tè per una festicciola per bambini. Hanno opportunamente adattato molte parti dei giocattoli mutanti sfruttando parti già realizzate per altri giocattoli. Hanno copiato parti del corpo da alcuni personaggi umani per creare altre persone, cambiando dimensioni e proporzioni per aggiungere varietà. Qualche volta, hanno creato modelli con dettagli incredibilmente complessi, come nel caso dei capelli di Andy e Sid. Altre volte, hanno ridotto il numero di modelli di cui avrebbero avuto bisogno utilizzando gli shader invece di aggiungere dettagli, come nel caso dei segni di pedate sui muri. Gli shader, che descrivono le superfici e definiscono come queste reagiscono alla luce, sono stati usati largamente per macchie, chiazze, gocce, fessure... Mentre gli shader hanno contribuito a rendere credibile il fondale, è il movimento che rende credibili i personaggi. Per prima cosa, il dipartimento responsabile dei layout posiziona i personaggi e la telecamera sul fondale. Una volta approvato il layout, gli animatori iniziano a far recitare i personaggi, dando loro vita. Hanno animato circa 50 personaggi, coordinati da Pete Docter, direttore dell'animazione per Toy Story. L'animazione per tutti i personaggi è realizzata con MenV, utilizzando controlli di animazione inseriti nei modelli. Buzz, per esempio, ha qualcosa come 800 controlli di animazione. Hanno utilizzato un insieme di strumenti per cicli di cammino, per raggiungere e per afferrare oggetti. Invece di assegnare un personaggio a un singolo animatore, la tendenza è di assegnare tutti i personaggi di una certa sequenza allo stesso animatore. I giornalieri garantiscono che ognuno sappia cosa stanno facendo gli altri. Prima di animare un giocattolo, gli animatori guardavano ai materiali con cui quel giocattolo era fatto. Buzz è rigido e legato, è fatto appositamente di sfere e d'incastri. Woody è un bambolotto di pezza flessibile, slegato, impacciato nei movimenti. Gli umani sono creature più grandi e più pesanti, quindi hanno rallentato i loro movimenti. Innanzitutto, animavano il corpo del personaggio, poi realizzavano l'animazione facciale e la sincronizzazione delle labbra. Per creare l'animazione facciale, ogni personaggio principale è stato modellato con punti di deformazione per i muscoli facciali. L'animatore ha potuto quindi tirare in su le labbra di Buzz per creare un ghigno, oppure tirare in su la fronte di Woody per farlo accigliare (Woody ha otto controlli solo per le sopracciglia). 239 L'illuminazione, almeno per questo film, è stato il processo finale prima del rendering. Forse è stata una delle cose più difficoltose. La tipica scena di computergrafica utilizza luci diffuse, da ufficio, oppure luci spot che saltellano dappertutto. Per Toy Story sono state usate luci malinconiche e drammatiche, elementi lampeggianti, luce del giorno, sole brillante... In una sequenza, per esempio, un temporale crea un cielo scuro e grigio con la pioggia che batte su una finestra. Poche riprese dopo, la luce filtra dalla finestra mentre la pioggia diminuisce. Oltre a definire il tempo della giornata, le luci creano effetti drammatici come in un film dal vivo. La stanza di Andy, per esempio, ha luci cariche, calde, per farla sembrare un posto allegro, amichevole, sicuro. È l'impossibilità di posizionare le luci interattivamente, tuttavia, che spingerà alla creazione di un nuovo insieme di strumenti per il prossimo film. La Pixar sta inventando non solo l'arte e la tecnologia per realizzare un film, ma anche il procedimento. ”Tutto ciò è molto più di 150 pubblicità messe insieme”, afferma Karen Robert, che ha lavorato con Heidi Stettner e Peter Nye per creare un sistema software di organizzazione per la produzione. Il sistema contiene ogni elemento informativo sul film, a partire dallo storyboard digitalizzato, e tutti lo usano. “Quando siamo partiti, abbiamo analizzato il processo produttivo e abbiamo scoperto che era qualcosa tra la cel animation e la ripresa dal vivo, ma in ogni singolo aspetto ha un suo spazio differente”, racconta Lasseter. Per l'illuminazione, la grafica 3D è simile alle riprese dal vivo. La storia e il progetto sono simili alla cel animation. “Ci siamo comportati come se avessimo dovuto realizzare un sistema operativo”, afferma Porter. “Dovevamo considerare l'impatto dei cambiamenti e tenere traccia delle varie versioni”. Prendiamo per esempio gli adesivi di Buzz, con i loro colori attentamente bilanciati. “Non c'è modo di scrivere una superficie che riesca a gestire qualsiasi luce”, spiega Porter. Così, cosa succede se, dopo che sono state approvate tre mesi prima due dozzine di riprese di Buzz che stanno per essere inserite nel film, ci si accorge in una nuova scena che l'adesivo ha un riflesso brillante che è chiaramente non corretto? Si tiene traccia della nuova versione. “Il lavoro degli animatori e dei direttori tecnici non è molto cambiato rispetto alle animazioni più corte, ma la gestione della produzione sì”, afferma il coproduttore Ralph Guggenheim. " Ombreggiatura e texture Sono state realizzate circa 2000 texture map. Molte sono state dipinte digitalmente, ma alcune sono state fotografate e digitalizzate. I motivi della carta da parati, per esempio, sono stati disegnati a mano appositamente dal team di grafici. Sono state scritte circa 1.300 funzioni di ombreggiatura per Toy Story. 240 Lo shader per la pelle umana è una funzione che riesce a rendere bene l'aspetto di una delle superfici più complesse. La pelle umana è stata riprodotta con 10 strati: sangue, epidermide, primo strato di secrezione, secondo strato di secrezione, terzo strato di secrezione (labbra), peli e capelli, ruvidità, rughe, grinze. Il mobilio utilizza una grande varietà di texture map per dare l'apparenza di solidi composti di legni diversi che hanno perso la lucidatura in qualche punto o che hanno le superfici leggermente deformate dai chiodi o erose e scheggiate ai bordi. Ci sono 32 diversi edifici. Partendo dalla considerazione che sono stati usati 4 strati per ogni parete, si può desumere che siano state utilizzate più di 500 texture map solo per i materiali di costruzione. L'ombreggiatura che ha richiesto più tempo è stata la capigliatura di Andy: dall'inizio alla fine ha richiesto 9 mesi. Illuminazione Sono state utilizzate dalle 6 alle 32 fonti di luce per ogni ripresa. L'effetto luce più complicato sono state le orecchie di Mr. Potato: 5 singole luci che risplendono solo sulle sue orecchie. Ci sono poi controlli speciali per posizionare i riflessi sulle superfici di paillette di Bo Peep e sul casco spaziale di Buzz. Rendering Il software di rendering ha dedicato approssimativamente mezzo milione di operazioni aritmetiche elementari su ogni singolo pixel, operazioni come addizionare, moltiplicare, controllare e spostare i colori. Il totale dei fotogrammi è di circa 160 miliardi di pixel, pari a 600 miliardi di byte; come dire 1200 CD-Rom pieni di dati non compressi, che messi uno sopra l'altro fanno una colonna di circa 1 metro di altezza, senza custodie ovviamente. È stato necessario processare circa 34 terabyte di file attraverso il software proprietario di Pixar RenderMan per il rendering finale. Sebbene lo spazio di immagazzinamento totale del lavoro necessario nelle diverse fasi di elaborazione del film sia di circa 2 terabyte, i fotogrammi poi utilizzati risultano pari a circa 500 gigabyte. Il processo di produzione All'inizio i modellatori hanno creato sculture e modelli computerizzati in 3D del set e dei personaggi. Alcuni di questi hanno preso vita come diagrammi creati attraverso un software basato su un linguaggio di programmazione, chiamato Menv (Modeling Enviroment), che impiega una tecnica di creazione dei manichini che assomiglia alla modellazione dell'argilla. 241 Altri, come il cane Scud, sono stati prima scolpiti nell'argilla e quindi digitalizzati con il Polhemus 3 Space Digitizer, con il quale l'artista tocca i punti chiave sul modello per creare una descrizione tridimensionale della superficie sul computer. A questo punto i controlli delle articolazioni sono stati codificati in ogni modello, permettendo agli animatori di coreografare i movimenti e di far combaciare i movimenti facciali e della bocca con il dialogo. Scud, per esempio, ha 43 controlli soltanto sulla sua bocca per permettergli di ringhiare minacciosamente e mostrare i denti. Mesi dopo gli attori di Hollywood hanno registrato le loro parti di dialogo, tra questi anche Tom Hanks per Woody e Tim Allen per Buzz. “Per una ripresa di 8 secondi è stata necessaria anche una settimana di lavoro per far combaciare l'espressione facciale con la colonna sonora”, dice Eliot Smyrl, un animatore. “Non è soltanto un problema di seguire i movimenti della bocca; bisogna far apparire l'espressione di quel personaggio come se realmente sentisse emotivamente ciò che dice. Abbiamo visto i video di Tom Hanks e di Tim Allen mentre registravano il dialogo... Noi analizziamo molto attentamente le attitudini espressive degli attori per ottenere degli indizi, dei segni su cui costruire le espressioni dei personaggi”. In seguito alcune riprese di animazioni a bassa risoluzione sostituiscono i disegni degli storyboard e, per la prima volta, Lasseter può iniziare a vedere come apparirà il suo film. “È abbastanza difficile scrivere una buona storia, ancor di più con i limiti del nuovo medium, ma finalmente ora potremo vedere ciò che i nostri arnesi possono fare e ciò che non possono fare”. Una volta realizzate le riprese sommarie, subentra la fase di shading. Per raggiungere l'effetto desiderato sono stati aggiunti diversi strati di colorazione alle immagini generate dal computer lavorando su un monitor Sony a correzione di colore con Adobe Photoshop e Amazon. Per questo processo, Pixar ha sviluppato Unwrap, un programma software che permette a superfici complesse in 3D di essere proiettate su superfici piatte, simile all'effetto di un proiettore di mappe Mercatori. Con queste caratteristiche un artista può estrapolare la faccia di un personaggio, disegnare caratteristiche come pori e foruncoli e quindi riproiettare il risultato sul modello. La fase successiva è l'illuminazione, forse la più difficile di tutte. Così tanto che durante le fasi di montaggio l'illuminazione ambientale viene fornita da una sola sorgente, mentre nel film definitivo la scena viene illuminata digitalmente come avviene su un vero set di ripresa. “Al contrario dei veri set di ripresa, noi possiamo controllare le luci e le ombre indipendentemente l'una dall'altra. Il problema classico di tutti i cineasti è che 20 luci producono 20 ombre. La cosa meravigliosa delle riprese sintetiche è che tu puoi avere solo le ombre che vuoi” dichiara Ralph Gugghenheim. 242 Con tutti gli elementi assemblati il film è pronto per entrare nella render farm, dove il banco di 300 processori Sun della Pixar farà il rendering finale del film. Dopo che il processo ha raccolto la massiccia quantità di informazioni digitali per determinare l'animazione, la modellazione e l'illuminazione, il software Renderman produce il risultato complessivo, impiegandoci da 2 a 15 ore per fotogramma. Le immagini finali sono poi trasferite al sistema di video editing Avid, dove Lasseter ed il suo team fanno il montaggio digitale di Toy Story. Il risultato viene memorizzato in un array di hard disk che sarà usato per creare la pellicola finale da 35mm. La fabbrica delle invenzioni La Pixar non ha sfruttato soltanto la tecnologia esistente. Da sempre, apporta importanti contributi alla computergrafica e all'animazione. C'è una catena di sviluppo che parte dalla University of Utah, passa attraverso il New York Tech, la LucasFilm e, infine, arriva alla Pixar. Per anni il gruppo è cresciuto mentre sviluppava tecnologia e inventava gli algoritmi che hanno reso la computergrafica utile per l'industria cinematografica. Ecco alcuni dei contributi targati Pixar: Z-Buffer: è una tecnica per determinare quale superficie è visibile. È ora comunemente implementata nell'hardware. Texture mapping: è la tecnica di applicare texture, immagini o disegni direttamente sulla superficie per aumentare la complessità visuale. RGB painting: è il primo sistema di disegno completamente a colori e il primo sistema di disegno offerto commercialmente. Alpha channel: nell'immagine vengono incorporate delle parti trasparenti per comporre molte immagini in una sola. È utilizzato nell'arte grafica e nell'industria cinematografica. Matte algebra: è una matematica formalizzata per una varietà di operazioni di composizione. È utilizzata nell'industria cinematografica. Two-pass warping: è un metodo veloce per ruotare, curvare o deformare intere immagini bitmap. Volume imaging: le immagini vengono create da porzioni multiple d'immagini 2D. È utilizzata nell'industria medica. Particle system: il sistema particellare è un metodo per generare un grande numero di piccole primitive. Viene usato per realizzare immagini di fuoco, alberi, erba... Shading language: è un linguaggio per descrivere l'apparenza di una superficie e la sua interazione con la luce. Permette un controllo creativo sugli effetti speciali. Stochastic sampling: è una tecnica di anti-aliasing con interessanti proprietà statistiche, che permettono di risolvere un certo numero di problemi di rendering. 243 Motion blur: è una tecnica per generare immagini che sono sfocate nella direzione del moto, importantissima per mischiare computergrafica e riprese dal vivo. È la tecnologia che permette l'attuale diffusione dell'uso della computergrafica negli effetti speciali. RenderMan: molte delle tecniche precedenti sono state inserite in questo sistema di rendering capace di gestire immagini estremamente complesse. Questo prodotto ha reso la computergrafica praticabile per l'utilizzo nei film. MenV: è il sistema di animazione utilizzato per realizzare Luxo Jr. e le animazioni successive della Pixar. Questo software dimostra a chiunque il reale potenziale dell'animazione al computer. 244 LA PRINCIPESSA MONONOKE Hayao Miyazaki,1997 In Giappone, la Studio Ghibli ha usato la tecnologia digitale per potenziare, per la prima volta, il ricco aspetto da acquerello fatto a mano dei lavori del noto animatore Hayao Miyazaki, nel film d’animazione La Principessa Mononoke. Invece di imitare le formule di successo create dai più noti giganti statunitensi della computergrafica, queste nuove realtà hanno attinto alle loro radici culturali per ideare soluzioni innovative nell’animazione per le produzioni cinematografiche Il regista Hayao Miyazaki ha conquistato il pubblico cinematografico giapponese con animazioni uniche che, con i loro dettagli visceralmente naturalistici e colori vibranti, possono essere descritte come opere d’arte. La sua tecnica, affinata nel corso di anni di lavoro come animatore, ha trovato piena realizzazione negli anni ’80 dopo aver lanciato la Studio Ghibli. Da allora, Miyazaki e la Studio Ghibli hanno prodotto una serie di successi, inclusa una delle loro creazioni più costose, Mononoke Hime (La Principessa Mononoke). Liberamente ispirato al folklore giapponese, Mononoke Hime è un film d’animazione in stile anime che racconta la guerra tra gli dei bestia della foresta e una civiltà industriale invadente durante il difficile periodo anarchico del XV secolo in Giappone. Involontariamente, Ashitaka, giovane guerriero di una tribù abitante nella foresta, uccide uno degli dei che aveva assunto la forma di un cinghiale infuriato. Come conseguenza dell’assassinio, una maledizione sotto forma di letale cicatrice inizia a consumare il corpo di Ashitaka, costringendolo a cercare i devastatori della foresta, che secondo lui possono essere in grado di ribaltare il suo destino mortale. Durante la sua ricerca, incontra la principessa Mononoke, una donna allevata nella foresta dai lupi, che ha giurato di fermare gli industrializzati e di restituire la foresta agli dei e ai suoi legittimi abitanti. Quando il film è uscito in Giappone nel 1997, ha battuto i record d’incassi giapponesi, diventando uno dei due film (l’altro è Titanic) che superò la barriera dei 150 milioni di dollari (300 miliardi di lire). Mononoke Hime, la cui realizzazione ha richiesto più di tre anni di lavoro ed è costata 20 milioni di dollari (40 miliardi di lire), ha segnato un nuovo standard per Miyazaki e la sua arte. È stata la prima volta che il suo lavoro, in precedenza rigorosamente disegnato a mano, è stato affiancato dall’uso della computergrafica. Anche se i 135 minuti di film contengono comunque più di 144 mila scene disegnate a mano, ognuna delle quali è stata controllata e in 245 alcuni casi ritoccata dallo stesso Miyazaki, circa un decimo della produzione include immagini generate al computer. Molte di queste sono state create solo con strumenti di ink and paint digitali. La porzione rimanente del lavoro in CG ha fatto uso di texture mapping, modellazione e rendering 3D, morphing, creazione di particelle e compositing digitale. Il risultato, dice Stephen Alpert, responsabile della distribuzione internazionale alla Tokuma Shoten, il gruppo a cui appartiene la Studio Ghibli, è un movimento più fluido e realistico rispetto ai tipici film di anime. L’integrazione della CG Nella produzione di Mononoke Hime, l’intenzione è stata quella di usare la computergrafica per rafforzare lo stile naturalistico ed emozionale per il quale Miyazaki è conosciuto. Essenzialmente, il regista ha voluto immagini digitali che non sembrassero computergrafica. L’obiettivo, secondo Yoshinori Sugano, direttore della CG, era di conformare le immagini in computergrafica al livello di realismo mostrato dall’animazione tradizionale. D’altra parte, lo studio voleva ottenere la solidità e la presenza che è possibile raggiungere solo con la computergrafica. Per esempio, la tecnologia si è dimostrata inestimabile per creare un senso di profondità, spazio e velocità quando Ashitaka e la sua cavalcatura inseguono il dio-cinghiale. In questa scena in CG, la telecamera si muove attraverso lo sfondo 3D per simulare la cavalcata selvaggia e spericolata dal punto di vista di Ashitaka (un personaggio 2D). Ciò ha permesso agli animatori di gestire più facilmente il movimento di tutti gli elementi della scena. Gli sfondi 3D del film, però, tendono a essere meno dettagliati di quelli disegnati dagli artisti, perché le texture hanno perso un po’ di dettaglio quando sono state mappate sul modello 3D del terreno. Un altro caso dove il 3D domina la scena è durante l’attacco del dio cinghiale, con le sue appendici simili a serpenti che divorano tutto sul loro percorso. La computergrafica è stata usata estensivamente anche per rappresentare il viaggio surreale del dio semitrasparente “Viaggiatore della Notte” e i relativi effetti di particelle e d’illuminazione, che sono stati creati usando gli strumenti Particles inclusi in Softimage. Inoltre, le immagini 3D sono state usate in modo non invadente durante il film per ottenere effetti speciali di morphing, particelle e illuminazione. 246 Integrare in modo invisibile le immagini 3D con l’animazione tradizionale conservando nello stesso tempo l’aspetto di disegnato a mano si è dimostrato particolarmente difficile. Per facilitare quel compito, la Studio Ghibli è diventato uno dei primi utenti di Toon Shader per Mental Ray, software sviluppato dal gruppo Softimage Special Projects (di cui fanno parte diversi italiani) che poi è stato incorporato nel pacchetto Softimage 3D. Toon Shader ha permesso d’imitare lo spessore del colore, i contorni netti e le altre caratteristiche dell’animazione 2D di Miyazaki usando i modelli 3D creati in Softimage3D su workstation Indigo2 della SGI. Tutti gli elementi 3D, insieme alle immagini e sfondi 2D, sono stati realizzati separatamente e poi composti digitalmente usando Flint della Discreet. Mononoke Hime segna la prima volta che questa tecnica è stata utilizzata internamente dalla Studio Ghibli. L’uso della tecnologia digitale non sminuisce il valore artistico o la qualità del film. Uno dei motivi, probabilmente, è il fatto che il regista ha mantenuto un controllo diretto su ogni aspetto, incluse le immagini in computergrafica. L’entrata nel mondo digitale di Miyazaki è stata caratterizzata da piccoli passi fatti con estrema attenzione ed equilibrio, per non distrarre dal suo stile tradizionale e così popolare. E anche se quei passi sono stati piccoli, Mononoke Hime è la prova che hanno comunque portato a un successo. 247 ANTZ Tim Johnson,1998 ANTZ rappresenta il debutto della neonata DreamWorks nel campo dell'animazione digitale (come a sua volta aveva fatto la Disney con Toy Story), in collaborazione con la PDI. Il risultato è un lungometraggio di ottima fattura, sia per quanto riguarda la tecnica di animazione utilizzata, sia per la sceneggiatura, la caratterizzazione di personaggi e la regia. Si è ottenuto un tutto omogeneo e continuo nella narrazione, con colpi di scena e momenti divertenti (alcuni dei quali veramente surreali e resi perfettamente grazie all'interpretazione di Woody Allen e dell'ottimo Oreste Lionello per l'edizione italiana). Il tema del film è fortemente improntato sul sociale, rimarcando la necessità di definire la propria personalità, per non annullarsi nel seguire scimmiescamente la massa. Z è una formica operaia che lavora 12 ore al giorno scavando terra per realizzare un tunnel. E' afflitto da problemi di identità: quando sei il figlio di mezzo in una famiglia di 5 milioni non ricevi molte attenzioni... mio padre se n'è andato che ero ancora una larva...' si autocommisera Z sul lettino dello psicoanalista. Non abbastanza coraggioso per essere un soldato ed allo stesso tempo incapace di sentirsi parte di una comunità che gli sembra agisca passivamente agli ordini della Regina madre e del Generale Mandibola. Quest'ultimo, decisamente dittatoriale, ha in mente di eliminare l'intera comunità delle formiche operaie per generare una nuova colonia di insetti soldati, perfette macchine da guerra ubbidienti ai suoi voleri. Innamoratosi dell'affascinante principessa Bala, figlia della Regina madre ed erede al trono, Z si trova costretto per amore a combattere le temute termiti. Tornato vincitore, unico sopravvissuto dalla cruenta battaglia, diventerà, senza volerlo, un modello di autonomia ed indipendenza per tutte le formiche operaie e per la stessa principessa. Sarà lui infine a guidare la rivolta contro il Generale Mandibola e a fare così riacquistare la libertà all'intera colonia d'insetti. Punto di forza del lungometraggio è sicuramente l'animazione dei visi: appaiono molto 'naturali' e 'umani', ricchi di espressioni; quel che colpisce è che non ci sono in realtà gli atteggiamenti estremi da cartoons che siamo stati abituati a vedere finora. La recitazione dei personaggi acquista così tutta un'altra dimensione, forse più efficace e sicuramente più adatta a questo lungometraggio e al suo significato di fondo. Un esempio per tutti viene dalla realizzazione del Generale Mandibola, un militare altezzoso e ipocrita, abilissimo stratega nel perseguire i propri obiettivi di conquista e di 'epurazione sociale’(intende infatti 248 ripulire la colonia da tutti gli "elementi deboli" progettando e arrivando quasi a compiere uno sterminio di massa). I movimenti, la struttura del corpo, gli atteggiamenti del volto sono perfettamente fluidi e calibratissimi sulla natura del personaggio. Per rendere attraente Z agli occhi di un pubblico adulto, Katzenberg ha creato un personaggio che è la controfigura di Woody Allen, e ha fatto doppiare tutte le formiche da attori famosi: Sharon Stone è Bala, Gene Hackman il generale Mandible e Sylvester Stallone è Weaver, l'amico di Z. Sullo sfondo di scenari tridimensionali ispirati al lavoro dell'illustratrice per bambini Mary Grand Prè, dell'artista inglese Andy Goldsworthy, del padre del modernismo catalano Antoni Gaudì, i personaggi si muovono come attori in carne e ossa. Le citazioni si sprecano, da Metropolis a 2001: Odissea nello spazio, a Starship Troopers, fino al ballo di John Travolta e Uma Thurman in Pulp Fiction. C'è perfino Z che affonda in una goccia d'acqua come il bel Di Caprio nell'Atlantico glaciale. Scene di grande impatto sono l'apertura del film (ove in controluce si disegnano i profili di palazzi che si rivelano poi come steli d'erba), la scena della 'palla da demolizione' e l'invasione dell'acqua nella colonia (una realizzazione digitale di grandissima efficacia e realismo). Nel marzo 1996, la DreamWorks SKG (Spielberg, Katzenberg e Geffen), la più giovane casa di produzione dell'industria cinematografica statunitense, si è unita alla Pacific Data Images (PDI), società leader nel settore dell'animazione digitale e degli effetti speciali visivi, con l'obiettivo comune di produrre pellicole di animazione computerizzata. Z la formica segna il debutto di questa joint-venture. La nascita di Z la formica risale di fatto al 1991, anno in cui la divisione animazione della PDI ha ideato il progetto. All'epoca, Tim Johnson ha proposto insieme ai suoi collaboratori di realizzare un film d'animazione ambientato in un mondo in miniatura popolato da insetti. Negli anni a seguire, il regista ha continuato a lavorare allo sviluppo della pellicola, allora intitolata Lights Out, dandole varie forme. Nel novembre 1995, Johnson ha sottoposto la sua idea all'attenzione di Penney Finkelman Cox e di Sandra Rabins della DreamWorks e da questi ha appreso che, per combinazione, Nina Jacobson, allora produttore esecutivo della DreamWorks, stava portando avanti un progetto su un film ambientato in un formicaio, opportunamente intitolato Ants (Formiche). Date le forze che entrambe le parti mettevano in campo, DreamWorks e PDI si sono immediatamente rese conto del vantaggio offerto da una loro collaborazione. “La PDI è stata per anni all'avanguardia nel settore dell'animazione computerizzata e con Z la formica porta questo genere ai massimi livelli” afferma Jeffrey Katzenberg, che della DreamWorks è uno dei 249 soci di maggioranza, oltre che responsabile del settore animazione dello Studio. “Realizzare questo film senza il loro supporto creativo e tecnologico sarebbe stato impensabile; noi della DreamWorks eravamo entusiasti dello spirito di collaborazione e della voglia di sperimentare che ci hanno animati tutti durante l'arco intero di questa produzione". Sebbene Z la formica, secondo film di animazione interamente digitale mai realizzato finora, si incentri sulle vicende di animaletti minuscoli come sono le formiche, esso rappresenta un gigantesco passo avanti nel suo genere. Attraverso l'impiego di un software ideato dalla PDI, del quale la società possiede l'esclusiva, il film introduce alcune innovazioni significative in ambiti da sempre considerati problematici quali l'animazione dei volti, le sequenze di massa e la simulazione dell'acqua. Né va dimenticato che il soggetto, presentando il mondo osservato dal punto di vista di una formica, ha posto difficoltà del tutto nuove. “Avendo a che fare con delle formiche, abbiamo cercato di visualizzare il mondo secondo la loro prospettiva” spiega il regista Tim Johnson. “Anche gli oggetti più banali si modificano enormemente se ci si abbassa al punto di osservazione di una formica. Il problema non è quanto sia piccolo il nostro mondo, ma quanto sia grande il loro”. “I computer offrono grandi risorse all'espressione artistica e oggi abbiamo appena cominciato a sfruttare le potenzialità dell'animazione computerizzata come genere cinematografico” precisa Darnell. “Non stiamo cercando di imitare la realtà o di copiare la tradizionale animazione bidimensionale. Il computer consente ai personaggi e alla macchina da presa di muoversi in uno spazio tridimensionale, il che induce lo spettatore a lasciarsi coinvolgere dalla storia più di prima”. Nella produzione del film, ad ogni modo, l'impiego delle tecnologie moderne è stato preceduto dalla stesura degli storyboard, che prevede l'utilizzo di alcuni strumenti storici dell'animazione, cioè carta e matite. “La pratica usata nello sviluppo dello storyboard è ancora quella messa a punto nel lontano 1929” afferma Randy Cartwright, supervisore di questa fase della lavorazione. “Si adoperano ancora fogli da disegno, matite colorate, puntine per la mappatura e tabelloni. Quindi, anche se Z la formica fa ricorso a tecnologie d'avanguardia, gli storyboard sono stati realizzati esattamente con le stesse modalità dei primi film d'animazione; per questa fase non è ancora stata trovata una tecnologia migliore”. Il processo viene avviato suddividendo il film in tre atti, che vengono successivamente scomposti in sequenze. Ogni sequenza viene poi suddivisa ulteriormente in una serie di inquadrature, ognuna delle quali rappresentata in uno o più storyboard. Z la formica si compone di almeno 1206 inquadrature, che hanno richiesto l'esecuzione di parecchie migliaia di tavole. La fase successiva consiste nella realizzazione di una bobina ottenuta digitalizzando le 250 varie tavole con uno scanner e montandole in sequenza. La bobina è completata solo quando vengono aggiunte le voci, altro elemento fondamentale all'animazione. In alcuni casi si impiegano voci provvisorie, sostituite poi dalle voci originali al momento della registrazione definitiva. Z la formica, nella versione originale, riunisce un eccezionale cast di attori di fama internazionale che hanno prestato la voce ai suoi personaggi: Woody Allen, Dan Aykroyd, Anne Bancroft, Jane Curtin, Danny Glover, Gene Hackman, Jennifer Lopez, John Mahoney, Paul Mazursky, Grant Shaud, Sylvester Stallone, Sharon Stone e Christopher Walken. “Uno degli aspetti più divertenti di Z la formica è proprio il cast delle voci” afferma il produttore Brad Lewis. “Pensare che siamo riusciti a scritturare tutti gli interpreti che avevamo in mente!”. “E' stato bellissimo collaborare con questi grandi artisti,” aggiunge Patty Wooton “che hanno saputo mettere tutti se stessi nei personaggi doppiati. Vederli al lavoro è stato fantastico”. Benché veterani nel mondo dello spettacolo, tutti i grandi interpreti del film sono al debutto in una pellicola d'animazione. “Le registrazioni hanno messo in luce la professionalità di tutti gli attori con cui abbiamo lavorato” racconta il regista Eric Damell. “A differenza del solito, questa volta non si trovavano su un set al fianco di altri colleghi, dovevano recitare le battute a un lettore che provvedeva a dar loro gli attacchi. Si sono affidati interamente alle nostre direttive, ma è stato incredibile constatare con quanta facilità e sveltezza abbiano poi cercato e sperimentato alternative di loro invenzione”. Il ruolo di Z, la formica che sogna di non perdere la propria individualità malgrado viva in una società regolata dal conformismo, è stato scritto appositamente per Woody Allen. Z è una formica che si guarda intorno e pensa che quello che vede non faccia per lui... Nel mondo irreggimentato della colonia, tutto quanto lo mette a disagio. Z decide di ribellarsi al sistema delle caste che vige nella colonia allorché si innamora della bellissima e viziatissima principessa Bala, doppiata da una delle interpreti più famose del cinema americano: Sharon Stone. Fidanzata per forza con un generale squilibrato, Bala vive in un mondo che oltre un certo limite si chiude. Poi incontra Z, intrappolato come lei, ma dalla propria infima posizione sociale. Il destino unisce i due, che sognano entrambi un mondo più grande e più bello e che alla fine, riuscendo a sottrarsi ai ruoli che la società ha affibbiato a ciascuno di loro, diventano eroi. Bala è destinata ad ereditare il trono di sua madre, prospettiva a tutta prima fantastica se non fosse che, in quanto formica, per lei significa ereditare il compito di sfornare milioni di pargoli ogni giorno. 251 Quindi, proprio come Z, che non è esattamente entusiasta della sua vita di operaia, anche Bala dall'altro lato del formicaio vive lo stesso tipo di frustrazione. Una dei più gravi motivi di scontento per Bala è il suo fidanzamento con il militare più importante della colonia, il severo e maniacale Generale Mandible, interpretato da Gene Hackman. Se il Generale Mandible è il peggior nemico di Z, il suo migliore amico e alleato è Weaver, un soldato al servizio del tremendo Generale. Sylvester Stallone, che gli presta la voce, racconta di esser stato convinto a partecipare al progetto da Jeffrey Katzenberg, al quale è legato da una amicizia di vecchia data. Per Z, Weaver è la voce della coscienza. Weaver non riesce a capire perché il suo amico si lamenti sempre di tutto. Poi i due si scambiano i ruoli e il soldato scopre di amare il lavoro della formica operaia. Così si guarda intorno e pensa che in fin dei conti è bello poter scegliere nella vita. Il rapporto che lega Weaver e Z è un'amicizia tipo Uomini e topi. Weaver è grosso e forte, ma non usa la sua forza per sottomettere gli altri. Diciamo piuttosto che ha il fisico di un leone e il cuore di un agnellino, una combinazione che, credo, risulta sempre molto interessante. Quando Weaver scambia il proprio lavoro con Z, non solo intraprende una carriera nuova, ma si innamora anche di Azteca, graziosa formica operaia doppiata da Jennifer Lopez. Azteca è convinta di lavorare per il bene della colonia ed è molto soddisfatta della propria esistenza. Ma quando Z e Weaver si scambiano i ruoli e lei e Weaver si innamorano, comincia a capire il senso dei discorsi di Z e finisce per prendere parte alla ribellione. A capo della colonia siede la Regina, alla quale presta voce la grande Anne Bancroft. La regina non fa molto, a parte naturalmente sfornare bambini e comandare su tutti. Un altro premio Oscar, l'attore Christopher Walken, si è unito al gruppo di interpreti dando voce al colonnello Cutter, aiutante e braccio destro del generale Mandible. La voce di Christopher è quella di un militare che obbedisce prontamente agli ordini. Ma con l'evolversi della vicenda, il devoto soldato arriva a comprendere che l'idea della colonia perfetta che ha il generale Mandible, alla fin fine, potrebbe non essere così perfetta. Cutter inizia con l'atteggiamento di chi va all'attacco, ma quando si rende conto di cosa sta accadendo simpatizza sempre più con il nemico. Smette di obbedire istantaneamente agli ordini e riflette su quello che gli succede intorno. Le formiche non sono gli unici insetti rappresentati in Z la formica: Dan Aykroyd e Jane Curtin interpretano infatti due vespe di nome Chip e 252 Muffy. Due vespe, nel senso sia letterale che figurato del termine, perché sono proprio piantagrane. Gli altri illustri doppiatori di Z la formica sono Danny Glover, che interpreta Barbatus, vecchio soldato che prende Z sotto la sua ala protettrice mentre marciano in battaglia; Grant Shaud nel ruolo del caposquadra delle formiche operaie, il tipico piccolo imprenditore che tenta di migliorare le proprie entrate; John Mahoney nella parte di Drunken Scout, che riempie la testa di Z con le sue storie sul paradiso di Isectopia, e Paul Mazursky, psicologo di Z. La scena più drammatica è sicuramente quella dell’inondazione, nella quale a Z viene offerta l’opportunità di diventare un eroe. In queste scene, la PDI mette in luce una delle sue principali innovazioni per questo film: un simulatore d’acqua. Il renderer dell’acqua ne prende in considerazione l’intero volume e usa singole particelle per creare striature nel volume in modo da enfatizzare la sensazione di movimento. La creazione dell’acqua “Abbiamo preso coscientemente la decisione di realizzare questo film come quelli ripresi dal vivo”, dice Wooton. Di conseguenza, sono stati inclusi fenomeni naturali come l’acqua, oltre a effetti tipici della reale macchina da presa come i lens flare. Inoltre, gli artisti della PDI hanno preso in prestito un’idea dai film dal vivo e dall’animazione tradizionale, creando matte painting (sfondi bidimensionali dipinti su vetro) per alcuni fondali di Antz, invece che costruire intere location con modelli 3D. Il sistema di simulazione dell’acqua è stato sviluppato principalmente da Nick Foster come tesi di dottorato quando studiava alla University of Pennsylvania. “La cosa migliore del sistema di Nick è che si è concentrato sulle necessità dell’animazione, non su una resa fisicamente accurata al 100 per cento”, spiega Ken Bielenberg, supervisore degli effetti. Spiega Foster: “La base della mia tesi era che nell’animazione al computer ci sono i campi di altezza che possono comportarsi come l’acqua, ma non fanno spruzzi, o i sistemi di particelle che possono seguire movimenti in 3D, ma non assomigliano all’acqua. Il nostro obiettivo era cercare di ottenere la totale libertà dell’acqua reale e calcolarla in tempi sufficientemente rapidi per poterla inserire in una sequenza di tre minuti in un film”. Bielenberg aggiunge: “Nick ha ideato un modo intelligente di semplificare le equazioni della fluidodinamica in modo da poterle usare in produzione, altrimenti sarebbero necessarie settimane per simulare l’acqua. Usiamo il suo sistema per creare praticamente qualsiasi tipo d’acqua, da scene di oceani, a scene di laghi, ruscelli che scorrono, spruzzi, grandi gocce d’acqua, gocce piccole, nebbia, schiuma...”. L’acqua fluisce dal simulatore mediante “manicotti”. Se una scena richiede un 253 muro d’acqua, viene usata una serie di manicotti; per un rubinetto, viene usato un solo manicotto. Per controllare il posizionamento, la direzione e la forma del flusso d’acqua, il team degli effetti, sfruttando il fatto che il comportamento dell’acqua è basato sulla fisica, ha creato un set di strumenti realistici. Hanno fornito agli animatori una libreria di oggetti già pronti, come un muro ruvido, un pavimento da interni e delle rocce, anche se gli animatori sono liberi di sviluppare i propri oggetti e superfici. In entrambi i casi, nessuno deve preoccuparsi d’impostare numeri per controllare aspetti come l’attrito, la viscosità, il volume, ecc. Un animatore inizia usando questi oggetti e altri modelli 3D per costruire. Dato che la storia si svolge sia sopra che sotto la superficie, l’illuminazione del film varia da scene scure e primi piani di singole formiche sotto la luce del sole. Per le pareti laterali e il soffitto del mondo sotterraneo è stata usata la tecnica del matte painting; le strutture in primo piano sono modelli 3D. In alcune scene ambientate sull’acqua, troviamo Z e varie altre formiche, le cui riflessioni e immagini sott’acqua sono possibili grazie al simulatore di fluidi della PDI, che offre dati reali in 3D invece di limitarsi a generare campi di altezza per creare l’acqua. Un set, cioè un modello 3D dell’ambiente, per ospitare, controllare e dirigere la simulazione. Per creare un fiume, per esempio, l’animatore modella un canale con la forma del fiume per contenere l’acqua, poi posiziona manicotti alla sorgente. Per creare turbolenze e schiuma nell’acqua, è sufficiente posizionare rocce nel letto del fiume. Per spruzzi più grandi, l’animatore può posizionare manicotti dietro le rocce, impostandoli in modo che si attivino quando l’acqua del fiume li raggiunge. Per mostrare sullo schermo dove fluisce l’acqua generata dal sistema matematico, vengono usati come indicatori le particelle. Nel 'mare' di Z la formica il pubblico può vedere una continua interazione in movimento tra i riflessi sull’acqua e le rifrazioni sotto l’acqua, con l’aggiunta di un po’ di schiuma che galleggia sulla superficie. Quest’acqua è molto dettagliata e stilizzata per adattarsi allo stile del film. Lo stesso si può dire degli altri effetti visuali usati in Z la formica, come la polvere, anch’essa caratterizzata da movimenti realistici e un aspetto stilizzato. Per creare la polvere che si vede in più di 200 scene, il team degli effetti si è ancora affidato a Dynamation, uno dei pochi programmi commerciali usati nel film. Effetti come le onde di calore e i lens flare, invece, sono stati creati con gli strumenti proprietari di manipolazione 2D delle immagini della PDI. Una delle tecniche usate è stata l’animazione con morphing, non per effettuare trasformazioni, ma semplicemente per muovere pixel in modo da aggiungere atmosfera e dare un senso di profondità a una scena. 254 Come capita spesso nei film dal vivo e nell’animazione tradizionale, la PDI ha usato il matte painting principalmente per le scene in campo più lungo e, in questo modo, ha risparmiato ore di tempo per la modellazione e il rendering. L’alta fedeltà di questi disegni di sfondo usati in Z la formica è opportunamente bilanciata dal grande dettaglio delle texture map disegnate usate sui personaggi 3D e gli altri oggetti in primo piano. Applicando ancora una volta una tecnica spesso utilizzata nei film ripresi dal vivo per dare alle creature un aspetto più realistico, per tutte le texture lo studio si è affidato ai disegni fatti a mano, invece che a shader. Z-4195 ha richiesto un anno di lavoro e più di 3 mila disegni. Una volta deciso il design di Z, il personaggio è stato scolpito in creta, digitalizzato, modellato, arricchito dei controlli d’animazione dai direttori tecnici e inviato agli animatori. Gli altri sette personaggi principali e dieci operai/ soldati generici hanno seguito la stessa evoluzione, anche se la fase di design iniziale è stata molto più veloce dopo aver approvato il design di Z. L’animazione facciale Gli animatori della PDI possono ora scegliere un sistema molto dettagliato che offre un controllo completo, oppure un sistema meno dettagliato che è più veloce e più facile da usare. Il sistema dettagliato, che manipola i muscoli di un modello anatomico della faccia, ha almeno 300 controlli, secondo quanto riporta Hofer. “Il punto di partenza sono i singoli muscoli della faccia”, afferma. “Ovviamente, non forniamo agli animatori 300 controlli...”. Agli animatori, infatti, viene offerta una combinazione di controlli che, per esempio, fanno alzare un sopracciglio, allargano l’occhio, dilatano le pupille. “Abbiamo molti controlli per gli occhi”, riporta Hofer, descrivendone uno che trova particolarmente interessante: “Quando il bulbo oculare ruota, trascina leggermente la palpebra. Se quel movimento non c’è, non se ne sente la mancanza, ma quando c’è, aumenta la ricchezza del momento”. Il supervisore dell’animazione Rex Grignon è d’accordo. “La prima cosa che si guarda sono gli occhi del personaggio”, sostiene. “Gli occhi sono la cosa più difficile da gestire e anche quella che dà più soddisfazione”. Grignon lavora alla PDI fin dal 1988, a parte 15 mesi durante i quali è passato alla Pixar per lavorare su Toy Story, per poi ritornare alla PDI nel 1996. Per Z la formica, ha lavorato principalmente sul cattivo della storia, il Generale Mandibola, un personaggio che gli è piaciuto particolarmente, perché l’intensità del generale rappresentava un’interessante sfida di animazione. “Un grande attore può dire una cosa e dare l’impressione che nella sua testa stia pensando a tutt’altro”, dice il regista Darnell. “Per raggiungere 255 questo risultato con un personaggio animato, avevamo bisogno di un discreto livello di controllo”. Ed è proprio quello che secondo la PDI viene offerto dal suo sistema di human animation. Per creare un’animazione facciale dettagliata, gli artisti della PDI per prima cosa utilizzano una traccia di fonemi per ottenere la corretta posizione della bocca al momento giusto. Poi, manipolano i controlli dei muscoli per creare la giusta espressione facciale nel tempo. Infine, i fonemi vengono ritoccati. “Talvolta, i fonemi possono non risultare corretti”, dice Hofer, “quindi gli animatori possono ritoccarli senza cambiare l’espressione. La possibilità di stratificare l’animazione in questo modo, in particolare per il volto, è molto importante”. Dato che questo livello di dettaglio non è sempre necessario, la PDI ha sviluppato un secondo sistema di animazione facciale, meno “costoso” da usare (alla PDI, vengono spesso descritti i sistemi e i processi in termini di costi. Per Antz, il costo è principalmente il tempo). “Animare usando tutti quei controlli è molto costoso, a causa del tempo richiesto per capire come usarli”, spiega Hofer. “Per i personaggi secondari, abbiamo realizzato un sistema che è più economico, perché è più facile da impostare”. Questo sistema usa l’interpolazione delle forme e le deformazioni, invece del controllo diretto dei muscoli per animare i volti. I modellisti costruiscono prima le forme; l’animazione viene creata usando un sistema di deformazione che mescola le forme predefinite. “Abbiamo ridotto i controlli e aggiunto un altro livello di semplicità”. In modo simile, i controlli per il corpo delle formiche vanno da quelli che offrono movimenti dettagliati, a quelli che usano macro ed espressioni per aiutare gli animatori a creare movimenti in modo quasi automatico. Di quest’ultima categoria fanno parte i controlli dinamici delle antenne, che le muovono usando quella che Hofer chiama “falsa fisica”. Anche così, le antenne possono comunque essere animate con i keyframe quando sono importanti per la scena. Lo stesso approccio usato per l’animazione, che offre un livello di automazione più o meno spinto a seconda dell’importanza dei personaggi nella scena, è stato utilizzato anche dai direttori tecnici che hanno lavorato sui simulatori di folle. Piccole folle “Una delle grandi sfide di questo film è che dovevamo animare molte formiche, ma allo stesso tempo avevamo bisogno di flessibilità”, spiega Luca Prasso, un italiano che è direttore tecnico senior dei personaggi e responsabile tecnico per le scene di folla. “Dovevamo animare molte situazioni, da un gruppo di personaggi secondari sullo sfondo a migliaia di formiche in una scena di battaglia. Dovevamo animare folle di formiche in un bar... formiche che ballano... 256 formiche che combattono”. Come i direttori tecnici che hanno lavorato sul sistema di animazione facciale, quelli responsabili delle folle hanno creato due tipi di sistemi di gestione. Un sistema fonde insieme una serie di tipi di corpi e movimenti e viene usato principalmente per folle composte da meno di 50 formiche. Un secondo sistema offre agli animatori un minor controllo e più automazione, e viene usato per folle più grandi. “Abbiamo fatto il conto, trovando più di 500 scene che utilizzano il sistema di gestione delle folle”, riporta Juan Buhler, animatore senior degli effetti. “La scena record è quella con 60 mila formiche, ma il solo limite è quando finiamo i pixel”, spiega. “Più del 50 per cento delle sequenze comprendono più di 100 formiche”, aggiunge Jonathan Gibbs, animatore degli effetti e sviluppatore. “Gestiamo formiche soldato che marciano e formiche operaie che scavano, trascinano e socializzano”. Per le sequenze con piccole folle, i direttori tecnici hanno creato un sistema di 'blending', partendo dal sistema di human animation. “Dovevamo includere lo stesso tipo di controlli offerti dai personaggi principali”, racconta Prasso. “A questi, abbiamo aggiunto la possibilità di creare variazioni di forma, tipo di corpo e movimento”. Con il sistema di blending, i direttori tecnici possono mescolare e far corrispondere varie teste a diversi tipi di corpo, creando migliaia di variazioni, e poi mixare cicli di movimento per animare i personaggi. I cicli di movimento, che vengono creati con animazione in keyframe, includono azioni come camminare, combattere con una lancia, bere birra, danzare e correre. “Abbiamo realizzato più di 200 cicli fatti a mano”, riporta Gibbs. “Con il sistema di blending, possiamo trasformarli in 2 mila cicli diversi”. Prasso spiega: “Possiamo costruire nuovi movimenti partendo da quelli esistenti. Creiamo piccole variazioni con controlli di comportamento”. I direttori tecnici dell’animazione possono 'comandare' a un personaggio di camminare fino a un punto particolare e poi iniziare a correre; se il personaggio è in salita, il sistema ne cambierà la postura per fare in modo che la formica sia inclinata in avanti. Inoltre, il sistema genera automaticamente transizioni tra i cicli di movimento. “Il sistema analizza animazioni differenti e sincronizza due azioni per produrre transizioni, in modo che un personaggio passi da un’azione all’altra”, dice Prasso. “Non ha un generatore di movimenti, ma strumenti per modificare i movimenti preesistenti in modo da creare transizioni e introdurre piccole variazioni”. Per esempio, se l’animatore ha bisogno di animare una folla che guarda una partita di calcio, creerà un movimento base per girare la testa e userà il sistema di blending per creare le variazioni. “Abbiamo voluto un sistema molto generico, in modo che gli animatori potessero controllare i risultati. 257 Grandi folle Il secondo sistema di gestione delle folle usato per Z la formica è un simulatore basato su regole. “Quando ci sono più di 50 personaggi, il sistema di blending può risultare troppo costoso in termini di produzione, quindi ci affidiamo a un simulatore di folle per riempire l’ambiente con formiche”, dice Gibbs. Una qualsiasi scena può avere formiche animate con entrambi i sistemi. Il simulatore di folle usa gli stessi cicli di movimento del sistema di blending; in effetti, il sistema di blending crea le variazioni e le transizioni che vengono usate dal simulatore. La coreografia delle formiche animate con il simulatore di folle, però, è controllata da regole. “La simulazione di comportamento è ispirata al sistema di flocking di Craig Reynolds, con un’importante variante per la produzione: la velocità dipende dai cicli di movimento, non dal simulatore”, spiega Buhler. “I cicli di movimento sono il solo controllo che abbiamo sul movimento”. Il resto è compito del simulatore. Aggiunge Gibbs: “Gli animatori di personaggi possono raggiungere il livello di complessità desiderato, ma fondamentalmente le formiche evitano da sole gli ostacoli, si evitano l’una con l’altra e hanno un obiettivo che cercano di raggiungere nell’ambiente in cui si muovono”. Il simulatore può lavorare con le formiche posizionate su un piano con campi di altezza; questo piano viene poi mappato sulla geometria dell’ambiente. Per posizionare le formiche sul piano in modo casuale, gli animatori disegnato una mappa di densità che regola il flusso e la distribuzione. Per collocare le formiche in modo più uniforme, gli animatori possono usare una griglia. Il simulatore può anche fare in modo che le formiche seguano un percorso lineare; per esempio, è possibile creare una colonna di formiche che camminano lungo i bordo di un muro. Per creare questo percorso, è sufficiente disegnare una curva nello spazio. Naturalmente, ogni volta che si usa un simulatore per creare un’animazione, i risultati non sono prevedibili. “Spesso otteniamo qualcosa d’inaspettato”, racconta Gibbs. “Qualche volta è un vantaggio. In un caso, c’era una formica che ha girato la testa verso la telecamera e ha sorriso. L’abbiamo lasciata”. Buhler precisa: “Ogni formica ha un numero, quindi se non ci piace quello che sta facendo, possiamo estrarla e ucciderla, oppure possiamo usare i keyframe per modificarne il movimento”. Quando un animatore sta lavorando con un personaggio di 10 pixel, non ci sono molte sfumature nel movimento. Tuttavia, “se quei 10 pixel non cambiano e non si muovono in modo credibile, il cervello si accorge che c’è qualcosa di sbagliato”, osserva Prasso. Con la flessibilità che i direttori tecnici hanno integrato nel sistema della PDI, questo non è un problema. 258 Il protagonista di Z la formica può anche far fatica a trovare la propria individualità, ma gli animatori che lo hanno creato non condividono quel problema, almeno in termini artistici. È infatti evidente che gli strumenti che hanno a disposizione permettono di soddisfare le loro esigenze individuali. 259 BUG,S LIFE John Lasseter, 1998 Tre anni fa, la Pixar Animation Studios ha raggiunto nuovi traguardi in campo cinematografico e nella computergrafica quando la Walt Disney Feature Animation ha distribuito Toy Story, il primo lungometraggio creato unicamente in computergrafica 3D. Quel film, che ha rappresentato un enorme successo estetico, tecnico e commerciale, ha coronato un grande sogno delle persone della Pixar, molte delle quali hanno lavorato insieme per 20 anni contribuendo a creare e definire il mezzo espressivo dell'animazione 3D. Toy Story ha incassato 360 milioni di dollari al botteghino in tutto il mondo (ossia 612 miliardi di lire, di cui 13 in Italia) e ha venduto 22 milioni di videocassette solo negli Stati Uniti (un milione in Italia). Bug's Life (sottotitolo italiano: Megaminimondo), è il secondo lungometraggio frutto della collaborazione Disney/Pixar. Da tutti i punti di vista, la Pixar ha compiuto di nuovo una grande impresa, mettendo insieme una sceneggiatura divertente con un'animazione deliziosa e immagini straordinarie. Quando alla Pixar hanno iniziato a pensare al secondo film, una cosa era chiara a tutti: volevano fare qualcosa di diverso da Toy Story. “Alla Pixar c'è uno spirito pionieristico”, dice John Lasseter, filmmaker vincitore di premi Oscar che ha diretto Toy Story e codiretto Bug's Life. “Non potevamo fare ancora la stessa cosa”, continua. E, in effetti, tutto nel secondo film della Pixar sembra differente e più grande del primo. In Toy Story erano protagonisti personaggi costruiti dall'uomo che vivevano in un mondo costruito dall'uomo. Bug's Life è un'allegra cavalcata attraverso un mondo organico, lussureggiante e animato pieno di formiche buone e cavallette cattive, un cast internazionale d'insetti di un circo di passaggio, e un gruppo organizzato d'insetti di città che vivono tra i rifiuti riciclati sotto un rimorchio. La Pixar fa vedere attraverso gli occhi di un insetto un mondo pieno di colori e di particolari riccamente rifiniti, con un'attenzione ai dettagli affascinante e complessa. Inoltre, il film è stato realizzato in Cinemascope widescreen, in modo da riempire ancora meglio gli occhi con la sua densità visuale. La ricchezza dei personaggi, l'illuminazione fenomenale, il nuovo modo in cui le superfici interagiscono con la luce... Non si cerca di raggiungere il realismo, ma si tenta di soddisfare il desiderio di complessità del nostro cervello. C'è una ricchezza che ci piace vedere, e che soddisfa l’intelletto. L'idea della storia di Bug's Life è nata durante un pranzo tra Andrew Stanton, coregista, e Joe Ranft, responsabile della storia, nel luglio del '94. Hanno iniziato a parlare delle Favole di Esopo, e in particolare de La cicala e la formica. 260 In questa favola, una formica mette da parte il cibo per l'inverno mentre una cicala danza sotto il sole. Quando arriva l'inverno, la cicala non ha cibo da mangiare, portando quindi alla morale: è meglio prepararsi per i giorni di bisogno. La reazione di Stanton è stata che questa morale non corrisponde alla sua impressione sul mondo naturale di tipo 'insettomangia-insetto'. “Se fossi la cicala, mi unirei ai miei compagni e comincerei a prendere a calci tutti gli altri”, commenta, e la storia della Pixar, che inizia con una colonia di formiche che offre sacrifici regolari di cibo alle cavallette malvagie, nasce da quell'idea. Per i due anni successivi, vari team della Pixar hanno preparato il terreno per la produzione effettiva del film, un processo che avrebbe richiesto altri due anni. Lasseter, Stanton e Ranft hanno scritto la sceneggiatura, e Ranft e un team di otto persone hanno iniziato a convertire la sceneggiatura in disegni, producendone alla fine più di 27 mila. “È una storia complessa”, dice Ranft. “Non si parla di due persone in conflitto; è una storia di varie comunità... le formiche, gli insetti del circo, il cattivo e la sua banda”. Una delle formiche, Flik, è un incorreggibile inventore che fa un sacco di pasticci, incluso uno gigantesco: la sua macchina per la raccolta dei semi fa cadere il cibo sacrificale dall'altare, facendo infuriare le cavallette. Per questo motivo, Flik è costretto a caricarsi sulle spalle il suo sacco a pelo (una foglia) e lasciare la colonia dell'Isola della Formiche. Per attraversare il letto del fiume, afferra lo stelo di un seme di dente di leone che galleggia nell'aria e vola fino all'altra sponda. Qui, si imbatte in alcuni insetti del circo di P.T. Flea che stanno inscenando un combattimento. Flik pensa di aver trovato i guerrieri che aiuteranno la sua colonia a combattere le cavallette e a fare di lui un eroe, ignaro del fatto che la mantide religiosa, la falena, la coccinella e altri insetti fanno parte di un gruppo nomade d'intrattenitori. Per parte loro, gli insetti del circo, che sono stati appena fischiati da un pubblico di mosche, pensano che Flik stia offrendo loro un lavoro. E la storia prende le mosse da qui. Quando la storia è stata perfezionata e tradotta in storyboard, gli artisti hanno iniziato a lavorare al design dei personaggi e del set, e lo staff tecnico ha iniziato a creare strumenti che avrebbero reso possibile il tutto. Circa il 40 per cento dello staff di 180 persone che hanno lavorato su Bug's Life sono artisti, 40% tecnici e il restante 20% manager. Inoltre, questo staff è stato supportato dai tecnici di riversamento in pellicola, sviluppatori software di RenderMan e dal reparto degli strumenti di animazione della Pixar. Anche se lo studio usa alcuni pacchetti commerciali, in particolare il software di modellazione della Alias/Wavefront, il software di painting Amazon della Interactive Effects 261 e naturalmente il proprio software RenderMan, la maggior parte degli strumenti usati dagli animatori e artisti sono proprietari, sviluppati unicamente per l'uso interno. Questi strumenti includono: il software di animazione prima noto con il nome di MenV e ora battezzato Marionette, un pacchetto di painting 3D, le superfici di suddivisione prima usate dalla Pixar per il cortometraggio vincitore di un Oscar, Geri's Game, e tantissimi strumenti d'illuminazione e shader proprietari. Tutti gli strumenti interni hanno subito modifiche per tenere conto dei requisiti di questo film. “Alcuni tecnici hanno costruito una piccola telecamerina e l'hanno montata all'estremità di un bastoncino con le ruote”, spiega Lasseter. Hanno fatto muovere la telecamera in vari esterni e, come ci si aspettava, un po' di sporco su un marciapiede diventava una roccia gigantesca. Ma, poi, la telecamera ha riservato una sorpresa: un mondo più bello di quello che avevano immaginato. “Era così eccitante, il mondo era così traslucido”, racconta Lasseter. “Ogni filo d'erba, ogni fiore... il sole splendeva attraverso di essi. Era come se ogni edificio nel nostro mondo fosse fatto di vetro colorato. È stata una grande fonte d'ispirazione. Abbiamo anche scoperto che a quel livello c'è un movimento costante, e anche il movimento ha rappresentato un'importante fonte d'ispirazione”. Di conseguenza, il mondo di Bug's Life è pieno di semitrasparenze e di movimento. Sugli alberi oscillano foglie traslucide mosse dalla brezza, l'erba ondeggia al vento. L'intensità del colore e la quantità di movimento sono controllate dalla storia. “In una scena carica e agitata, c'è più vento; nelle scene più calme, il vento è più debole”, spiega Lasseter. “Tutto in questo mondo è stato creato con una chiara visione di com'è collegato alla storia: il colore della luce, il design del mondo sono stati tutti progettati per supportare la storia”. La supervisione dei modelli di quel mondo è stata affidata a Eben Ostby, che condivide il titolo di direttore tecnico supervisore con Reeves. Per gli insetti, ha iniziato con i design creati da Bob Pauley, designer dei personaggi; e per le scenografie, con i design di Bill Cone, designer di produzione. “Abbiamo creato 672 modelli, ma naturalmente questo non è il numero di oggetti del film”, precisa Ostby. Per esempio: “una formica maschio può venire utilizzata in dozzine di modi diversi, e tre modelli possono rappresentare migliaia di fili d'erba”. In termini di personaggi, le specie principali d'insetti sono le nove varietà d'insetti del circo; quattro per le formiche, Flik, la principessa Atta, la principessina Dot, e la Regina; Hopper, il cattivo, e suo fratello Molt. Ci sono anche molti insetti con piccole parti. La Regina culla un piccolo afide con un braccio come se fosse un cagnolino giocattolo. 262 Vari scarafaggi dipinti di giallo con piccoli scacchi neri fungono da taxi a Bug City. Una zanzara ordina una goccia di sangue 0-positivo al Bug Bar. Una lumaca nello stesso bar sbava dalla bocca quando accidentalmente gli viene servito un bicchiere con del sale sull'orlo. Larve di lucciole illuminano gli ambienti di Bug City. Anche la tenda del circo è illuminata dalle lucciole. Modellazione e animazione Ognuno dei 15 personaggi principali ha da 2 mila a 3 mila controlli utilizzabili per l'animazione, l'illuminazione e lo shading; alcuni ne hanno ancora di più. Quell'attenzione ai dettagli è stata estesa anche ai modelli nel design della scenografia. Tutti i particolari incidentali sono stati costruiti in scala rispetto al punto di vista di una formica. Di conseguenza, una delle difficoltà nella creazione di questa visuale ravvicinata di un mondo microscopico è stata quella di trovare indizi visivi che suggerissero al pubblico che cosa stava guardando. In questo modo, una scatola di biscotti per cani diventa un carrozzone da circo, un ombrello è il tendone del circo, e il collare di un cane forma l'anello del circo all'interno della tenda. Una lattina arrugginita può contenere il bar di Bug City; la suggestiva luce blu che filtra dai fori della lattina proviene da un ammazza-zanzare. I segnali stradali di Bug City sono lucine di Natale rosse e verdi controllate da lucciole che si spostano da una all'altra. Un cappello di paglia è stato trasformato nel covo della cavalletta. Un team di effetti visuali ha controllato il movimento dell'ambiente e delle folle di formiche, e gli animatori hanno gestito la recitazione dei personaggi e offerto i cicli di animazione per le folle. Con l'ultima versione di Marionette, gli animatori possono lavorare con più personaggi sullo schermo in un ambiente che include i principali elementi del paesaggio. Il lavoro di animazione è iniziato nella primavera del '97 con 28 animatori. Quando è stato terminato, al film stavano lavorando 40-50 animatori. I personaggi cattivi sono stati animati con le caratteristiche più vicine agli insetti; gli insetti buoni assomigliano più a esseri umani. La gestione delle folle Con 430 scene che includono folle di formiche, uno dei problemi che dovevano essere risolti era come animare centinaia di formiche senza perdere completamente la personalità dei singoli individui. “Guardando la formica numero 20, volevamo che fosse diversa dalla formica numero 23”, spiega Stanton. “C'è per esempio la famiglia di Flik: sono individui in pericolo, e più danno l'impressione di sentirsi una comunità, più ci preoccupiamo di quello che succede loro”. Quindi, hanno dovuto 263 trovare il modo di creare centinaia di formiche-comparse dotate di una propria intelligenza. Ci sono tre modi per animare le folle, animare ogni personaggio a mano; creare creature autonome e intelligenti; o fare qualcosa d'intermedio. Queste formiche vengono viste mentre combattono, marciano in colonna e danzano. Il compito di animare le folle è stato suddiviso tra 'animatori di folle' e 'direttori tecnici delle folle'. Gli animatori hanno creato librerie di movimenti, cioè brevi spezzoni di animazione che vengono raccolti nelle cosiddette 'A-lib', o 'librerie di animazione'. Questi spezzoni vengono poi applicati dai direttori tecnici ai singoli personaggi in CG di una folla in modo procedurale, stocastico o semicasuale. Per esempio, se il regista vuole avere una folla di formiche che camminano all'inizio di una scena e poi corrono alla fine, usa tre set di A-lib: uno per la 'camminata', uno per le transizioni, e un terzo per la corsa. Nella A-lib per la camminata, il direttore tecnico può prendere spezzoni di animazione progettati per ritrarre formiche nervose, che vanno da quelle spaventate, a quelle prese dal panico, a quelle 'completamente fuori di zucca', come dice Reeves. Questi spezzoni possono durare da 24 a 72 fotogrammi, cioè da uno a tre secondi. Uno spezzone 'nervoso' può fare in modo che una formica guardi a destra e a sinistra, un altro può far giocherellare con le mani davanti al corpo, un terzo può far infilare le dita in bocca. "Noi distribuiamo quegli spezzoni tra la folla, poi cicliamo da uno all'altro", dice Reeves. Ecco come spiega il processo: Trovando ignominioso il suo ruolo di clown del circo, lo stecco Slim riflette sul suo destino. Nonostante la sua apparente semplicità, Slim è rappresentato da un modello complesso, com'è avvenuto per Buzz e Woody di Toy Story. Per trasformare Slim da modello dall'aspetto metallico a stecco che cammina, il team degli shader ha usato una combinazione perfetta di paint 3D e shader procedurali. “Prendiamo per esempio una scena nella quale abbiamo bisogno di una folla di formiche che segue un eroe che parla. La folla sta guardando. Utilizziamo una visuale dall'alto e selezioniamo uno strumento di posizionamento per disegnare lo schema di dove vogliamo la folla”. Questo strumento permette a un animatore o direttore tecnico di disegnare una mappa di densità che definisce dove posizionare le formiche, o creare un'area geometrica, come un rettangolo, nella quale piazzare un gruppo d'insetti. “Quando abbiamo il layout, impostiamo gli stati iniziali delle formiche e specifichiamo per quanti fotogrammi i personaggi useranno un set particolare di A-Lib e transizioni”. “Fred ci offre varie opzioni”, continua, “ma molto spesso lasciamo che ogni formica scelga a caso il suo stato iniziale”. Per esempio, se un direttore tecnico ha scelto sei tipi di A-lib 'nervose' per la folla, ogni formica seleziona a caso un ciclo di movimento e un fotogramma da cui 264 partire. “Anche nelle scene dove tutte le formiche devono fare la stessa cosa, non vogliamo comunque esattamente lo stesso movimento, quindi facciamo in modo che scelgano in un intervallo di fotogrammi che può andare dal numero 40 al 48”. Il sistema Fred integra forze e turbolenze per far sembrare realistici i movimenti, rilevamento delle collisioni, la possibilità di definire percorsi di movimento creati disegnando spline nello spazio 3D, e tecniche di 'pseudo-flocking' per controllare la direzione delle formiche, ma anche così, qualche volta il movimento non è perfetto. “Dato che siamo a livello delle formiche, il terreno è una superficie complicata, le piante sbarrano la strada, i sassi rotolano; tutte cose belle, ma è complicato applicare i movimenti della A-Lib che sono stati costruiti su una superficie piana”, dice Reeves. Il sistema non cerca di tenere conto del terreno; sono i direttori tecnici che scelgono le A-Lib appropriate, come per esempio quelle con formiche che si inclinano in avanti, se stanno scalando una collina. “La folla media è costituita da circa 150 individui, anche se verso la fine del film ci avviciniamo al migliaio. In alcune delle scene ci sono formiche grandi 10 pixel, ma spesso occupano metà dello schermo, come i personaggi principali.” Quando il sistema ha generato il movimento della folla, un animatore o un direttore tecnico può ancora modificare il movimento di una singola formica. L'acqua e il vento Il team degli effetti della Pixar ha creato un simulatore di acqua, battezzato Rainman, per far scendere quelle che gli esseri umani chiamerebbero gocce di pioggia, ma che le formiche considerano bombe d'acqua. Hanno usato marker virtuali per controllare la forma, dimensione e volume dell'acqua. Inoltre, il team degli effetti ha dovuto creare fulmini, fuoco, fumo e vento. Ogni modello di vegetazione, in tutto una trentina, aveva controlli di animazione che potevano influenzare la direzione e la velocità del vento. In Bug's Life, tutto nell'Isola delle Formiche si muove, quindi ogni fotogramma è diverso. Mentre animatori, artisti e direttori tecnici usano workstation Silicon Graphics sulle loro scrivanie, la stanza della "render-farm", dove vengono effettuati tutti i calcoli per produrre le immagini finali, è piena di macchine della Sun Microsystems. Con 24 fotogrammi al secondo, e l'immensa quantità di dati richiesta per creare l'immagine di ciascun fotogramma, diventa evidente il perché hanno bisogno di una tale potenza di elaborazione. Il file RIB medio è grande 1,5 GB per fotogramma; il fotogramma medio contiene 1.000 texture map, tutto per aggiungere ricchezza visuale (un 265 file RIB contiene la descrizione della scena usata per renderizzare un'immagine usando RenderMan). Un nuovo modello d'illuminazione Per un film come Bug's Life, la storia dev'essere considerata la cosa più importante. Al secondo posto, forse, viene l'animazione che rende viva la storia. Ma quello su cui si concentra l'attenzione è guidato dalle luci, e quello che viene rivelato dalle luci sono gli shader (procedure scritte in RenderMan Shading Language usate per calcolare i valori necessari durante il rendering per creare l'aspetto delle superfici visibili). È in questo campo che i direttori tecnici e gli artisti della Pixar hanno introdotto gran parte delle innovazioni in Bug's Life. Normalmente, la luce viene riflessa dalla parte frontale di un modello, mentre quella posteriore rimane scura. I tecnici software, hanno impostato gli shader in modo da riuscire a creare le trasparenze e dare all'immagine un aspetto più pittorico. Quindi, il team dell’illuminazione ha passato molto tempo a ripensare come funzionano le luci e come agiscono sulle superfici. Per esempio, la distribuzione di triadi di colori usati su un modello cambia a seconda delle varie angolazioni di occhio, luce e superficie. La Pixar ha usato il modello d'illuminazione per aggiungere iridescenza, naturalmente, e per aggiungere variazione. Non vedremo vaste distese di colore come quelle di Toy Story, c'è sempre qualche variazione e, a seconda dell'angolazione con la quale guardiamo le cose, esse assumono un aspetto diverso. Oltre a questo comportamento fuori asse, il modello d'illuminazione presta anche attenzione alla luce che proviene da dietro. L'illuminazione principale del film è stata gestita usando il nuovo modello d'illuminazione creato da Sayre. Insieme a lei c'erano 35 persone che hanno dovuto gestire condizioni di luce che variavano da sole brillante a scene sottoterra illuminate da muschio fosforescente; da raggi di luce diurna che filtrano attraverso un cappello di paglia alla scena di un bar di notte con la luce della Luna che filtra dai fori in una lattina. La scena più complessa, comunque, è stata probabilmente quella di notte con fulmini, fuoco e pioggia. Oltre alle luci, il team ha usato shader atmosferici, per esempio, per aggiungere uno strato di nebbia in modo da focalizzare l'attenzione su particolari aree di una scena. 266 Texture dettagliate Gli shader vengono anche usati per creare texture, e in questo campo, Sayre ha lavorato insieme a Tia Kratter, direttore artistico degli shader. Il lavoro di Kratter parte da una cattura a schermo di un modello 3D di un personaggio, che viene poi ingrandito, tracciato e disegnato. Una volta deciso l'aspetto della versione shaded, Kratter e Sayre determinano che cosa dev'essere gestito in modo procedurale e che cosa dev'essere disegnato. I risultati migliori si ottengono quando le due tecniche vengono combinate insieme. Mettendo insieme shader e disegni, il team ha aggiunto dettagli complessi a superfici relativamente piatte e geometriche, che vanno da quelle piccole come l'occhio di un insetto a quelle vaste come il terreno di un intero paesaggio. Il dorso di Hopper, per esempio, è una superficie relativamente piatta fino a quando non viene applicata la texture, dopo di che risulta piena di sporgenze e spine. La presenza delle spine e la loro forma complessiva è stata creata da un disegnatore usando il programma di paint 3D interno della Pixar; uno shader controlla come ogni spina viene curvata per seguire la superficie. In modo simile, gli occhi del personaggio principale sono un modello semplice; la pupilla, l'iride e la cornea vengono creati da uno shader. La luce arriva, si piega attraverso la cornea e la vediamo quando colpisce l'iride interno. L'iride è stata disegnata da un painter, ma lo shader sa come applicarla e deformarla in modo che quando gli occhi si dilatano, si vede l'iride che si ritira. Senza shader, il terreno sembrerebbe una semplice superficie con qualche roccia sparsa qui e là. Quando viene applicato lo shader, il terreno diventa pieno di rocce di dimensioni decrescenti mentre raggiungono l'orizzonte. Quando ci si avvicina, si possono vedere le singole rocce, e se si avvicina ancora di più, si vede che tra le rocce c'è della polvere. Anche quando le si vede a grandi distanze, si possono comunque scorgere dettagli. Quindi, i direttori tecnici hanno potuto avvicinare la telecamera fino a inquadrare le spaccature del fango secco nel letto di un fiume in una scena d'inseguimento molto veloce, e poi carrellare all'indietro per seguire l'azione mentre si sposta nel cielo. Quando la telecamera si insinua in una spaccatura tra zolle di fango, si vedono piccoli sassi ficcati nelle parti laterali, e fori dove sono caduti alcuni dei sassi più grandi; quando la telecamera si alza sopra il terreno, si vedono quadrati di fango secco in lontananza. In tutto, il team dedicato ha scritto 583 shader, e i painter hanno disegnato più di 10 mila texture 3D. Molte di queste texture sono state utilizzate per creare i vari colori, venature e macchie sulle migliaia di foglie usate nel film. Lo shader più 267 complicato è stato usato per Hopper; quello più grande è stato scritto per il letto del fiume. Il team della Pixar si è spinto molto lontano, il dettaglio è molto accurato e lo spettatore attento riesce persino a vedere le venature di una foglia in contro luce. Tutti questi piccoli-grandi dettagli abbelliscono la scena e contribuiscono alla riuscita del film. Quando si guarda questo film e si cerca d'immaginarlo realizzato in qualsiasi altro modo, non ci si riesce. Grazie all’ottimo lavoro di artisti, tecnici, modellisti e animatori, il lungometraggio della Pixar è riuscito ad incantare anche un pubblico più adulto, e di questa magia, io personalmente ringrazio. 268 IL PRINCIPE D’EGITTO Bill Schultz,1998 Immaginate di creare un mondo con bei dipinti, disegni e illustrazioni e poi usare quel mondo come una scenografia virtuale per un film, nel quale gli stessi personaggi sono dipinti e disegni. Invece di creare un realismo fotografico, stareste filmando una storia all’interno di un mondo sintetico e artistico. Se tutto questo vi sembra un nuovo genere potenziale di film, allora siete d’accordo con Dan Philips, supervisore degli effetti visuali alla DreamWorks SKG (Glendale, CA, USA), che ritiene che si stia evolvendo una nuova forma di produzione cinematografica. “Stiamo portando avanti le tradizioni e la passione per la linea e le superfici dipinte rispetto all’animazione classica, unendole alle possibilità di una telecamera molto simile a una macchina da presa reale”, afferma Philips. “Stiamo muovendo una telecamera virtuale nello spazio tridimensionale e portando in quello spazio elementi artistici tradizionali che combiniamo con oggetti 3D, animazione 3D, sistemi di particelle... Questa sovrapposizione sta producendo film che sembrano girati dal vivo, ma che hanno un look diverso”. Uno dei primi utilizzi, di una telecamera virtuale nello spazio tridimensionale in un lungometraggio animato, è stato la scena della sala da ballo nel La Bella e la Bestia della Walt Disney (1991), e da allora sono stati usati oggetti, personaggi e scenografie 3D in molti film d’animazione. Ma con Il Principe d’Egitto, un musical a cartoni animati basato sulla storia di Mosè che rappresenta il primo film d’animazione “tradizionale” della DreamWorks, Philips ritiene che la sua società di produzione stia iniziando a raggiungere un’integrazione perfetta di effetti in computergrafica 2D, 3D e animazione tradizionale (o cel animation) che, quando combinati con una telecamera virtuale “dal vivo”, cominciano ad avvicinarsi alla nuova forma d’arte da lui immaginata. Per raggiungere questo obiettivo, il team della DreamWorks ha usato software commerciale, lo ha potenziato, ha creato un nuovo software e sfruttato in modo innovativo i processi tradizionali. Per fare in modo che le scene epiche 3D e gli effetti in computergrafica 2D fossero esteticamente omogenei col resto del film, gli animatori hanno aggiunto a quelle scene elementi disegnati a mano. E, per creare una progressione naturale della complessità visuale che portasse alle grandi scene 3D, gli animatori hanno iniziato aggiungendo in tutto il film piccoli pezzi di computergrafica 2D e 3D alle scene disegnate a mano. Per esempio, durante una delle scene del prologo, la telecamera segue la regina nel palazzo e poi, simulando una carrellata da film dal vivo, viaggia lungo una fila di colonne, si alza tra le impalcature di una gigantesca struttura in costruzione, e si libra su un monumento massiccio per rivelare un panorama del Nilo che si perde in lontananza. 269 La scena inizia come un tradizionale multipiano nel quale sono stati composti insieme 14 livelli 2D disegnati. Si vedono le singole colonne, ciascuna separata da un po’ di spazio in modo che si muova a diverse velocità, mentre la telecamera si alza. La sola cosa che è diversa da una tradizionale scena multipiano, ed è l’elemento che rende viva la scena, sono le architravi in cima alle colonne. Queste architravi sono elementi in 3D e si allontanano dall’osservatore lungo l’asse Z, in profondità. Portando dolcemente gli spettatori nel mondo 3D. In quel mondo, la telecamera 3D si muove intorno a pilastri tridimensionali e attraversa i ponteggi. Sui ponteggi ci sono personaggi disegnati in 2D che lavorano alla costruzione. La polvere nella scena è stata creata con un plug-in di computergrafica 2D proprietario per Animo della Cambridge Systems. Visualizzare insieme 2D e 3D Per gestire più facilmente le scene con elementi in 2D e 3D come quella descritta prima, la DreamWorks ha lavorato con Silicon Studio della Silicon Graphics per creare un nuovo strumento proprietario di pianificazione e layout delle scene. Battezzato Exposure, il software offre un ambiente 3D nel quale gli artisti del layout e i pianificatori delle scene possono mettere insieme disegni 2D di Animo e oggetti 3D di PowerAnimator o Maya della Alias/Wavefront. Nelle prime fasi di realizzazione del film, lo scenografo “digitale” può lavorare con modelli 3D di riferimento e disegni scansiti da rapidi schizzi. Poi, mentre la scena prende forma, l’artista può sostituire singoli elementi con versioni più chiaramente definite. Exposure tiene traccia degli elementi scena per scena, aggiornandoli automaticamente in tre formati: Animo, Alias e il suo formato proprietario. Guardando una scena sullo schermo di Exposure, si può vedere un oggetto 3D in un’area dell’ambiente tridimensionale del programma e vari elementi che sembrano “cartoncini” di varie dimensioni che stanno davanti, dietro o anche attaccati all’oggetto 3D; ogni cartoncino può avere un disegno su una faccia. Questi cartoncini sono i fondali e i personaggi 2D disegnati in Animo. Con Exposure, si può muovere liberamente la telecamera per inquadrare la scena, perché ogni disegno rimane nella sua posizione, pur conservando il parallelismo al piano di ripresa della telecamera durante il suo movimento nello spazio tridimensionale. Di conseguenza, si può pianificare interattivamente i movimenti della telecamera senza preoccuparsi di distorcere o mostrare i bordi di un disegno, e si può anche cambiare idea. Una volta approvate, le scenografie passano alla fase di pianificazione della scena, dove le idee vengono sviluppate in modo più preciso. Anche in questo caso, Exposure è diventato fondamentale per integrare il 3D con il 2D ed è stato anche utilizzato per alcune scene multipiano. David Morehead, supervisore della pianificazione delle scene, ha lavorato con Exposure per coreografare l’azione e offrire a ogni reparto le rappresentazioni delle scene. L’elemento fondamentale di questa 270 operazione è la telecamera di Exposure, che permette di animare gli oggetti 3D e di poter cambiare successivamente il movimento della telecamera. Per esempio, in una scena di corsa con i carri, i carri e la strada dove si svolge la corsa sono oggetti 3D, mentre i personaggi e i cavalli sono disegnati in 2D. I movimenti di camera includono una carrellata tra i personaggi. Prima il carro è stato animato in Alias e portato in Exposure. Poi gli animatori dei personaggi hanno messo Mosè e Ramses nei carri: per farlo, hanno lavorato con rappresentazioni dei carri per ogni fotogramma della scena. Senza Exposure, l’animatore avrebbe dovuto disegnare il personaggio in modo da farlo corrispondere al movimento del carro e da seguire il movimento della telecamera. Questo vuol dire che una volta finita l’animazione, se si fosse cambiato il movimento della telecamera, si sarebbe dovuto anche ridisegnare l’animazione. Con Exposure, l’animatore deve solo mettere il personaggio nel carro; il personaggio non deve seguire la telecamera. Ciò significa che è possibile cambiare il movimento della telecamera dopo ché l’animazione è stata completata. Dinamica dei fluidi Questa libertà di movimento della telecamera ha aiutato a rendere vivi i personaggi disegnati a mano in un ambiente che si comporta come un ambiente reale, pur avendo l’aspetto di un’illustrazione. All’illusione hanno anche contribuito gli effetti visuali usati nel film. Per Il Principe d’Egitto, Patrick Witting, un artista digitale con un dottorato di ricerca in fluidodinamica e un background di programmazione al computer, ha scritto più di 100 plug-in per Animo, il software di cel animation usato per il film. Uno di questi plug-in, una simulazione di fluidodinamica 2D, è stato usato per creare fumo, acqua, polvere... Witting, che sta scrivendo una relazione per descrivere questa tecnica, ritiene che sia la prima volta che si usa la simulazione di fluidi per la cel animation. Ci descrive come l’ha usata per creare fumo sullo sfondo di una scena con Mosè e due maghi. Ha iniziato con una distribuzione di temperatura basata sulle variazioni di colore nella scena disegnata. “Potete pensare a questa regione biancastra nella scena come a un fluido caldo che vuole alzarsi”. Quando le regioni biancastre si alzano, ci sono flussi di ritorno lungo i bordi, creando forme esili ed allungate dai colori turbinanti. Invece di cercare di dirigere e controllare la simulazione, Witting e Conânn Fitzpatrick, animatore degli effetti in computergrafica 2D, hanno semplicemente portato i dati in Animo e renderizzato ogni fotogramma della simulazione come un layer individuale. 271 Hanno poi potuto riposizionare ogni layer muovendolo, riscalandolo e cambiandone i tempi in modo da disporre in modo abile le forme allungate di colore cangiante intorno ai personaggi disegnati a mano. “Questa tecnica ci ha aperto le porte a un mondo di nuove possibilità”, dice Fitzpatrick, che ha iniziato a emulare le forme generate dalla simulazione con immagini disegnate a mano. “Le forme generate hanno offerto un look completamente nuovo all’animazione”. I disegni fatti a mano sono stati aggiunti per omogeneità estetica anche alle scene create con tecniche 3D, in particolare alla scena epica della separazione del Mar Rosso. Henry LaBounta, un capo animatore che ha lavorato alla sequenza del Mar Rosso, sostiene: “L’acqua non poteva essere disegnata”. Descrive una scena nella quale Mosé alza il suo bastone, colpisce l’acqua e il Mar Rosso si separa, formando due gigantesche pareti che aprono un percorso per far passare gli ebrei. “Le pareti d’acqua dovevano apparire gigantesche e minacciose”, dice LaBounta. “Jeffrey Katzenberg ci ha detto che gli ebrei dovevano avere fede per andare avanti”. Per creare l’acqua, l’hanno modellata in 3D in Houdini e hanno usato texture del mare. La schiuma in cima, invece, è stata creata usando particelle controllate da disegni realizzati in Amazon 2D. La cresta dell’acqua è stata generata da un disegno. E gli spruzzi sono disegni applicati a particelle e animati con un sistema particellare. Ad attraversare le pareti d’acqua ci sono migliaia di persone animate con un sistema procedurale sviluppato dalla DreamWorks. Per prima cosa, i modelli 3D dei personaggi sono stati renderizzati con il Toon Shader di Softimage, mentre si muovevano in un ciclo di camminata in base alle angolazioni richieste dalla scena. In questo modo, si sono ottenute immagini per diverse posizioni di camminata per ogni tipo di personaggio. Poi i “cartoncini” (individuati da quattro punti dello spazio) sono stati renderizzati usando le stesse angolazioni della telecamera. Infine, le immagini dei personaggi sono state mappate sui cartoncini. In questo modo, ogni personaggio è diventato un’immagine su un semplice piano, invece che un complesso modello 3D, ma un gruppo di queste immagini offriva comunque l’illusione di una folla di persone. Grazie a questo lungometraggio si porterà la “cel animation” ad essere progettata e creata interamente su basi 3D, invece che 2D. Il primo stadio è stato quello di forzare un modulo 3D in un tradizionale sistema 2D e comporre insieme i risultati. Il secondo stadio, è quello di portare gli elementi 2D e 3D in un luogo tridimensionale neutrale nella fase di design, dov’è possibile vedere i due tipi di elementi insieme e apportare aggiustamenti nell’animazione e nella composizione, per poi comporre i risultati finali nel sistema 2D. Penso che il prossimo passo sarà quello di creare tutto il 2D all’interno di un ambiente 3D, conservando la possibilità di comporre e ottenere 272 un’immagine bidimensionale. Tutto questo porterà a immagini più ricche e complesse, e ad un nuovo genere di film. Si potrà avere un insieme di numeri che rappresentano dove sono le scenografie, le telecamere, gli oggetti e i personaggi nello spazio tridimensionale, così da è simulare effetti visuali da film dal vivo, pur potendo comunque renderizzare le immagini in uno stile che soddisfi l’estetica di un film di animazione. Questo è il nuovo genere che sto tentando di emergere e che vediamo nel Principe d’Egitto. Si possono ottenere lungometraggi con tutto lo spessore dei film dal vivo, ma anche con la ricchezza emozionale di un’illustrazione artistica. 273 TIGHTROPE Daniel Robichaud, 1998 Tightrope di Robichaud fonde l’animazione tradizionale col fotorealismo, per creare uno stile di animazione dei personaggi in CG per la Digital Domain (Venice, CA, USA) che potrebbe essere definito “fotosurrealistico”. Bunny della Blue Sky|VIFX è il coronamento di un sogno che Chris Wedge aveva dall’epoca della fondazione della sua società: quello di creare un look particolare con gli strumenti di computergrafica. Tightrope della Digital Domain ha avuto origine in circostanze molto diverse, ma anche questo cortometraggio rappresenta il raggiungimento di un look particolare per la sua società. Alcune scene di Bunny potrebbe essere tratte direttamente dalle pagine di un libro di racconti per bambini. Tightrope, invece, ha alcune scene che ricordano i dipinti di Magritte. Tightrope è il risultato di una gara interna alla Digital Domain, nella quale tutti gli animatori sono stati invitati a proporre un cortometraggio di due-quattro minuti che comprendesse uno o due personaggi, in un ambiente sufficientemente minimale per concentrare l’attenzione su di essi. L’animazione doveva essere completata nel giro di un anno da un piccolo team. Daniel Robichaud, che è stato supervisore dell’animazione per Il quinto elemento e ha contribuito alla creazione delle comparse digitali per Titanic, ha per prima cosa concepito un mondo con corde sospese nel cielo, che soddisfacesse il requisito di ambientazione minimale. Partendo da quell’idea, ha sviluppato una storia che mette due personaggi su una fune, un joker e un uomo mascherato in abito da sera, che camminano l’uno verso l’altro. I personaggi si incontrano nel mezzo, in una situazione apparentemente senza via d’uscita, e devono trovare un modo per aggirarsi. La soluzione coinvolge una pistola, uno yo-yo e un po’ di magia. Tightrope è stato prodotto da Scott Ross, con Vala Runolfsson come produttore associato. Robichaud ne è l’autore e il regista. Tightrope è caratterizzato da un realismo stilizzato con molta attenzione ai dettagli. Insieme a Robichaud, per creare e bilanciare questa tensione tra fotorealismo e fantasia in CG hanno lavorato i supervisori dell’animazione Stephane Couture (il joker) e Bernd Angerer (l’uomo mascherato), che hanno portato i personaggi dall’animazione al rendering finale usando principalmente Softimage 3D e i plug-in di loro creazione. Robichaud ha modellato entrambi i personaggi e ha dato loro un aspetto che è in gran parte, ma non esattamente, umano, esagerando alcune proporzioni. 274 Il mento del joker, per esempio, è molto lungo e il suo naso molto appuntito. Nonostante ciò, la pelle di entrambi i personaggi è assolutamente realistica. In effetti, per creare la texture della pelle, l’artista Michelle Deniaud ha imbrattato d’inchiostro nero i volti degli animatori, ne ha stampato un’impressione su un foglio di carta bianca e ha poi creato le bump map partendo da queste impressioni per inserire pori e rughe sul volto dei personaggi. In modo simile, i costumi sono così dettagliati che è possibile vedere la lavorazione nella stoffa e i graffi sulla maschera dell’uomo in abito da sera. Anche gli occhi dei personaggi sono caratterizzati da dettagli realistici. Per questi, Robichaud ha modellato la cornea separatamente dall’iride e la pupilla, per restituire all’occhio la sua profondità di profilo. Usando Mental Ray, che è un ray tracer, tutte le rifrazioni e i riflessi che avvengono nell’occhio sono credibili e contribuiscono a rendere vivo il personaggio. Altri trucchi visivi che Robichaud ha estratto dal suo cappello di regista includono l’aggiunta della grana della pellicola all’animazione, per darle un look “reale” di un film dal vivo invece che in CG, anche se, naturalmente, il cortometraggio non comprende riprese dal vivo. Robichaud ha anche usato sfondi fotorealistici (livelli di matte painting con varie nuvole e cieli) e un’illuminazione che hanno potenziato l’atmosfera dell’animazione (una luce da tempesta, un riflettore da circo, una bell’alba arancione). Ha aggiunto il motion blur ai fotogrammi durante il compositing, usando il software Nuke della Digital Domain. “Daniel ha dedicato molto tempo alla “distruzione” dell’immagine, in modo da dare l’impressione di un film su pellicola, non un’opera in CG”, sottolinea Couture. Per l’animazione facciale, Couture ha creato un pannello di controllo all’interno di Softimage 3D che offre agli animatori manopole e leve per muovere i muscoli facciali. Per creare questi controlli, ha raggruppato i Control Vertice (CV o vertici di controllo) in “star” (stelle). “Un CV poteva essere suddiviso tra varie star, nel senso che a ogni star veniva assegnata una certa percentuale del CV”, spiega Couture.“Le star sono come uno scheletro sotto un envelope. Se muovo una star, reagisce come una bone, ma sta muovendo un muscolo”. Anche se in Tightrope non ci sono dialoghi, Couture ritiene che il sistema di animazione facciale possa essere facilmente esteso per gestire la sincronizzazione labiale. Per controllare la giacca dell’uomo mascherato, Angerer ha sviluppato un metodo di animazione della stoffa che è una variazione della tecnica di animazione facciale. Invece di un input manuale per controllare la giacca, il movimento del personaggio guida star che controllano la giacca. In modo simile, i supervisori dell’animazione hanno sviluppato un sistema di vincoli che fa in modo che la fune venga animata in base al movimento dei piedi 275 dei personaggi. “Non appena Daniel ebbe l’idea di Tightrope, iniziammo a fare test del sistema di gestione della fune usando un personaggio di Titanic”, racconta Couture. Per gli effetti di magia, Keith Huggins ha sviluppato uno stile particolare usando sistemi di particelle in PowerAnimator della Alias/Wavefront. L’animazione dei personaggi vera e propria, invece, è stata gestita con la “tradizionale” animazione in keyframe. Complessivamente, al cortometraggio hanno lavorato 15 artisti, alcuni a tempo pieno e altri solo per una o due scene. La maggior parte erano animatori di personaggi; tre si sono occupati degli effetti. “Uno dei motivi per cui sono arrivato alla Digital Domain era quello di aiutare a costituire un reparto di animazione dei personaggi”, dice Angerer, che ha iniziato ad animare 15 anni fa a casa sua a Vienna, usando un sistema Cubicomp. “Possiamo creare un nuovo stile, perché non dobbiamo combattere con una pipeline e una gerarchia di 15 anni fa”. Robichaud ritiene che il cortometraggio stia già aiutando a convincere i potenziali clienti che la Digital Domain realizza animazioni dei personaggi altrettanto bene degli effetti visuali invisibili. Per questo cortometraggio, i grafici e gli animatori si sono affidati principalmente a Softimage 3D della Avid Technology funzionante su workstation NT basate su Alpha della Carrera. Per il rendering, hanno usato il software Mental Ray della Avid e per gli effetti di particelle hanno usato PowerAnimator della Alias|Wavefront. Le texture map per i volti sono state disegnate in Amazon 3D della Interactive Effects; le texture map per i vestiti sono state disegnate in Photoshop della Adobe. Il rendering è stato calcolato su macchine NT della Carrera; il compositing su workstation SGI con software proprietario Nuke della Digital Domain. 276 BUNNY Chris Wedge,1998 Bunny è una presentazione realizzata dalla Blue Sky|VIFX (Harrison, NY, USA; Los Angeles, USA). Bunny di Wedge rivela, per la prima volta in un film animato, un mondo sintetico da libro per bambini renderizzato con un modello d’illuminazione globale d’ambiente. La star di quest’animazione da sette minuti, scritta e diretta dal fondatore dei Blue Sky Studios, Chris Wedge, è una vecchia coniglietta bisbetica che ha bisogno dell’aiuto di un sostegno per spostarsi nella cucina. Il suo cattivo umore si trasforma in rabbia quando la preparazione del dolce viene interrotta da una falena insistente di cui non riesce a sbarazzarsi. Il personaggio ispira un po’ di pietà. Si vede la sua foto del matrimonio, e si capisce che il marito è morto e l’ha lasciata sola. Ma che cosa vuole quella falena? I toni dark di Bunny sono attenuati da un look morbido è decisamente particolare, ma il cortometraggio rivela comunque un’atmosfera noir insolita per le animazioni in computergrafica. Il cortometraggio è un perfetto incrocio tra cinematografia e illustrazione da libri per bambini. Quel look sfrutta una tecnologia d’illuminazione e rendering proprietaria che è un’estensione del radiosity. Il software parte col ray tracing, poi “apre molto di più il rubinetto”, come dice Wedge, usando quello che lui chiama un modello d’illuminazione d’ambiente per renderizzare le complessità della luce naturale. Come il radiosity, tiene traccia di come la luce viene riflessa da tutti gli oggetti della scena 3D. Se c’è un muro bianco con davanti una camicia rossa, parte del rosso si diffonde sul muro. Lo spazio colore in Bunny è una matrice ondulante in continuo cambiamento. Diversamente dal radiosity, il modello d’illuminazione non è progressivo; non potete muovere una telecamera in queste scene dopo che sono state renderizzate. Una volta spostata la telecamera, è infatti necessario rigenerare ogni fotogramma. Un’altra differenza è che il modello d’illuminazione della Blue Sky Studios presta attenzione al carattere della luce, non solo a come viene riflessa nella scena. Il risultato è un modello d’illuminazione che simula così da vicino la luce naturale, che sono state sufficienti tre sorgenti di luce per generare la maggior parte dell’illuminazione nella cucina di Bunny: una luce fredda sopra il bancone, una luce calda sopra il lavello e la morbida luce della luna che filtra attraverso la finestra. 277 I direttori tecnici hanno controllato la luce proprio come farebbe un direttore della fotografia per un film ripreso dal vivo, usando gli equivalenti al computer di schermi riflettenti e di riempimento per dirigere la luce, e di pannelli neri per assorbirla. I tempi dei rendering finali, anche di una scena verso la fine del film che comprende 500 falene pelose, animazione procedurale e luce di diffusione, sono stati ridotti da 30 ore a meno di 15 ore per fotogramma, grazie a 164 processori stipati in 14 sistemi AlphaServer RenderPlex della Compaq. Usando il radiosity per l’illuminazione, i tempi di rendering durano dieci volte di più, ma si ottiene una complessità di un ordine di grandezza superiore. Nel corso degli anni, le cartoline per gli auguri di Natale della Blue Sky venivano realizzate con immagini fisse create con la loro versione di radiosity, ma Bunny è stata la prima animazione a usare quella tecnica. Quelle immagini fisse hanno convinto i capo animatori Doug Dooley e Nina Bafaro a unirsi ai Blue Sky Studios. Per Bunny, Bafaro ha creato il ciclo di volo della pesante falena e ha lavorato su gran parte dell’animazione della stessa Bunny. Dopo aver guardato vari video sui conigli, ha scoperto che i movimenti rapidi della testa avrebbero aiutato Bunny a sembrare una coniglietta, pur essendo vecchia. Da parte sua, Dooley ha aggiunto un tocco personale prendendo in prestito da sua nonna alcune azioni di Bunny. “Ogni sera alle nove, mia nonna iniziava a guardare la televisione, appoggiava la testa all’indietro, si addormentava sulla poltrona e si metteva a russare”, dichiara. “Ho raccontato questa cosa a Chris e lui ha detto: “Oh, fallo pure”. Fino ad allora, il modello di Bunny, scolpito da Wedge sei anni prima, non aveva una bocca. “Alcuni degli oggetti nella cucina sono stati creati con CSG come test e sono in circolazione da una decina d’anni. Il lavello esiste dal 1989”, dice Wedge ridendo. “Praticamente tutti quelli che hanno varcato quella porta hanno messo mano a Bunny. Ci abbiamo messo molto tempo a fare i titoli di coda”. “Quando ci siamo messi insieme per fondare la Blue Sky nel 1987, avevo in mente questo look”, aggiunge Wedge. “Provo una grande soddisfazione per Bunny. È esattamente ciò che volevo fare”. Oltre al linguaggio di programmazione, agli strumenti di modellazione Constructive Solid Geometry, alla tecnologia di rendering e agli strumenti di compositing del software proprietario dei Blue Sky Studios, CGI Studio, gli animatori e gli artisti hanno usato Softimage per modellare e animare Bunny, anche se, secondo quanto racconta il fondatore Chris Wedge, Maya della Alias/Wavefront sta ultimamente “prendendo quota”. 278 Inoltre, lo studio ha usato Amazon 3D della Interactive Effects e Photoshop della Adobe per disegnare le texture map, e Cineon della Kodak per un po’ di paint 2D e compositing di effetti. Il software funziona su workstation Irix della Silicon Graphics. Il rendering è stato realizzato su sistemi AlphaServer RenderPlex della Compaq. 279 TARZAN Chris Buck,Kevin Lima,1999 È facile capire perché, quando i registi della Disney Feature Animation hanno pensato come realizzare il primo lungometraggi animato su Tarzan, abbiano voluto superare le restrizioni dell’animazione tradizionale (o cel animation), dando al “re della giungla” ampio spazio per scivolare sui tronchi degli alberi come un surfista e saltare di ramo in ramo come i suoi fratelli gorilla. “Volevo muovere la telecamera tra gli alberi”, dice il direttore artistico Dan St. Pierre, “per creare un ambiente in cui Tarzan si potesse muovere liberamente”. Il problema era come farlo. Nella cel animation, creata usando strumenti digitali o tradizionali, i personaggi 2D vengono posizionati su o tra disegni di sfondo, spesso composti da più strati o “piani”. Usando una camera “multipiano”, il regista può zoomare avanti e indietro tra questi strati per creare un’illusione di profondità, oppure carrellare a destra e a sinistra. Per Tarzan, questo non era sufficiente. “Le camere multipiano non possono girare intorno agli angoli”, spiega Kevin Lima, coregista del film con Chris Buck. “Volevamo una macchina da presa che potesse seguire una corsa sulle montagne russe”. Questo implicava una soluzione 3D. In effetti, alcuni lungometraggi animati 2D hanno già usato scenografie 3D per scene che richiedevano un movimento di macchina simile a quello delle riprese dal vivo; un esempio è la scena della sala da ballo in La Bella e la Bestia della stessa Disney. I registi di Tarzan ritengono però che quelle scene abbiano tipicamente un aspetto che le fa distinguere dalle altre. “Non volevamo una sequenza che facesse dire “Ecco, questa è computergrafica”, racconta Buck. “Se la scenografia 3D non si fosse integrata perfettamente con i fondali disegnati in 2D, non l’avremmo voluta”. Aggiunge St. Pierre: “Volevamo che gli spettatori pensassero di guardare un disegno 2D, ma poi, improvvisamente, vedessero la camera entrare nel disegno, girare intorno a un angolo e a un altro ancora”. I registi hanno ottenuto ciò che volevano e ancora di più con una nuova tecnica di rendering chiamata Deep Canvas, sviluppata dalla Disney appositamente per Tarzan. Il Deep Canvas (letteralmente, dipinto profondo) non solo conferisce alle scenografie 3D un look pittorico, ma permette anche di animare i disegni in modo che, per esempio, quando Tarzan guarda in basso verso il paesaggio disegnato sotto di lui, una leggera brezza può, inaspettatamente, agitare le foglie degli alberi sottostanti. Il compito di supervisionare il software che avrebbe dato ai rendering 3D un aspetto pittorico è spettato a Eric Daniels, responsabile della CGI e supervisore artistico per la produzione digitale di Tarzan. 280 Creando un fondale 3D, gli artisti della Disney hanno permesso ai registi di Tarzan di muovere la telecamera attraverso gli alberi. L’idea che ha prodotto il software Deep Canvas era semplice, ma la sua creazione non lo è stata. “Sono contento di non aver saputo in anticipo quanto sarebbe stato difficile il lavoro”, confessa Daniels, che si è reso conto, dopo aver parlato con vari responsabili, che il software non solo doveva integrare 3D e 2D, ma doveva anche inserirsi nella tradizionale metodologia di produzione delle animazioni della Disney. Con Deep Canvas, che è stato sviluppato principalmente da Tasso Lappas e George Katanics, gli artisti dei fondali dipingono su rappresentazioni 2D di scene 3D, usando una rielaborazione di uno strumento di paint proprietario dedicato ai disegnatori tradizionali. Mentre dipingono, le informazioni su ogni pennellata (colore, forma, pressione del pennello...) vengono memorizzate in forma di dati, non pixel, in modo che il software possa poi applicare le pennellate a una posizione appropriata nello spazio 3D. “È come se le pennellate attraversassero lo spazio per arrivare sulla superficie desiderata dall’artista”, spiega Daniels. Per esempio, una sfera può rappresentare un’area coperta da foglie. Il disegnatore dipinge le foglie con lo stile da lui preferito, e mentre lo fa, vengono memorizzate le informazioni su ogni pennellata. “Quando viene renderizzato un fotogramma con quelle foglie, la sfera sparisce, ma le pennellate si posano a mezz’aria e vi rimangono”, spiega Daniels. “Il computer riproduce ogni pennellata in ogni fotogramma e se l’oggetto cambia forma (perché la camera si muove), le pennellate possono seguire il cambiamento”. Ciò su cui lavorano i disegnatori sono rappresentazioni in 2D di modelli molto dettagliati ad alta risoluzione. Le loro pennellate, però, vengono in effetti applicate a superfici più larghe ottenute a partire dal modello in alta risoluzione. Se le pennellate venissero applicate al modello finemente dettagliato, tutte quelle che fuoriescono dai contorni del modello verrebbero tagliate nel rendering del fotogramma, producendo quindi un contorno netto. Invece, dato che le pennellate vengono applicate alle superfici più grandi, i disegnatori non devono rimanere entro i contorni, e la scena viene renderizzata con un aspetto più pittorico. “Il modo in cui Deep Canvas renderizza i modelli in CG è completamente diverso dalle altre applicazioni esistenti”, spiega Daniels. “Praticamente ogni renderer segue lo stesso paradigma di RenderMan: si parte da una superficie e le si assegnano coordinate UV. Poi si applica un foglio di gomma alla superficie, e su quel foglio di gomma c’è un’immagine. Se, per esempio, state cercando di creare la texture del tronco di un albero, prima dovete fare un disegno della texture e poi avvolgerlo su un cilindro per farlo assomigliare a un tronco. Il problema è che, come ci siamo accorti realizzando Tarzan, il risultato finale non assomiglia al dipinto di un albero. Anche se si parte da una 281 texturemap che è dipinta, quando si avvolge quel foglio di gomma infinitamente sottile e deformabile intorno al cilindro, si ottiene sempre un oggetto dai contorni netti. Noi invece miriamo a un aspetto più grezzo, uno stile più impressionista”. Nel rendering, le aree non dipinte risultano trasparenti. Se la telecamera inquadra un’area non dipinta di un oggetto, per esempio la parte posteriore, il reparto che si occupa dei layout produce una nuova rappresentazione 2D, in modo che i disegnatori di fondali possano riempire le zone vuote. I fotogrammi vengono renderizzati alla risoluzione di 2048 pixel. L’idea del rendering delle pennellate non è nata con il gruppo di Daniels. Barbara J. Meier, per esempio, ha scritto un articolo, “Painterly Rendering for Animation”, pubblicato negli atti del SIGGRAPH ’96, nel quale descrive una tecnica di rendering delle pennellate sviluppata quando era direttore tecnico/artistico alla Disney Feature Animation. “Se non fosse stato per Barb Meier, non avremmo realizzato Deep Canvas”, afferma Daniels. “Lei ha dimostrato che si poteva fare. Ma il suo progetto era centrato sull’automazione. Per Tarzan, volevamo un controllo artistico”. Quel controllo inizia con il gruppo responsabile dei layout. Dato che questo gruppo disegna tradizionalmente gli elementi che verranno dipinti dagli artisti dei fondali e pianifica i movimenti della macchina da presa, è spettato a loro creare i modelli 3D per le scene di Deep Canvas e fornire le rappresentazioni 2D in base ai movimenti della telecamera. Zimmerman ha collaborato con il reparto dei layout durante la produzione, aiutandoli a creare i modelli, gli ambienti 3D, vari arredi scenici e anche effetti come l’acqua. Il gruppo ha usato i software Houdini della Side Effects Software e PowerAnimator e Maya della Alias/Wavefront, tutti funzionanti su workstation SGI. Houdini è stato usato principalmente per le “scene problematiche”, per usare le parole di Zimmerman, e PowerAnimator per i modelli e le animazioni più semplici. “Se dovevamo muovere una foglia, allora ricorrevamo a PowerAnimator”, specifica Daniels. Houdini, invece, è stato utilizzato per rappresentare la pioggia, le superfici dell’acqua, gruppi di farfalle e altri elementi di scena che sarebbero stati difficili da realizzare con Alias “o con qualsiasi altro pacchetto”, secondo Daniels. Lo stesso Deep Canvas non è stato utilizzato solo per le scene nella giungla, ma anche in quelle in cui compare l’acqua. “La superficie dell’acqua è stata realizzata in Houdini, ma è stata anche applicata la tecnica di Deep Canvas ai detriti galleggianti”. Per esempio, nelle scene iniziali del film, dove si vede il salvataggio di Tarzan bambino da un naufragio, si vedono le onde possenti di un mare in tempesta che trascinano molti rottami della nave. I rottami sono gestiti da Deep Canvas, mentre la superficie dell’acqua è stata renderizzata in Houdini. Complessivamente, la Disney ha usato Deep Canvas in più di 100 282 scene, per un totale di circa 10 minuti d’immagini disseminate in diversi punti del film. “Generalmente, abbiamo usato questa tecnica nei momenti del film in cui cercavamo di far capire che Tarzan è realmente in contatto con il suo ambiente”, commenta Daniels. “Quando scivolate sugli alberi insieme a lui, quando diventate anche voi parte del suo ambiente, avete una sensazione diversa della giungla rispetto a una rappresentazione piatta”. Se non riuscirete a individuare la transizione dai fondali 2D a quelli gestiti da Deep Canvas, i registi avranno raggiunto il loro scopo. 283 TOY STORY 2 John Lasseter, 1999 Il 24 novembre del 1999, la Walt Disney Pictures e la Pixar Animation Studios hanno presentato nelle sale cinematografiche statunitensi Toy Story2, il seguito del loro film del 1995. Creato ancora una volta dalla Pixar e diretto da John Lasseter, il sequel vede il ritorno di Woody, Buzz Lightyear e degli altri giocattoli della stanza di Andy, oltre all’intero cast di voci originali (che ovviamente in Italia non sentiremo) come Tom Hanks per Woody e Tim Allen per Buzz. I sequel dei film di animazione della Disney vengono normalmente creati esclusivamente per il video, e questa era l’intenzione originale anche per Toy Story 2. In effetti, la produzione video era già ben avviata quando gli studios hanno deciso di passare alla pellicola. “La storia di base che vede Woody rubato da un collezionista di giocattoli è rimasta la stessa”, dice Ash Brannon, coregista insieme a Lee Unkrich, “ma abbiamo dovuto ristrutturarla passando da un video di un’ora a un film di 80 minuti”. Il cambiamento ha offerto più spazio per i colpi di scena e per l’arricchimento della trama, ma ha anche significato più lavoro per il team della Pixar, che ha dovuto reinquadrare tutto per tenere conto dell’aspect ratio più largo della pellicola e della maggiore risoluzione, oltre che per gestire i 20 minuti aggiuntivi e l’aumento di complessità. La Pixar ha usato Alias Studio della Alias/Wavefront per la modellazione, Amazon Paint della Interactive Effect (Irvine, CA, USA) per il painting, e molto software proprietario per modellazione, animazione e compositing, tutti funzionanti su macchine SGI. Per il rendering, lo studio ha usato il proprio software RenderMan funzionante su macchine Sun. La render farm della Pixar è ora cresciuta a 1.400 processori e anche così, Toy Story 2 ha spinto le capacità di rendering dello studio ai limiti. Nel film ci sono 122.699 fotogrammi, secondo Thomas Jordan, direttore tecnico, che, con un team di dieci “pastori del rendering”, ha guidato i fotogrammi finali attraverso la pipeline di rendering. Secondo Jordan, il tempo richiesto per renderizzare ogni fotogramma andava da 10 minuti a tre giorni, con alcuni fotogrammi che erano grandi 4 GB. L’output più veloce è stato 284 metri di pellicola, o 14.880 fotogrammi, in una settimana. Oltre a quello della complessità, gli artisti e lo staff tecnico della Pixar hanno dovuto affrontare altri due problemi principali. Uno era quello di rimanere fedeli al mondo di Toy Story anche se le loro capacità tecniche e artistiche erano migliorate negli ultimi quattro anni. 284 Il secondo era quello di trovare un modo per ottimizzare il loro lavoro per rispettare i tempi di produzione accelerati richiesti dal passaggio dalla produzione solo per il video a quella su pellicola. Angosce da giocattolo Alla base della storia c’è l’ormai familiare concetto di Lasseter che i giocattoli sono vivi, quando gli esseri umani non stanno guardando. Nell’originale Toy Story, il cowboy-giocattolo Woody salva Buzz, il nuovo space ranger-giocattolo, dalle grinfie di Syd, un bambino cattivo distruttore di giocattoli. Nel corso della storia, Buzz scopre di non essere un vero space ranger, ma solo un giocattolo. In Toy Story2, i ruoli sono invertiti: Buzz deve salvare Woody. “Per portare un oggetto inanimato alla vita, dovete capirne la funzione”, spiega Lasseter. “I giocattoli sono pensati per far giocare i bambini, ed è questo che vogliono sopra ogni cosa”. Nelle prime scene di Toy Story 2, vediamo Andy che rompe accidentalmente il braccio di Woody, poi butta il giocattolo rotto su uno scaffale e parte per un campeggio senza di lui. Sullo scaffale insieme a Woody c’è Wheezy, un asmatico pinguino giocattolo con il fischietto rotto, che sta lì a prendere polvere dopo essere stato abbandonato. Quando la mamma di Andy butta Wheezy in uno scatolone per la svendita di roba vecchia e lo porta fuori casa, capiamo quanto possano andare male le cose per un giocattolo. Ma con una manovra coraggiosa, Woody balza a cavallo di Buster, il bassotto di famiglia, e salva Wheezy. Sfortunatamente, Woody cade a terra all’esterno della casa e, dato che stanno arrivando gli esseri umani, è costretto a rimanere fermo dov’è. I giocattoli di Andy guardano inorriditi mentre Al della Al’s Toy Barn, un collezionista di giocattoli, ruba Woody, e questo prepara il campo per il salvataggio di Buzz. Al porta Woody nel suo appartamento e qui Woody rimane sbalordito dalla scoperta di avere un passato: era infatti la star di uno spettacolo televisivo di cowboy degli anni’50. Al ha collezionato versioni giocattolo degli altri protagonisti di Woody’s Round-Up: Jesse la cowgirl, Pete il cercatore d’oro, e Bullseye, il cavallo di Woody, insieme a moltissimi altri cimeli come borse, fumetti, giradischi, cappelli, cinture... Con l’aggiunta di Woody, la collezione è completa, e Al tira fuori tutto dagli imballaggi. Questo fa nascere il conflitto: Woody, perfettamente riparato, rimarrà con i suoi nuovi amici, in modo che la collezione possa andare in un museo dove qualcuno se ne prenderà cura per sempre? Oppure, se Buzz e i giocattoli di Andy arriveranno in tempo, Woody tornerà indietro insieme a loro col rischio di essere abbandonato da Andy? 285 Per gli animatori, molti dei quali hanno lavorato sul primo film, una delle scene più difficili di Toy Story 2 è stata la prima, secondo quanto dichiara Mc-Queen. “Dato che vedevamo Woody e Buzz ogni giorno, la tentazione è stata quella di rompere gli schemi. Ma la prima volta che il pubblico vede i personaggi, dovevamo essere sicuri di catturare la loro essenza e che non ci fosse niente di strano nella loro interpretazione”, spiega. Inoltre, anche gli altri personaggi familiari dovevano avere un aspetto simile a quello di quattro anni fa, così come l’ambiente in cui si muovevano. D’altra parte, in questi quattro anni, la Pixar ha prodotto il cortometraggio Geri’s Game, il cui protagonista è senza dubbio un essere umano tecnicamente e artisticamente migliore di quelli di Toy Story, e lo studio ha anche realizzato un secondo lungometraggio, A Bug’s Life, nel quale sono stati usati modelli molto complessi d’illuminazione e di shading per creare un ambiente visivamente più ricco rispetto a quello di Toy Story. Il trucco è stato quello di usare i miglioramenti tecnologici in modo selettivo. Per esempio, il nuovo essere umano di Toy Story 2, Al, è più complesso della mamma e di Andy; tuttavia, anche questi ultimi sono stati migliorati. Il nostro punto di vista alla Pixar è che la mamma di Andy ha ora un nuovo guardaroba, un nuovo “look” e ha fatto ginnastica, ma ha sempre l’aspetto della mamma. “Non abbiamo mirato a produrre un essere umano perfettamente realistico”, dice Lasseter. “Gli esseri umani sono ancora cartoon”. Ma anche così, sono più realistici degli esseri umani di Toy Story, in particolare Al. 286 L’elemento umano “Al è decisamente odioso, ed è anche un modello molto complesso”, dice Eben Ostby, supervisore dei modelli. “Se dovessi fare una stima grossolana, direi che tutti i file sorgenti usati per la sua realizzazione arrivano a 200 MB. Woody arriva all’incirca a un decimo”. Come in Geri’s Game, i direttori tecnici della Pixar hanno usato la tecnologia delle superfici di suddivisione per creare la pelle di Al e degli altri esseri umani. Ma invece di cercare di simulare le proprietà fisiche della pelle, come hanno fatto per gli esseri umani del Toy Story originale, hanno applicato quello che hanno imparato da A Bug’s Life per creare le texture delle superfici. “Abbiamo imparato che cosa possono fare bene gli shader e i painter, quindi invece di modellare fisicamente la pelle, abbiamo creato strumenti per i painter”, spiega Brad West, supervisore dello shading. Più specificamente, i direttori tecnici hanno sviluppato un gigantesco shader di RenderMan per creare caratteristiche della pelle come pori, macchie, vene, luccichii, sudore, e persino baffi che lo shader può far crescere in modo procedurale. Quelle caratteristiche sono diventate strumenti a disposizione dei painter quando i direttori tecnici le hanno aggiunte all’interfaccia di Amazon Paint. I painter hanno iniziato con un rendering di base del modello, poi ci hanno disegnato sopra vari strati per ritoccare il rendering. Al aveva più dettagli di tutti, ma dato che non volevano che sembrasse troppo diverso dagli altri esseri umani del film, hanno aggiunto dettagli anche alla mamma e ad Andy. “Solo che a questi ultimi la telecamera non si avvicina mai così tanto”, spiega West. “La parte di Al da me preferita sono i baffi”, aggiunge. “Al ha un’ombra sul volto, la sua pelle è macchiata, e in un’area ha una piccola cicatrice dove non cresce la barba. Ha anche dei foruncoli”. Per creare le linee sotto gli occhi e intorno alla bocca di Al, i painter hanno usato shader di displacement. Per creare i peli sulle braccia, i direttori tecnici hanno usato la geometria. La Pixar ha usato due tecniche diverse per creare i peli. Per i peli e i capelli sulle superfici rigide come il cranio umano, Guido Quadroni(che lavorava all’italianissima Gestel ed è tra gli autori di SolidThinking, ndr), direttore tecnico facente parte del team per la modellazione e lo shading degli esseri umani, ha creato un plug-in di Alias. Il plug-in offriva ai direttori tecnici capelli o peli guida composti da primitive geometriche, che potevano essere usati per descrivere il look e il movimento di migliaia di peli al momento del rendering. 287 Per i peli sulle superfici deformabili come le braccia di Al e il cane, i painter hanno usato texture map. Per creare i vestiti, i direttori tecnici hanno scelto d’impostare a mano le posizioni invece di usare una simulazione dinamica. “Il reparto di ricerca stava ancora lavorando sul simulatore per Geri’s Game quando abbiamo iniziato”, racconta Oren Jacob, direttore tecnico associato. “Geri è un vecchietto magro che indossa una giacca larga. Al è un grassone con vestiti belli tesi, e doveva essere presente in molte più scene di Geri”. Quindi, hanno deciso di modellare le cuciture e le pieghe per certe pose, e poi usare l’interpolazione delle forme tra i cambiamenti di posizione. “Tutto quello che dovevano fare gli animatori era animare il modello, e i vestiti ne avrebbero seguito i movimenti”, dice Jacob. “Abbiamo tonnellate di geometria in questo film”, asserisce Galyn Susman, direttore tecnico supervisore. “In A Bug’s Life, la complessità era nelle superfici. In Toy Story 2, la complessità è nella geometria”. Susman fa notare che due delle scene geometricamente più complesse avvengono in un quartiere del centro città e in un aeroporto. “La scena ambientata in città è molto onerosa”, concorda Jordan. “Ogni isolato ha 10 alberi o più, ogni albero ha migliaia di foglie, ogni auto ha una o due persone, e ogni persona ha migliaia di capelli”. Poi ci sono case, grate, semafori e parchimetri. Le case hanno sporgenze e finestre coperte di sporco. “Niente di tutto questo è finto”, dice Susman parlando di questa scena. “È tutta geometria. Avremmo potuto sicuramente usare il painting, ma volevamo usare movimenti molto fluidi della telecamera. Quando si muove la telecamera, anche di poco, l’occhio allenato scopre che c’è qualcosa di sbagliato”. Tutta questa geometria contribuisce a rendere la scena visualmente più complessa ma è il modo in cui i modelli interagiscono con la luce che li rende visivamente ricchi. “Abbiamo usato molte tecniche tratte da A Bug’s Life, che fanno in modo che la luce crei scene visivamente più ricche”, osserva Ostby. “Abbiamo arrotondato i bordi per creare aree che catturassero la luce e abbiamo evitato di creare cose troppo piatte, anche per gli oggetti di sfondo”. “Abbiamo riscritto il modo in cui le superfici e la luce si parlano, e abbiamo usato i nuovi strumenti e processi di A Bug’s Life per migliorare questo film dal punto di vista artistico”, spiega Sharon Calahan, direttore della fotografia. “Pensiamo in modo cinematografico, ma siamo anche nel mondo dell’illustrazione. Creiamo effetti fisici e un mondo credibile, ma non è reale. Vogliamo anche influenze pittoriche, ma senza appiattire le immagini. Vogliamo spazi che sembrano profondi. 288 Il look del nostro studio si sta evolvendo, e questa è la parte divertente. Penso che, complessivamente, questo film sia più delicato e profondo di Toy Story.”. Per creare Toy Story, lo studio ha usato366 oggetti. In Toy Story 2, ci sono approssimativamente 1.200 modelli, con dimensioni che vanno da una matita a un aeroporto, più variazioni, secondo quando afferma Susman. Per le “comparse” umane, i modellisti hanno mescolato insieme pezzi di circa una mezza dozzina di modelli. “Abbiamo messo facce diverse sullo stesso corpo e viceversa”, spiega Ostby. Per aiutare gli animatori a creare la recitazione delle comparse, il reparto di ricerca e sviluppo ha sviluppato nuovi controlli delle articolazioni per i modelli. Chiamato Geppetto, il software, che è stato scritto dal ricercatore senior Tony DeRose e dal progettista di software grafico Dirk VanGelder, è un’evoluzione della tecnologia proprietaria della Pixar PET(Patch Editing Tool). “Geppetto rappresenta un modo per raggruppare punti e collegare una variabile articolata”, spiega Susman. “Ci offre un modo per costruire strutture scheletriche e trasferirle da personaggio a personaggio e per definire in modo procedurale quello che deve succedere”. Con Geppetto, un modellista può importare un’intera struttura scheletrica in un altro essere umano, richiedendo solo piccoli ritocchi per tenere conto delle dimensioni diverse. Effetti speciali Questa attenzione ai dettagli è evidente anche negli effetti. Per esempio, la Pixar ha creato sequenze dello spettacolo televisivo di Woody usando la computergrafica 3D. Quell’animazione è stata renderizzata a colori, convertita in video bianco e nero, e poi fatta passare attraverso un programma di compositing per aggiungere saltelli, graffi del negativo, peli, macchie di caffè, linee di scansione, bagliori e statiche, tutto quello che potrebbe essere successo a un cinescopio per TV degli anni ’50. Il risultato è stato mappato su un modello CG di un televisore Philco, e poi deformato per adattarlo allo schermo. “Siamo passati attraverso tutte le fasi, come se il programma fosse stato creato con il vecchio processo”, afferma Jacob. Persino la polvere sullo scaffale di Wheezy è stata creata con particolare cura. “Avremmo potuto usare effetti di particelle per creare la polvere, ma pensavamo che non sarebbe stato convincente”, dice Jacob. “Invece, abbiamo deciso d’inserire milioni di pezzi di materiale nella scena”, 2,4 milioni di pezzi, per la precisione, inclusi piccoli “peli”, 289 macchie grosse due o tre pixel, e piccole sfere. “Lo scaffale è coperto da una crosta di polvere spessa 3 millimetri che è porosa”, racconta Jacob. “Ha una struttura interna”. Quindi, quando Woody mette le mani nella polvere, questa viene schiacciata, e quando rialza le mani, la polvere rimane attaccata. Il team degli effetti ha anche creato nugoli di polvere usando una struttura volumetrica. “Li abbiamo messi nel catalogo dei modelli, in modo che il team responsabile dei layout può posizionarli dove vuole”, dice Jacob. Tra le scene di effetti preferite da Jacob, però, ci sono quelle create per le sequenze spaziali: esplosioni, onde d’urto e folle di robot. “In una scena, Buzz è circondato da 280 mila robot indipendenti che gli sparano tutti addosso contemporaneamente”, racconta. “Uno dei motivi di successo di Toy Story è che i giocattoli sono ottimi soggetti per l’animazione 3D”, dice Lasseter. “Potete inserire dettagli che non è possibile inserire nelle animazioni disegnate a mano: autoadesivi, giunture, chiodi, viti, elmetti lucidi, camicie di stoffa e jeans di tela”. Per facilitare la gestione di quei dettagli, la Pixar ha sviluppato molti schemi per ottimizzare la produzione, inclusa, per esempio, la generazione automatica di dettagli a seconda della vicinanza di un modello alla telecamera. “Un essere umano può avere 200 mila capelli, ma se la telecamera è molto vicina o molto lontana, se ne hanno bisogno di soli 500”, dice Susman. Penso che il pubblico sia rimasto molto sorpreso dalla storia di Toy Story2. Ci sono lo humour e l’avventura del primo Toy Story, ma il livello emozionale che Woody e Jesse in particolare riescono a suscitare è più profondo. Le cose che impediscono di apprezzare i giocattoli sono il fatto di essere rotti, persi o rubati, ma la più difficile da accettare è il fatto di essere superati. Il film mostra questi aspetti dal punto di vista dei giocattoli. È vero che i giocattoli prima o poi vengono normalmente considerati superati e, d’altra parte, la stessa cosa succede alla tecnologia. Ma le storie possono vivere per sempre. 290 DINOSAUR Eric Leighton, Ralph Zondag,2000 La sequenza d’apertura di Dinosaur è mozzafiato: inizia con un primo piano di un grande uovo all’interno di un nido sul terreno. Poi la macchina da presa carrella all’indietro per rivelare un paesaggio tropicale pieno di migliaia di dinosauri che pascolano tranquilli. Improvvisamente, un brutale predatore irrompe nella scena, distruggendo tutto quel che incontra sulla sua strada a parte l’uovo, che è stato afferrato da un oviraptor. La macchina da presa segue il raptor mentre sorvola il paesaggio, supera una scogliera e si lancia verso l’acqua sottostante continuando a tenere in modo precario l’uovo tra gli artigli. Tutti gli animali in questa scena e in tutto il film sono stati creati con la computer-grafica3D. Lo sfondo è reale, una fusione di paesaggi ripresi in varie location. Questo film della Touchstone Pictures, diretto da Ralph Zondag ed Eric Leighton, offre una visione unica di un mondo preistorico pieno di dinosauri e lemuri 3D animati, fotorealistici e parlanti. Una follia diventata realtà Quando la Disney ha approvato il progetto nel 1995, sapeva che per creare il film avrebbe dovuto costruire un nuovo studio digitale partendo da zero. Battezzato ora “Feature Animation Northside”, lo studio si trova in un edificio che prima era di proprietà della Lockheed a Burbank, in California (USA). In questo edificio sono stati installati i computer, principalmente macchine SGI, per creare un render-farm e offrire workstation per artisti, progettisti software e direttori tecnici. Gli strumenti software sono stati valutati, acquistati, installati, linkati e scritti, ed è stata messa in piedi una pipeline di produzione. Il team si è spostato nell’edificio Northside nel gennaio del 1997, e l’animazione è ufficialmente iniziata otto mesi dopo, anche se il lavoro era già iniziato. All’apice della produzione, lo staff di Dinosaur è arrivato a 360 persone. Complessivamente, questo team ha creato un film di 76 minuti i cui protagonisti sono più di 30 specie di animali in CG fotorealistici, con dimensioni che vanno dalle lucertole da 30 centimetri a brachiosauri da 100 tonnellate e 35 metri di lunghezza (per una spesa complessiva che secondo alcuni supererebbe i 300 miliardi di lire). Dieci di questi animali, sei dinosauri e quattro lemuri, parlano. Il mondo di 65 milioni di anni fa in cui abitano questi animali è stato creato principalmente a partire da location riprese in varie parti del mondo in un periodo di 18 mesi. I paesaggi nella scena d’apertura, per esempio, sono stati assemblati partendo da riprese in pellicola effettuate in Florida, Venezuela, 291 Australia, Hawaii e all’Arboretum di Los Angeles, che sono state poi scansite, incollate insieme e arricchite digitalmente per creare l’ambientazione del periodo Cretaceo. Sono state utilizzate anche alcune miniature. Complessivamente, due troupe hanno ripreso più di 243 chilometri di pellicola, inclusi particolari come gli spruzzi usati dal team degli effetti per facilitare la fusione dei personaggi in CG negli sfondi dal vivo. Solo in una scena, che si svolge all’interno di una caverna, vengono utilizzati sfondi interamente in CG. “Pensavamo di creare sfondi in compositing per circa il 20-30% del film, ma alla fine abbiamo utilizzato il compositing per circa l’80-90% degli sfondi”, racconta Jimbo Hillin, supervisore del compositing degli effetti. La ripresa degli sfondi Gli storyboard creati nel 1996 e nel 1997 si sono evoluti in animatic (o workbook, come vengono chiamati dallo staff della Disney) 2D, che poi sono diventati workbook 3D, creati con Softimage 3D della Avid. Oltre a mostrare la storia mediante un abbozzo di animazione dei personaggi, il workbook 3D descriveva anche gli sfondi, è come un set virtuale. In molte scene si muovono branchi di dinosauri che sono stati ripresi a distanze variabili da 10 a 30 metri. Hanno dovuto trovare location che fossero molto simili al mondo preistorico descritto nel workbook 3D e che avessero una scala corretta per ospitare i giganteschi animali. Dato che pochi luoghi soddisfacevano quei requisiti, hanno filmato paesaggi sapendo che sarebbero poi stati manipolati e composti in digitale per creare uno sfondo. Per esempio, una vallata rocciosa che appare verso la fine del film è stata ripresa in due location, Death Valley e Lone Pine, in California. Il canyon della Death Valley è stato trattato come se fosse una miniatura in scala dimezzata. Per seguire l’azione dal punto di vista di un dinosauro, lo staff ha creato la “Dino-Cam”, una gru computerizzata per la macchina da presa composta da due torri collegate da un cavo. La camera si può muovere con una velocità di 56 chilometri all’ora tra le due torri e fino a 22 metri di altezza; può anche panoramicare e inclinarsi di 360 gradi. Per le riprese, la troupe ha usato quattro macchine da presa Vistavision di grande formato per tutte le scene tranne quelle dall’elicottero. La troupe ha usato i dati estratti dai workbook 3D per controllare la macchina da presa in motion-control. I dati rilevati nelle location sono stati riportati nei workbook 3D per aiutare i direttori tecnici e gli animatori a posizionare con precisione i personaggi in CG negli elementi filmati. 292 Primi passi Prima di poter animare i personaggi, bisognava crearli, e prima di poterli creare, dovevano esistere due cose: gli strumenti software e il design dei personaggi. Per il software, il team ha scelto una combinazione di prodotti commerciali e ha anche creato numerosi strumenti proprietari. Un team di ricerca e sviluppo composto da 15 progettisti software ha scritto 450 programmi, dei quali più di 120 sono plug-in per il software di animazione. Questi programmi andavano da script MEL usati in Maya della Alias/Wavefront a programmi in C++ che funzionavano con Maya o Softimage 3D, a software di conversione per spostare file da un programma all’altro, a codice standalone. I tre programmi principali creati dal team per completare le applicazioni standalone sono: Fur Tool, usato per i lemuri e per creare piume ed erba; Body Builder, una collezione di strumenti per creare pelle e muscoli; e Mug Shot, un tool per la fusione di forme che lavora all’interno di Maya per gestire l’animazione facciale e la sincronizzazione labiale. Inoltre, il team ha creato un programma di stitching per conservare la continuità delle patch, e ha realizzato HOIDs, un software di animazione di folle general-purpose. David Krentz, un artista che in passato sognava di diventare paleontologo, ha supervisionato il design e lo sviluppo visuale dei personaggi. Per i dinosauri, la Disney ha coinvolto alcuni esperti per effettuare ricerche scientifiche, e, tenendo presenti quelle informazioni, Krentz ha creato disegni che andavano dal completamente accurato al caricaturale. Una volta che il disegno veniva approvato, disegnava viste ortogonali dell’animale dall’alto, di fronte e di lato, e questi disegni venivano scansiti in Power Animator della Alias perché, secondo Krentz, i modellisti potevano lavorare più velocemente in base ai suoi disegni che partendo dalla digitalizzazione di modelli in creta. Oltre al design della struttura, Krentz ha realizzato dipinti per le texture della pelle. Krentz ha anche creato i design per i lemuri. L’animazione dei personaggi Quando nella scena d’apertura il raptor lascia cadere l’uovo di dinosauro, questo atterra intatto sull’Isola dei Lemuri, dove non ci sono dinosauri. Lì, un clan di lemuri che vive sulla pacifica isola alleva il nuovo nato, un iguanodonte di nome Aladar. Una notte, una meteora arriva sulla Terra, distruggendo l’isola. Aladar raccoglie i quattro lemuri della sua famiglia e fugge sulla terra ferma, dove vede per la prima volta i dinosauri. 293 Lui e i lemuri si accodano a un branco in marcia attraverso il deserto per raggiungere un nuovo luogo di nidificazione. Cibo e acqua scarseggiano, e i carnotauri assetati di sangue sono un costante pericolo. Inoltre, la simpatia di Aladar per i membri più deboli in coda al branco, che verrebbero mangiati per primi dai predatori, lo mette contro Kron, il rigido capobranco, e Bruton, il suo vice. La difficile missione di Aladar sarà quella d’insegnare al branco a essere adattabile e cooperativo. I lemuri fanno da parafulmini emozionali e richiamano l’importanza dei legami e dell’educazione familiare. Come si fa di solito nelle animazioni della Disney, ogni personaggio parlante è stato assegnato a un supervisore dell’animazione che ha diretto altri animatori. Greg Griffith descrive il suo ruolo di supervisore dell’animazione come quello di chi determina che cosa il personaggio può fare fisicamente in modo che la sua integrità venga preservata. Per esempio, Griffith ha creato una camminata zoppicante per il dinosauro Eema e una libreria di forme di fonemi che hanno consentito al personaggio di parlare senza far pensare al fatto che ha un becco. Come nell’animazione 2D, gli animatori di Dinosaur hanno potuto lavorare con “X-sheet”, che offrono dettagli per ogni scena con la precisione del fotogramma. Inoltre, ogni animatore poteva sovrapporre le riprese dal vivo alla scenografia virtuale per avere i riferimenti del terreno. Gli animatori hanno creato prima i movimenti del corpo in Softimage e poi hanno utilizzato Maya per realizzare le espressioni facciali in Mug Shot della Disney. Anche se ogni singolo personaggio presentava delle difficoltà specifiche, i dinosauri hanno posto alcuni problemi comuni agli animatori. “Questi personaggi non hanno mani per gesticolare”, spiega Eamonn Butler, supervisore dell’animazione per Kron. “Dovevamo renderli espressivi, ma non potevamo sfruttare molto il linguaggio del corpo”. Butler ha fornito ai modellisti i disegni di 250 forme di volti, in modo da riuscire a far parlare il dinosauro e aiutare la creazione di espressioni per Kron. In una scena, per esempio, Kron sta cercando l’acqua. Arriva sulla sommità di una collina, ma l’acqua non è dove si aspettava. Cammina proprio davanti alla telecamera. Le sue labbra sono così secche da rimanere incollate. “In questa scena, abbiamo cercato di dire tutto con l’espressione del suo muso, senza usare le parole”, racconta Butler. Naturalmente, c’era anche la questione delle dimensioni. Mike Belzer, supervisore dell’animazione per Baylene, un brachiosauro che è l’animale più grande del film, ha studiato gli elefanti per farsi un’idea di come si muovevano. 294 Ha presto scoperto che una creatura otto volte più grande ci avrebbe messo cinque minuti per fare un passo. “Occasionalmente, c’è il tempo nel film per far vedere un passo di questa camminata, ma se il personaggio sta parlando, preferiamo concentrarci sul suo volto”, dice Belzer. “L’elemento che aiuta a far capire le sue dimensioni è il modo in cui si muovono la pelle e i muscoli sottostanti”. Griffith aggiunge: “Abbiamo cercato di creare l’illusione del peso mostrando lo sforzo necessario per muovere una parte della massa a una certa distanza”. E poi c’erano i problemi delle differenze di dimensioni. “Aladar è lungo 9 metri e passa metà del sul tempo a parlare con i lemuri”, dice Mark Austin, supervisore dell’animazione per Aladar. Il volto di Aladar è lungo un metro e mezzo; i lemuri sono alti meno di un metro quando sono completamente distesi. “Ogni primo piano è stato una sfida”. Anche gli animatori dei lemuri hanno avuto le loro gatte da pelare. Larry White, supervisore dell’animazione per Suri, un lemure di otto anni, è arrivato a questo progetto provenendo dall’animazione tradizionale. La cosa che White ha trovato sorprendentemente difficile è stata la coda del lemure. Per esempio: “Durante un salto, la coda segue e si sovrappone al movimento”, spiega. Quindi, la coda è come un personaggio separato con una vita propria. “In 2D, è facile dare l’idea in modo naturale dell’intero movimento del corpo, ma in computergrafica, si devono muovere parti del corpo”. 295 Muscoli, peli e Hoids Una volta animati, i personaggi sono arrivati alla fase di “finalizzazione”, durante la quale un team capeggiato da Sean Phillips ha aggiunto l’animazione secondaria come la flessione dei muscoli e l’oscillazione della pelle. Il gruppo ha usato uno strumento proprietario chiamato Body Builder che funziona all’interno di Maya. Con questo strumento, i direttori tecnici hanno creato muscoli collegando una spline con sezioni a forma di disco allo scheletro. Mentre le bone si muovono, la spline cambia forma, facendo cambiare forma anche alle sezioni e, di conseguenza, facendo flettere i “muscoli”. I muscoli vengono anche influenzati da calcoli d’inerzia che aiutano ad aggiungere l’impressione del peso ai massicci dinosauri. Per controllare la quantità di pieghe sulla pelle, i direttori tecnici hanno usato mappe di attributi e smoothing di mesh elastiche. Mentre Body Builder è stato particolarmente importante per i dinosauri, per i lemuri la difficoltà è stata la creazione della loro pelliccia, soprattutto tenendo conto che il lavoro è iniziato nel 1995, quando erano disponibili pochi o nessun pacchetto commerciale adatto allo scopo. I lemuri hanno peli dritti e corti insieme a peli curvi e lunghi. I nostri artisti dovevano poter far crescere i peli, e farli sembrare bagnati o polverosi. E bisognava reggere alcuni primissimi piani. Quindi, il team di sviluppo software ha scritto uno strumento proprietario di gestione della pelliccia basato su un’interfaccia di SGI Inventor e RenderMan della Pixar per il rendering. Per la dinamica, il team ha usato Maya. Per animare branchi che arrivavano fino a mille dinosauri, i direttori tecnici hanno usato lo strumento di animazione delle folle HOIDs, che rappresenta un’evoluzione degli strumenti di questo tipo usati in altri film della Disney come Il Gobbo di Notre Dame, Il Re Leone e Mulan. Effetti per dinosauri Facendo collaborare insieme i disegnatori di texture e gli autori degli shader, il team capeggiato da Cliff Brett, supervisore dello sviluppo dell’aspetto esteriore, è riuscito a creare delle texture per la pelle dei dinosauri che reggessero il dettaglio dei primi piani. Il numero di patch NURBS per gli animali del film va da 240 a 800, e ogni patch ha fino a nove texture map, quattro delle quali sono displacement map. Baylene, il vecchio brachiosauro, per esempio, ha richiesto 6 mila texture map. La maggior parte delle mappe hanno una risoluzione di 2K, anche se alcune hanno una risoluzione di 4K e 8K. 296 Sono stati anche utilizzati shader per creare le spine di alcuni dinosauri, riducendo in questo modo la dimensione del modello sottostante. Inoltre, gli shader sono stati usati per gli effetti. Con la tecnica degli “Sticky Shader”, una texture o un’immagine può essere proiettata su una superficie che rimane sempre orientata verso la telecamera. Questa tecnica è stata utilizzata, per esempio, per aggiungere gli spruzzi nell’acqua. Neil Escara, supervisore dell’animazione ha usato tutti i trucchi del mestiere. Per esempio: per integrare i personaggi con il terreno, gli animatori hanno creato “contact shadow”(ombre di contatto) in 2D e altre volte hanno usato il rotoscopio. Per dare l’impressione che una zampa stia camminando su un terreno roccioso e accidentato, i direttori tecnici hanno a volte usato il morphing, e se la cosa risultava troppo difficile, hanno semplicemente nascosto la zampa. Per far vedere le orme lasciate dalle zampe sul terreno, i painter hanno aggiunto tracce sulla sabbia. Oltre agli strumenti software scritti dal reparto di ricerca e sviluppo, il team degli effetti ha scritto diversi “engine di effetti” per creare esplosioni, polvere, sabbia, pioggia, neve, increspature e spruzzi. Per l’acqua, il team ha spesso usato shader animati. Per facilitare l’illuminazione dei personaggi in modo che sembrassero far parte dello sfondo, Chris Peterson, responsabile dell’illuminazione, ha usato il software proprietario della Disney Light Tool. Quest’interfaccia per RenderMan gli ha consentito di lavorare interattivamente con le luci. Alla fine, tutto è stato composto in Illusion della Avid, pesantemente modificato per e dalla Disney. Praticamente ogni scena è un compositing, di elementi ripresi dal vivo, miniature e computergrafica. Dopo La Minaccia Fantasma, Dinosauri più di ogni altro film esemplifica quanto siano diventati abili i cineasti a creare un film incollando insieme elementi di computergrafica 2D e 3D, riprese dal vivo e miniature filmate, e quanto bravi siano diventati gli animatori a lavorare con animali 3D fotorealistici. In questo film della Disney, la perfetta integrazione di pellicola e grafica 3D diventa particolarmente affascinante, in quanto si unisce all’idea originale di dinosauri fotorealistici parlanti e al familiare stile di animazione della Disney. 297 MOVIE STILLS 298 THE LOST WORLD: JURASSIC PARK 299 DRAGONHEART 300 JUMANJII 301 TITANIC 302 MIGHTY JOE YOUNG 303 THE MUMMY 304 MATRIX 305 STAR WARS:THE PHANTOM MENACE 306 MISSION TO MARS 307 TOY STORY 2 308 BUG’S LIFE 309 ANTZ 310 DINOSAUR 311 312 PARTE 5: CASE DI PRODUZIONE 313 INDUSTRIAL LIGHT & MAGIC Industrial Light & Magic (ILM), è la divisione di Lucas Digital Ltd, maggior società al mondo nel campo degli effetti visivi, ha standardizzato la sua infrastruttura di rete di nuova generazione sulle soluzioni end-to-end Gigabit Ethernet di Foundry Networks. Origine dei film più esplosivi e premiati di Hollywood (tra i titoli si annoverano StarWars, Terminator 2: Judgment Day e Jurassic Park,) ILM elabora ogni giorno una mole di dati superiore a qualsiasi altra società attiva nel settore estremamente competitivo degli effetti video e della postproduzione. La creazione degli spettacolari effetti speciali dei film di oggi richiede il trasferimento sulla rete di file estremamente grandi. Per soddisfare i suoi obiettivi di sviluppo e per sostenere la reputazione di miglior struttura di post-produzione al mondo, ILM sta implementando una nuova infrastruttura di rete scalabile, fault tolerant ad alte prestazioni. La rete di nuova generazione di ILM sarà utilizzata per supportare la creazione di prossimi film spettacolari ad alto profilo. ILM ha scelto Foundry come fornitore di prima scelta: la società installerà l'intera linea di router e di switch Gigabit Ethernet di Foundry Networks per avere una soluzione di rete completa. Ciò garantirà che il traffico generato dalle attività ILM possa sempre attraversare la rete e arrivare a destinazione alla massima velocità possibile. "Avevamo bisogno di un fornitore di rete su cui potere fare affidamento e Foundry Networks è proprio quella società," ha dichiarato Andy Hendrickson, Direttore Systems Development per ILM. "Foundry ci mette a disposizione le migliori prestazioni di throughput per Layer 2/3, la maggior densità Gigabit Ethernet, il prezzo più contenuto e il supporto tecnico più completo oggi disponibile sul mercato. La cosa più importante è che Foundry è la prima società ad offrire queste capacità in una soluzione end-to-end che si estende dai confini della rete per arrivare fino al cuore delle nostre server farm e della nostra rete," ha sottolineato Raleigh Mann, Manager Network Operations per ILM. 314 FILMOGRAFIA 1999 STAR WARS EPISODE I WILD, WILD WEST SUPERMAN THE MUMMY 1998 SAVING PRIVATE RYAN DEEP IMPACT MEET JOE BLACK MERCURY RISING SNAKE EYES DEEP RISING MIGHTY JOE YOUNG SMALL SOLDIERS REACH THE ROCK FROST 1997 MEN IN BLACK STAR WARS SPECIAL EDITIONS THE LOST WORLD: JURASSIC PARK TITANIC SPEED 2: CRUISE CONTROL CONTACT SPAWN STARSHIP TROOPERS FLUBBER MIDNIGHT IN THE GARDEN OF GOOD AND EVIL AMISTAD DECONSTRUCTING HARRY 1996 TWISTER DRAGONHEART MISSION: IMPOSSIBLE ERASER STAR TREK: FIRST CONTACT DAYLIGHT MARS ATTACKS! 101 DALMATIANS THE TRIGGER EFFECT SLEEPERS 1995 IN THE MOUTH OF MADNESS VILLAGE OF THE DAMNED CASPER 315 CONGO THE INDIAN IN THE CUPBOARD JUMANJII SABRINA THE AMERICAN PRESIDENT 1994 FORREST GUMP THE MASK STAR TREK GENERATIONS THE FLINTSTONES THE HUDSUCKER PROXY RADIOLAND MURDERS MAVERICK BABY'S DAY OUT DISCLOSURE 1993 JURASSIC PARK ALIVE FIRE IN THE SKY THE NUTCRACKER LAST ACTION HERO RISING SUN MANHATTAN MURDER MYSTERY METEORMAN SCHINDLER'S LIST 1992 MEMOIRS OF AN INVISIBLE MAN DEATH BECOMES HER 1991 TERMINATOR 2: JUDGEMENT DAY SWITCH THE DOORS HUDSON HAWK BACKDRAFT THE ROCKETEER HOOK STAR TREK VI: THE UNDISCOVERED COUNTRY 1990 AKIRA KUROSAWA'S DREAMS JOE VS. THE VOLCANO THE HUNT FOR RED OCTOBER BACK TO THE FUTURE PART III DIE HARD 2: DIE HARDER GHOST THE GODFATHER PART III 1989 316 THE ABYSS THE 'BURBS SKIN DEEP FIELD OF DREAMS INDIANA JONES AND THE LAST CRUSADE GHOSTBUSTERS II BACK TO THE FUTURE PART II ALWAYS LEVIATHAN 1988 WHO FRAMED ROGER RABBIT WILLOW CADDYSHACK II COCOON: THE RETURN THE LAST TEMPTATION OF CHRIST THE ACCIDENTAL TOURIST 1987 INNERSPACE THE WITCHES OF EASTWICK HARRY AND THE HENDERSONS BATTERIES NOT INCLUDED EMPIRE OF THE SUN 1986 THE MONEY PIT LABYRINTH HOWARD THE DUCK STAR TREK IV: THE VOYAGE HOME THE GOLDEN CHILD 1985 COCOON BACK TO THE FUTURE THE GOONIES EXPLORERS YOUNG SHERLOCK HOLMES ENEMY MINE OUT OF AFRICA 1984 INDIANA JONES AND TEMPLE OF DOOM STAR TREK III: THE SEARCH FOR SPOCK THE NEVERENDING STORY STARMAN 1983 RETURN OF THE JEDI TWICE UPON A TIME 1982 E.T. - THE EXTRA TERRESTRIAL 317 POLTERGEIST STAR TREK II: THE WRATH OF KAHN THE DARK CRYSTAL 1981 RAIDERS OF THE LOST ARK DRAGONSLAYER 1980 THE EMPIRE STRIKES BACK 1977 STAR WARS 318 MOVIE STILLS 319 THE LOST WORLD: JURASSIC PARK LIVE ACTION E WIREFRAME La pellicola viene digitalizzata e inserita come backgound. I modelli in wireframe dei dinosauri sono sovrapposti allo sfondo. LIVE ACTION E MODELLI 3D I dinosauri sono stati modellati, illuminati, mappati, animati e compositati con le riprese dal vero. 320 DRAGONHEART DRACO E BOWEN Draco aiuta Bowen ad accendere il fuoco… DRACO SOTTO LA PIOGGIA Per creare l'impressione della pioggia battente sulle ali di Draco, Euan Macdonald della ILM ha scritto uno shader di displacement per l'acqua in RenderMan. 321 JUMANJII IL LEONE (making) Il corpo del leone è stato modellato da Paul Hunt con l'aiuto di Carolyn Rendu e Rebecca Petrulli-Heskes, che si sono occupate anche della criniera, e Geoff Campbell, che si è occupato delle dieci espressioni del leone. IL LEONE (scena finale) Il supervisore Carl Frederick ha affidato al capo programmatore Jeff Horn, insieme a David Benson, John Horn e Florian Kainz, lo sviluppo del software per i peli corti e lunghi utilizzati per le scimmie e il leone. 322 TITANIC ACQUA E COMPARSE DIGITALI In queste scene, al modellino in scala 1:8 sono stati aggiunti stuntman reali, acqua digitale, stelle digitali, gente in acqua digitale e un migliaio di comparse digitali. STUNT-MAN DIGITALI Gli artisti della Digital Domain sono partiti dai movimenti catturati da stunt-man in carne e ossa che si gettavano da set inclinati a 45 e 90 gradi. Gli animatori hanno poi usato questi movimenti come riferimento per l’animazione in keyframe. 323 MIGHTY JOE YOUNG JOE Per la maggiorparte della gente, Joe è un mito e una leggenda... Per Jill che è la sola a proteggerlo, è come un padre, un amico… Per Gregg O’Hara è la creatura più stupefacente del pianeta… DALL’AFRICA A LOS ANGELES Joe, non ha rispettato il semàforo…. 324 THE MUMMY IL VOLTO DI SABBIA Attraverso un’accurata modellazione e un displacement map, gli artisti della ILM fanno emergere dal deserto di sabbia, un volto terrifficante. IMHOTEP Dopo un sonno durato 3000 anni, la mummia scatena la sua vendetta. 325 MATRIX NEO E SMITH La tecnica chiamata Flow-Motion consente al regista una flessibilità quasi illimitata nel controllo della velocità e dei movimenti degli elementi inquadrati. BULLET TIME Keanu Reeves schiva una serie di pallottole, i cui percorsi vengono rappresentati come file di dischi 3D d’argento. 326 STAR WARS:THE PHANTOM MENACE DROIDI Mille droidi da combattimenti invadono la terra dei Naboo. IL MAESTRO JEDI E WATTO Qui-Gon Jinn discute con Watto, un rigattiere di Tatooine che possiede come schiava Shmi, la madre del giovane Anakin Skywalker . 327 MISSION TO MARS IL VOLTO DELLA MONTAGNA Il radar degli astronauti colpisce la montagne rivelando una gigantesca struttura a forma di volto. IL SALVATAGGIO Il Dott. Terri Fisher cerca di recuperare il valoroso astronauta che sacrificò la sua vita per salvare la moglie e i suoi colleghi in missione su Marte. 328 TOY STORY 2 REX E AMICI Una delle tecniche d'illuminazione più difficili in computergrafica, l'illuminazione da dietro, aiuta a separare i personaggi dal fondale. Lo dimostra questa immagine al tramonto di Bo Peep, Rex (il timido dinosauro) e gli altri giocattoli. I MUTANTI Dal momento che i giocattoli mutanti, che sono costituiti da una mescolanza di parti di altri giocattoli, sono creature tristi e raccapriccianti, per ispirarsi gli animatori hanno studiato i movimenti d'insetti come ragni o di rettili come lucertole e serpenti. 329 BUG’S LIFE FLIK E I CIRCENSI Flik, realizza finalmente che i suoi eroi sono semplici acrobati e che non possono aiutarlo a salvare l’ Isola delle Formiche. TRASPARENZE Heimlic, l’affettuoso bruco-Slim, il saggio stecco, Francis, la coccinella e Rosie, la vedova nera. Sullo sfondo la spettacolare vegetazione con le foglie che rivelano trasparenze e dettagliate texture. 330 ANTZ LA PRINCIPESSA BALE E Z-4195 LA GOCCIA La principessa Bala prova disperatamente a salvare Z, che è racchiusa dentro una gocciolina d’acqua. 331 DINOSAUR LEMURI Due curiose lemuri,guardano un piccolo dinosauro uscire dal guscio. ALADAR E EEMA Aladar, un ruffiano iguanodonte dà una spinta al suo indisposto compagno di viaggio, un dinosauro chiamato Eema. 332 DIGITAL DOMAIN Fondato nel 1993 dal mago degli effetti speciali Stan Winston, dal direttore esecutivo Scott Ross e dal regista James Cameron, Digital Domain è uno dei più rappresentativi studi di produzione americani nel campo dell’animazione digitale per il cinema di fiction. Digital Domain nasce da una costola dell’IBM per poi svilupparsi con il contributo della Cox Enterprises di Atalanta, inizialmente per la realizzazione in proprio degli effetti speciali digitali nel film di James Cameron True Lies. Da questa esperienza lo studio si è sempre più specializzato in immagini di sintesi, realizzando gli effetti visivi di grandi produzioni cinematografiche come: Intervista col vampiro (1994), Apollo 13 (1995), Red Corner (1997), Kundun (1997), Damte’s Peak (1997), Il quinto Elemento (1997), Ed TV (1998) e Armageddon (1998). L’esperienza maturata con la partecipazione a film di tale spettacolarità ha garantito alla casa di produzione Digital Domain un ruolo di primo piano nel settore, concretizzatosi con vari premi Prix Pixel INA al Festival Imagina di Monaco e un carnet di quattro nomination agli Oscar per i migliori effetti visivi negli ultimi cinque anni. Ma è stato soprattutto grazie allo sbalorditivo lavoro svolto per il film campione d’incassi Titanic, diretto dall’esperto James Cameron che la casa di produzione ha ottenuto i maggiori consensi e menzioni per la sua “Outstanding”, vincendo il suo primo Oscar e il premio per i migliori effetti speciali Prix Pixel INA. Digital Domain ha raggiunto, infatti, i suoi primi grandi risultati grazie a questo regista che ha sempre spinto all’estremo le possibilità della tecnologia digitale, verso orizzonti in continua evoluzione. Il salto di qualità da un film come True Lies ad uno come Titanic è impressionante proprio per l’inedita capacità di immergere i corpi reali degli attori e delle comparse in un’ambientazione totalmente virtuale, prodotto di un’elaborazione digitale immateriale al di fuori dello schermo. Ciò si può vedere chiaramente anche nel recente Al di là dei sogni (1998); in questo film gli scenari fantastici e favolistici in cui si immerge il protagonista Robin Williams sono addirittura delle animazioni tridimensionali di dipinti e incisioni appartenenti alla storia dell’arte. Quindi l’uomo può muoversi liberamente nello spazio indefinito di uno sfondo mentale, reso però reale dalla sintesi di un elaboratore elettronico. Non poteva mancare una presenza della Digital Domain nel campo dell’animazione digitale 3D, con la realizzazione del suo primo cortometraggio interamente di sintesi, Tightroupe (1998); mentre il filmato tridimensionale Terminator 2-3D, realizzato per i parchi a tema 333 degli Universal Studios, ha visto il suo ingresso nella produzione di attrazioni virtuali, riunendo tre grandi esperti di effetti speciali come James Cameron, Stan Winston e John Bruno e il cast del film originale. Il risultato è stato la più quotata attrazione dell’Universal Studios Florida, finora insuperabile per l’effetto di suono e immagini che avvolge il pubblico. Una nuova divisione New Media si è inserita nel settore dei cd-rom interattivi realizzando Barbie Fashion Designer, ispirato alla popolare bambola della Mattel Media e progettandone uno per la Lego Media International. Nel campo della pubblicità la Digital Domain si è affermata con spot di qualità in cui si è avvalsa di noti registi, e lavorando per i più importanti marchi come Coca Cola, Budweiser, Nike, Mercedes, Helwett-Packard, Pepsi e Levi’s. 334 FILMOGRAFIA 2000 HOW THE GRINCH STOLE CHRISTMAS X-MEN RED PLANET 1999 SUPERNOVA FIGHT CLUB 1998 WHAT DREAMS MAY COME ARMAGEDDON 1997 TITANIC DANTE'S PEAK THE FIFTH ELEMENT RED CORNER KUNDUN 1996 SGT. BILKO T2-3D: BATTLE ACROSS TIME THE ISLAND OF DR. MOREAU CHAIN REACTION 1995 STRANGE DAYS APOLLO 13 1994 TRUE LIES INTERVIEW WITH THE VAMPIRE 1993 COLOR OF NIGHT Commercial: TIMEX Music Video – THE ROLLING STONE 335 DREAM QUEST IMAGES Nel 1996 la Dream Quest Images, entra a far parte dell’impero disneyano, diventando la divisione degli effetti speciali per i lungometraggi animati. L’unità interna degli animatori della Disney e il talento dei computer-animator della Dream Quest Images si uniscono per formare il TSL, (Il Laboratorio Segreto). The Secret Lab (TSL), si basa sulla computer-animation, fornisce l’animazione avanzata dei personaggi in CG e gli effetti visivi per diversi Studi, inoltre provvede alla formazione attraverso il reparto di ricerca e sviluppo monitorando lo stato dell’arte e l’evoluzione della CG nel mondo. Thomas Schumacher, presidente della Walt Disney Future Animation e Andrew Millstein, vice presidente e direttore generale della Dream Quest Images saranno i responsabili del TSL. Commentando l'annuncio, Schumacher ha detto, "Questa fusione rappresenta una tremenda coalizione di talenti e risorse. Entrambi i gruppi sono coinvolti nella creazione di spettacolari immagini digitali e la formazione del The Secret Lab riunisce un gruppo di esperti negli effetti speciali che sono i migliori nel loro campo. Disney ha costruito uno studio digitale di prima classe ed insieme alla Dream Quest Images continuerà ad estendere i confini del film digitale." Millstein ha aggiunto, " Dream Quest Images ha creato alcuni degli effetti visivi più emozionanti e più innovatori per oltre 150 film dal relativo inizio nel 1979. Sotto la direzione creativa di Hoyt H. Yeatman Jr. e Richard Hoover, l'azienda ha vinto ogni premio immaginabile ed il rispetto dei relativi pari. L'unità di computer-graphics della Disney ha da poco completato Dinosaur, che unisce l’animazione tradizionale con le sbalorditive immagini digitali e le riprese dal vivo per le ambientazioni. Il reparto di animazione della Disney è da sempre molto attento alle innovazione tecniche come dimostrano le sequenze di alcune famose pellicole: Beauty and the Beast (la sequenza del ballo nella stanza), The Lion King (la fuga precipitosa degli animali), The Hunchback of Notre Dame (le scene della folla), Ercole (la battaglia di Hydra), Mulan (l'attacco dell'esercito di Hun) e Tarzan (che ha introdotto una nuova applicazione chiamata "Deep Canvas" per aggiungere profondità e dimensione alla giungla). Il reparto artistico e la direzione amministrativa della Dream Quest Images si trovano nella sede di Burbank, mentre la produzione fisica (reparto modelli, ingegneria e costruzione del modello) continua ad essere nella Simi Valley. La Dream Quest Images ha ottenuto gli Academy Awards per gli effetti speciali di Total Recall e The Abyss così come le nominations per il relativo lavoro su Armageddon, Mighty Joe Young e The Mask. 336 Dall'incorporazione con la Disney, Dream Quest Images ha prodotto gli effetti visivi per The Rock, Jungle 2 Jungle, Con Air, George of the Jungle, Flubber, Kundun, Deep Rising, Six Days, Seven Nights e Inspector Gadget,Stigmata, Bicentennial Man, Mission to Mars, Gone in 60 Seconds, Shanghai Noon, Tennessee e 102 Dalmatians. 337 FILMOGRAFIA 2001 102 Dalmatians Gone in 60 Seconds Shanghai Noon Tennessee 2000 BICENTENNIAL MAN MISSION TO MARS 1999 INSPECTOR GADGET 1998 MIGHTY JOE YOUNG SIX DAYS SEVEN NIGHTS ARMAGGEDON DEEP RISING 1997 CON AIR FLUBBER GEORGE OF THE JUNGLE JUNGLE 2 JUNGLE KUNDUN HONEY, WE SHRUNK OURSELVES 1996 THE ARRIVAL THE ROCK 1995 CRIMSON TIDE DR. JEKYLL AND MS. HYDE DRACULA: DEATH AND LOVING IT WATERWORLD HOW TO MAKE AN AMERICAN QUILT 1994 THE THREE MUSKETEERS THE CROW THE MASK THE SHAWSHANK REDEMPTION LITTLE BIG LEAGUE WYATT EARP THE SWAN PRINCESS 1993 CONEHEADS THE SECRET GARDEN ROBIN HOOD: MEN IN TIGHTS 1992 FINAL ANALYSIS HERO TOYS 338 1991 DEFENDING YOUR LIFE FREDDY’S DEAD GRAND CANYON HOT SHOTS! 1990 TOTAL RECALL THE EXORCIST III 1989 THE ABYSS EARTH GIRLS ARE EASY 1987 PREDATOR REAL MEN THE LOST BOYS 1986 SHORT CIRCUIT HOUSE 1985 D.A.R.Y.L. EUROPEAN VACATION PEE-WEE’S BIG ADVENTURE 1984 THE ADVENTURE OF BUCKAROO BANZAI Banzaï BEST DEFENCE 1983 THE TWILIGHT ZONE BLUE THUNDER 339 BLUSKY/VIFX Nell’agosto del 1997, Twentieth Century Fox annuncia la fusione di due importanti società produttrici di effetti speciali: la Blue Sky, casa di animazione 3D di New York e la VIFX di Hollywood. L’enorme talento degli animatori 3D della Blu Sky, e l’esperienza in compositing, 2D e 3D del team della VIFX e del reparto di modellini e animatronics, fanno della BluSky/VIFX una struttura completa ed efficace, una nuova forza nell’industria cinematografica degli effetti speciali. La nuova società ha ora 250 dipendenti, e può essere considerata tra le più grandi strutture degli studios hollywoodiani, è la quinta società del pantheon formato dalla ILM, Digital Domain, Dream Quest Images e Sony Pictures Imageworks. Richard Hollander, uno dei fondatori della VIFX/ Video Image, è il presidente della nuova impresa, mentre l'ex presidente della Blu Sky, David Boyd Brown, intraprenderà la posizione del CEO. L'azienda avrà la sede principale in Los Angeles ma, la sede di New York continuerà a funzionare. La fusione delle due società è la prova dello sviluppo che il settore degli effetti speciali sta compiendo. La Twentieth Century Fox, titolare della Blue Sky|VIFX, è diventata un industria cinematografica potentissima, così come la Walt Disney acquistando la Dream Quest Images e la nascita della Sony con la Sony Pictures Images. 340 FILMOGRAFIA 1998 THE X-FILES BLADE FIRESTORM ARMAGEDDON 1997 TITANIC HOME ALONE 3 ALIEN RESURRECTION MOUSEHUNT 1999 STAR TREK: INSURRECTION 341 DUBOI Fondata nel 1991 da Antoine Simikine, Pitof, Bernard Maltaverne, Pascal Hérold e Rip O’Neil, la Duboi è una società specializzata nella creazione di effetti speciali digitali per i lungometraggi di fiction, per gli spot pubblicitari e per i video musicali. Per il cinema Duboi ha lavorato alla realizzazione di effetti di animazione spettacolari ed effetti invisibili fotorealistici, supportando le creatività visionarie di registi come Jean-Pierre Jeunet, che Duboi ha seguito dal film d’esordio Delicatessen, (1991) all’ultimo Alien: Resurrection; (2000) e Luc Besson per cui ha sviluppato le scenografie futuribili de Il Quinto Elemento, (1997). Duboi sembra prediligere la creazione di effetti marcatamente digitali, lavorando sulle iperboli da cartoon come ne I Visitatori di Jean marie Poiré, o in Asterx & Obelix contro Cesare di Claude Zidi. Per la pubblicità Duboi Ha sviluppato numerose animazioni 2D e 3D, per prodotti e marchi internazionali, da Mastro Lindo a France Telecom, da Fanta a Microsoft, da Ford a Barilla; lavori spesso realizzati avvalendosi del contributo di grandi registi e sviluppando appositi effetti visivi per rendere spettacolari anche i piccoli film pubblicitari. Da 10 anni, DUBOI lavora sull’immagine digitale, dal disegno all’effetto speciale fino alla consegna del prodotto finito. Oltre 100 i lungometraggi che hanno attraversato le mani degli artisti grafici, esperti in effetti speciali, editori, animatori, esperti di post-produzione, direttori e sviluppatori di software: in tutto, cinquanta individui ugualmente capaci di gestire le produzioni su grande scala e i piccoli progetti innovativi. Non ci sono film minori con effetti speciali secondari. Gli effetti speciali accompagnano la storia o aggiungono una nota spettacolare. Gradiamo essere coinvolti fin dal principio se è possibile, in moda da poter creare gli effetti visivi più idonei all'interno di preventivi che, (raramente sono elastici); in questo modo possiamo lavorare insieme al regista, al direttore della fotografia ai progettisti e tutti riescono a trarre vantaggio dall’esperienza di ognuno. Da 10 anni, stiamo sviluppando i nostri strumenti, modificando i software allo scopo di velocizzare il lavoro rendendolo il più semplice possibile soprattutto per le sequenze che coinvolgono gli effetti speciali. La nostra post-produzione ha l’abilità di produrre immagini altamente complesse adoperando strumenti così leggeri che se ci fosse la necessità, potremmo spostarci in ogni parte del mondo. Abbiamo diversi strumenti con un gran numero di workstations come, Inferno, Flame, Matador, Softimage, Scanner Genesis, 2 solitaires Ciné III flx, Arrilaser, Spirit Dataciné, Spectre vdc Philips, Pandora Megadef, Hdcam Motion Control e un brillante gruppo di giovani artisti e tecnici. 342 DUBOICOLOR In occasione della 57° Mostra Internazionale d'arte cinematografica di Venezia, il Future Film Festival - Le nuove tecnologie del cinema d'animazione - promuove la presentazione, in prima mondiale, di DUBOICOLOR, la nuova tecnologia ideata dalla Duran Duboi, leader europeo nella produzione di effetti speciali. Il sistema DUBOICOLOR è stato utilizzato per la prima volta da Hervé Schneid montatore dell'ultimo film The man who cried della regista Sally Potter, presente in concorso al Festival di Venezia 2000. Alla presentazione oltre allo stesso Hervé Schneid sono intervenuti anche Antoine Simkine, presidente e direttore generale della Duboi e Tommaso Vergallo, direttore delle produzioni di Duboicolor. Il rivoluzionario sistema DUBOICOLOR consente di avere in mano un solo strumento per tutte le operazioni, dal montaggio al prodotto finale, e può essere applicato ad ogni film, con o senza effetti speciali, consentendo ad ogni utente di fruire dei benefici di un processo interamente in alta definizione digitale. Il bilanciamento del colore e i cambiamenti di formato non sono più eseguiti in laboratorio, ma si possono comporre direttamente con il computer. Il risultato finale è quindi un internegativo a colori, che può essere utilizzato direttamente per le stampe da distribuire. DUBOICOLOR copre ogni passo del processo digitale, dalla scannerizzazione del negativo al trasferimento finale su pellicola. Grazie a nuovi potenti mezzi - scanner ad alta velocità, bilanciamento del colore in tempo reale e trasferimento veloce su pellicola (6 giorni per il trasferimento di un intero lungometraggio, invece di 55 giorni) DUBOICOLOR può sostenere un lungometraggio di qualsiasi formato, in digitale. Questo nuovo servizio supera lo stadio finale del lavoro manuale di laboratorio - montaggio manuale dei negativi e bilanciamento ottico dei colori - permettendo ai film-makers di vedere il loro prodotto completato con grande anticipo. 343 FILMOGRAFIA 2000 LA VENGEANCE D'UNE BLONDE LA TAULE AUSSIE ALIEN RESURRECTION 1999 TOUT BAIGNE 1998 THE VISITORS RONIN RESTONS GROUPES MICHAEL KAEL CONTRE LA WORLD NEWS COMPANY 1 CHANCE SUR 2 HASARDS OU COINCIDENCES 1997 LE CINQUIÈME ELEMENT ARLETTE LE PARI MORDBÜRO DIDIER 1996 LE ROI DES AULNES UN SAMEDI SOIR SUR LA TERRE LES 1001 RECETTES DU CUISINIER AMOUREUX BEAUMARCHAIS SIGNATURE 100 ANS MA FEMME ME QUITTE LE JAGUAR LE CAPITAINE CONAN 1995 LE BONHEUR EST DANS LE PRE THE CITY OF LOST CHILDREN LA HAINE 1994 LA VEUVE DE SAINT-PIERRE EPITHETE CASQUE BLEU GROSSE FATIGUE GIORGINO GRAND NORD 1993 METISSE 1992 RIENS DU TOUT THE MUPPET CHRISTMAS 1991 344 DELICATESSEN GHOSTS WITH A DRIVER 345 IMAGEWORKS La Sony Pictures Imageworks, ha istituito una dinamica comunità di artisti, filmmakers e sceneggiatori dove grazie alle ultime tecnologie e ai software più sofisticati si realizzano le ultime evoluzioni della CG. È un ambiente in cui le idee sono finalizzate alla creazioni di nuovi scenari, attraverso lo studio approfondito delle leggi fisiche e dinamiche di ogni ambiente e personaggio animato. Questo grazie al coordinamento dei migliori supervisori come Rob Legato, John Dykstra e Pat McClung, Ken Ralston, Jerome Chen e Sheena Duggal ed all’impegno della squadra creativa. Imageworks è una delle società più importanti nel campo dell’animazione computerizzata e degli effetti speciali digitali nel mondo. Sony Pictures Imageworks rappresenta lo stato dell’arte della produzione digitale degli effetti speciali e della computer-animation. La società vanta pellicole come Charlie's Angels, Hollow Man, What Lies Beneath, Stuart Little, Big Daddy, Patch Adams, Snow Falling on Cedars, Godzilla, City of Angels, Contact, Anaconda, Michael, The Ghost and the Darkness, James and the Giant Peach e Starship Troopers. Imageworks attualmente sta lavorando ai lungometraggi Spider-Man, (diretto da Sam Raimi con John Dykstra come supervisore agli effetti speciali e Karen Goulekas, soprintendentea agli effetti speciali), e Cast Away, (diretto da Robert Zemeckis con Ken Ralston in qualità di supervisore agli effetti speciali). Attraverso il fotorealismo, l’animazione tridimensionali e la ricostruzione di ambienti e scenari spaziali, gli artisti della Imageworks diventano così veri e propri filmmekers. Più, gli artisti della Imageworks lavorano con i registi più si sviluppano progetti per futuri lungometraggi esplorando nuovi confini e nuove possibilità creative per inventare situazioni e tecniche nuove. Con l'arrivo di Ken Ralston verso la fine del 1995 come presidente e Tim Sarnoff nel 1997 come vice presidente esecutivo e direttore generale, l'azienda ora ha oltre 350 artisti, assistenti tecnici, tecnici e personale ausiliari alloggiati in un edificio di 14000 metri quadrati progettato per gli artisti della produzione digitale. Sony Pictures Digital Entertainment (SPDE), è l'unità operativa della Sony Pictures Entertainment (SPE), si occupa della produzione digitale e online la quale include la Sony Pictures Imageworks, Sony Online Entertainment e Colombia Tri-Star interattiva. Le aree principali della SPDE sono tre: q Produzione e sviluppo degli effetti visivi e dell’animazione al computer. q Animazione digitale dei personaggi. q Servizi per il cinema, televisione, online e PlayStation. 346 Le risorse della Sony Pictures Entertainment, (raccolte di film cinematografici e per la televisione), sono fonte d’ispirazione nello sviluppo di nuove forme e servizi online, giochi e programmi interattivi, Lo scopo della Sony Pictures Entertainment è di fornire video-surichiesta (video-on-demand), la televisione interattiva e la distribuzione di altre forme di contenuti digitali su reti a banda larga d'emissione. 347 FILMOGRAFIA 1998 SPHERE CITY OF ANGELS GODZILLA SNOW FALLING ON CEDARS PATCH 1997 STARSHIP TROOPERS CONTACT ANACONDA THE POSTMAN AS GOOD AS IT GETS THE GHOST IN THE DARKNESS 1996 JAMES AND THE GIANT PEACH THE CABLE GUY PHENOMENON MICHAEL 1995 DIE HARD WITH A VENGEANCE HIDEAWAY JOHNNY MNEMONIC MONEY TRAIN TO DIE FOR 1994 SPEED WOLF 1993 LAST ACTION HERO IN THE LINE OF FIRE MY LIFE SO I MARRIED AN AXE MURDERER 348 PIXAR L'inventore di Star Wars, dopo aver fondato nel 1977 l’Industrial Light & Magic, dà vita a un laboratorio di ricerca sulle immagini di sintesi, la Pixar Animation Studios. Grazie a Steve Jobs, che la rileva nel 1984 e ne è l'attuale presidente, la Pixar è cresciuta come società autonoma, leader nella ricerca per l'animazione digitale. Gli inizi E' stato John Lasseter a dare le indicazioni originarie. Il regista e animatore firma i primi cortometraggi. The Adventures of André and Wally B (1984) è il segno che non è più necessaria la materia ovattata dei soliti toons. A rendere familiari i personaggi bastano i colori vivaci e l'effetto 3D. La stessa geometricità è un limite stimolante: così è per Luxo Jr. (1986, Oscar come miglior cortometraggio), in cui mamma lampada è alle prese con i giochi di un figlio irrequieto e pasticcione. Non servono neppure aggiustamenti antropomorfi: sono più importanti le definite psicologie dei protagonisti. Con Red's Dream (1987), Tin Toy (1988) e Knicknack (1989) si gettano le basi per le coproduzioni Disney. Disney Relationship Nel 1991, la Pixar ha preso parte ad un accordo con gli studi del Walt Disney per la creazione e la produzione di tre lungometraggi in CG, realizzati mediante l’animazione tridimensionale. Toy Story fu la prima pellicola fatta sotto questo accordo. Nel 1997, Pixar ha annunciato un nuovo accordo con la Disney. In conformità al nuovo accordo, i due studi saranno soci uguali dei cinque prossimi film (comprese le due pellicole restanti sotto il vecchio accordo) e su tutta la merce relativa. La prima pellicola realizzata dopo l'accordo del 1997 fu A Bug's Life che è uscita nel 1998. I seguiti non contano come una delle cinque pellicole, quindi, Monsters, prevista per il 2001, è la seconda pellicola realizzata con la Disney. Sotto il consiglio di John Lasseter, Pixar ha costruito un'intera squadra creativa, compreso il reparto di animatori altamente specializzati, un reparto di sceneggiatura e un reparto di arte. Questa squadra fu responsabile della creazione, della sceneggiatura e dell'animazione di tutte e tre le pellicole. 349 La tecnologia Pixar è responsabile di molte importanti innovazioni nell'applicazione della computer-grafica. Le squadre tecniche e creative della Pixar hanno collaborato dal 1986 per sviluppare tre sistemi di software dedicati: Marionette, un sistema di software per la modellistica, l'animazione e l’illuminazione. Ringmaster, un sistema di software per la gestione della produzione, per la programmazione, la coordinazione e il traking in computer animation. RenderMan, un sistema di software per la rappresentazione (rendering) di alta qualità e immagini foto-realistiche che Pixar usa internamente ed autorizza ai terzi. Awards Toy Story 2 è stato onorato dall'associazione di Hollywood Foreign Press con un Golden Globe per migliore immagine, musica e storia. La pellicola è stata anche scelta come miglior lungometraggio animato dalla Broadcast Film Critics Association. Il compositore Randy Newman ha ricevuto un Golden Globe così come un’Academy Award per la partitura in Toy Story 2. A Bug's Life è stata scelta come Favorite Family Film by the Blockbuster Entertainment Awards nel 1999. Inoltre nel 1999, il compositore Randy Newman ha vinto un Grammy per la sua composizione musicale per A Bug's Life (Best Instrumental Composition Written For A Motion Picture, Television or Other Visual Media) e si è nominato per il la miglio Commedia Musicale (Best Original Musical or Comedy Score). Agli Annie Awards (premi per lo sviluppo dell’animazione) del 1996, Toy Story ha vinto tutti e otto gli honors cinematografici, vincendo ciascuna delle categorie nominate. Oltre la vincita del premio per il migliore lungometraggio animato, Pixar ha ricevuto il riconoscimento per: Direzione, che è andato al direttore di Toy Story, John Lasseter; Produzione, ricevuto da Ralph Guggenheim e Bonnie Arnold; Sceneggiatura, ricevuto da Andrew Stanton, Joss Whedon, Joel Cohen e Alec Sololow; Disegno di produzione, ricevuto da Ralph Eggleston; Animazione, che è andato a di Peter Doctor; e musica, ricevuto da Randy Newman. Sempre per Toy Story, gli studi di animazione della Pixar hanno ricevuto uno special technical achievement award per gli straordinari avanzamenti tecnici nell’animazione tridimensionale generata al computer. I premi di Annie sono patrocinati dalla società internazionale per i lungometraggi animati. 350 Per più di undici anni, le squadre creative e tecniche della Pixar hanno lavorato molto attentamente per produrre i cortometraggi e gli spot pubblicitari per la televisione, usando l’animazione tridimensionale al computer e continuando a sviluppare software proprietari e abilità tecnica. Nel 1986, esce il primo cortometraggio Pixar, Luxo Jr., ricevendo un Academy Award per il miglior cortometraggio animato. Geri's Game è il sesto cortometraggio della Pixar, ha ricevuto nel 1997 il premio dell’Academy Award come miglior cortometraggio animato. Nel totale, gli impiegati della Pixar hanno ricevuto diciotto premi dell’Academy Award. Questione di metodo Nella società si distinguono un Art department e uno Story department, ma le somiglianze con l'animazione tradizionale finiscono presto: costruiti i prototipi dei personaggi, scansionati da una penna ottica o realizzati al computer con un programma di computer sculpting, si lavora sulle scene con il regista, attraverso il raugh bloking, una rudimentale animazione al computer, prima di dare il rendering definitivo. L'interesse principale è associare nuove tecniche a quelle classiche, per dare alle immagini di sintesi un effetto di realtà indipendente dalla ricerca del dettaglio visivo e a favore di un'estetica tutta da inventare. Allo scopo di attrarre e mantenere i più esperti animatori, l'azienda ha fondato la Pixar University, che sviluppa corsi e aggiornamenti per gli animatori e i tecnici. Pixar ha una squadra completa di produzione che dà all'azienda la possibilità di gestire tutti gli elementi relativi alla produzione di lungometraggi. Le sedi La sede centrale della Pixar si trova in California ad Emeryville, qui sono impiegati circa 500 dipendenti. Steven P. Jobs, è direttore generale della Pixar, Edwin E. Catmull, è vice presidente esecutivo e capo del dipartimento tecnologico, Ann Mather, vice presidente esecutivo ed ufficiale finanziario principale, John Lasseter, vice presidente esecutivo, del dipartimento creativo, Sarah McArthur è vice presidente esecutivo di produzione. 351 FILMOGRAFIA 2001 MONSTERS 1999 A BUG’S LIFE TOY STORY 2 1997 GERI’S GAME 1995 TOY STORY 1990 KNICKNACK 1988 TIN TOY 1987 RED’S DREAM 1986 LUXO JR. 1984 THE ADVENTURES OF ANDRÉ AND WALLY B 352 STAN WINSTON Più volte vincitore degli Academy Award Stan Winston è effettivamente il primo creatore al mondo delle creaturine meccaniche, protagoniste di molti film fantascentifici, da The Terminator e ai mostri extra-terrestri di Aliens agli incredibili dinosauri di Jurassic Park e del personaggio fantastico di Edward Scissorhands, Winston ha vinto quattro Academy Awards e nove nomination. Può vantare tre British Academy of Film and Television Arts Awards, due Emmys e numerosi altri premi per l’industria cinematografica. Winston ha vinto la sua prima nomination all’Oscar per il make-up nel film Heartbeeps del 1981, anno in cui gli speciali make-up vengono riconosciuti come categoria ufficiale. Ha ricevuto le nomination all’Oscar per Aliens, Predator, Edward Scissorhands, Terminator 2: Judgment Day, Jurassic Park, Batman Returns e The Lost World. Ha ricevuto per Aliens, anche il BAFTA Award; due per Terminator 2: Judgment Day come Best Make-Up e Best Visual Effects e un altro BAFTA Award per i migliori Effetti Speciali; e il suo quarto Oscar per l’adattamento dei dinosauri con le live-action in Jurassic Park La carriera nel modo degli effetti speciali, comincia nel 1969 presso la Disney, in qualità di apprendista truccatore e gia nel 1972 riceve il suo primo Emmy Award per il film Gargoyles. Dal 1973 al 1979 ottiene altri cinque nomination per l’Emmy Award. Nel giro di pochi anni Stan Winston compie una carriera impressionante lavorando insieme a registi famosi come James Cameron, Arnold Schwarzenegger, Joel Silver, Tim Burton, Tom Cruise e Steven Spielberg, per citarne alcuni. Nel 1999 Winston realizza otto progetti: Touchstone Pictures' Instinct, protagonista Anthony Hopkins e Cuba Gooding, Jr.; Phoenix Pictures' Lake Placid, con Bill Pullman and Bridget Fonda; per la Disney realizza Inspector Gadget con Matthew Broderick e Rupert Everett; Austin Powers: The Spy Who Shagged Me, e il fenomenale Bruce Willis nel film The Sixth Sense per Disney's Hollywood Pictures. Nel 1999 si conclude anche il film d’azione di Schwarzenegger End of Days, Deuce Bigalow: Male Gigolo della Disney, e il film di fantascienza della DreamWorks Galaxy Quest. Il 2000 ha visto l’uscita del film What Lies Beneath dellaDreamWorks' diretta da Robert Zemeckis. Il 2001 vede l’uscita del film Pearl Harbor diretto da Michael Bay. Lo studio di Stan Winston a Los Angeles continua ad allargare le sue competenze dal disegno, al make-up alla realizzazione dei modelli. Abbracciando la tecnologia della CG, Winston assicura al suo studio un brillante successo. 353 FILMOGRAFIA 2001 PEARL HARBOR 2000 GALAXY QUEST WHAT LIES BENEATH 1999 END OF DAYS GALAXY QUEST DEUCE BIGALOW END OF DAYS THE SIXTH SENSE LAKE PLACID AUSTIN POWERS THE SPY WHO SHAGGED ME INSTINCT 1998 INSPECTOR GADGET SMALL SOLDIERS PAULIE: A PARROT'S TALE MOUSEHUNT 1997 THE LOST WORLD THE RELIC 1996 THE GHOST & THE DARKNESS COMMERCIAL: BUDWEISER JOHN CHAMBERS: MAESTRO OF MAKEUP THE ISLAND OF DR MOREAU 1995 CONGO TANK GIRL 1994 INTERVIEW WITH THE VAMPIRE ADVENTURES OF GNOME NAMED GNORM 1993 JURASSIC PARK 1992 BATMAN RETURNS 1991 TERMINATOR II JUDGMENT DAY 1990 EDWARD SCISSORHANDS 1987 PREDATOR II 1989 LEVIATHAN 354 1988 ALIEN NATION PREDATOR PUMPKINHEAD MONSTER SQUAD 1986 ALIENS INVADERS FROM MARS 1985 THE TERMINATOR STARMAN 1983 SOMETHING WICKED THIS WAY COMES 1981 THE ENTITY DEAD & BURIED HEARTBEEPS 1982 THE THING 1978 THE WIZ 1976 W.C. FIELDS & ME 355 TIPPET STUDIO Phil Tippet inizia a lavorare nella pubblicità all’età di diciassette anni, mentre frequenta una scuola d’arte. Segnalato da Muren operatore di effetti speciali alla ILM, viene assunto con Jon Berg come animatore per il film Guerre Stellari. Per L’Impero colpisce ancora, disegna diverse creature, occupandosi anche dell’animazione. Il lavoro svolto con Dennis Muren, Stuart Ziff, Gary Leo, Tom St. Amand per il film Il drago del lago di fuoco è determinante per lo sviluppo della nuova tecnica di animazione per miniature, definita go-motion. Per la sua opera prestata nel film Il ritorno dello Jedi, ha avuto l’Accademy Award. Il suo primo lavoro indipendente è un cortometraggio intitolato: Prehistoric Beast. Quello fu un importante passo avanti per l'uomo che una volta era supervisore dell’officina delle creatura della ILM. In sedici anni, quindici lungometraggi sei nomination all’Oscar e un piccolo studio che diventa una grande società con più di 125 artisti, progettisti, assistenti tecnici e animatori. Sotto la direzione di Phil e dei suoi soci, di Jules Roman (vice presidente e produttore esecutivo) e di Craig Hayes (direttore creativo e supervisore agli effetti speciali), lo studio è diventato uno degli studi principali di effetti speciali e animazione tridimensionale del mondo. Dai dinosauri di Jurassic ai giganteschi insetti di Starship Troopers, le notevoli immagini create da Tippett Studio continuano a stupire e dilettare il pubblico di tutto il mondo. Phil Tippett, fondatore e presidente del Tippett Studio in BerkeleyCalifornia, grazie alla sofisticata conoscenza di filmaker e alla potente abilità di visualizzare una sequenza per mezzo di dinamici movimenti ha meritato due Oscar e sei nomination, così come due Emmy award. La carriera del Phil ha percorso oltre 20 anni dal suo inizio come animatore in go-motion alla direzione di una completa società di effetti speciali con più di 150 impiegati. All'età di sette, Phil vede la saga dei Viaggi di Simbad, con gli effetti speciali di Ray Harryhausen, il film orienterà non solo i suoi studi ma l’intera sua vita. Phil laureatosi all’Università d’Arte di Irvine in California inizia a lavorare presso la Cascade Pictures a Los Angeles. Nel 1978, Phil dirige il reparto di animazione della ILM con Jon Berg per The Empire Strikes Back. Nel 1982 sviluppa la tecnica di animazione chiamata Go-Motion per Dragonslayer ricevendo la suo prima nomination all’Academy Award per l’animazione straordinariamente realistica del drago. Nel 1984 Tippett, riceve il suo primo Oscar, grazie ai modelli realizzati per l’ILM nel film Return of the Jedi. 356 Nel 1983 Phil lascia l’ILM per fondare la Tippett Studio e realizza il suo primo cortometraggio della durata di 10 minuti, un film sperimentale intitolato Prehistoric Beast. Il realismo dei dinosauri e la descrizione teorico-scientifica ne fanno un contemporaneo documentario che viene trasmesso nel 1985 dalla CBS col nome di Dinosaur! Tippett Studio ha vinto il suo primo award, un Emmy per gli Effetti Speciali Visivi, per le sequenze animate dei dinosauri nella trasmissione della CBS. Nel 1985 il produttore Jon Davison affida a Phil Tippett le sequenze animate del robot per Robocop. Phil decide di affidare parte del lavoro a Craig Hayes, il quale disegna e progetta il robot ED209. Questo progetto segna l'inizio d'una lunga collaborazione fra Phil e Craig. Nel 1991, grazie all’esperienza acquisita attraverso lo studio del comportamento dei dinosauri, Phil ottiene da Stven Spielberg l’incarico di coordinare il reparto di animazione dell’ILM. In qualità di direttore dell’animazione, Phil supervisionò, per Jurassic Park, entrambi gli studi, il Tippet Studio e il reparto di animazione dell’ILM. Per il realismo dei dinosauri il lavoro di Phil fu premiato da un Oscar, e grazie a questo film la tippet Studio e Craig Hayes svilupparono il Dispositivo di input Digitale-DID-, il quale trasferisce i dati in stopmotion al computer, cosicché possano essere ricreati velocemente dagli animatori, i movimenti registrati. Nel 1995, il Tippett Studio è stato chiamato in aiuto per creare le giganti e ostili aracnidi aliene nell'adattamento di Paul Verhoeven al romanzo di fantascienza di Robert Heinlein Starship Troopers. Tippett ha ordinato una squadra di 100 animatori, creatori di modelli, digital-artist e tecnici espandendo così il reparto di CG. Tippett ha ricevuto nel 1997 la sesta nomina all’Accademy Award. La fine degli anni 90 sono stati un momento di notevole sviluppo per il Tippett Studio. Phil ha supervisionato l’animazione e gli effetti in Virus per la Universal e My Favorite Martian per Disney. Recentemente ha supervisionato gli effetti con Craig Hayes, nel film di Jan De Bont, The Haunting per la Dreamworks. 357 FILMOGRAFIA 2000 Mission to Mars Hollow Man 1999 Virus My Favorite Martian The Haunting 1997 Starship Troopers 1996 Dragonheart 1995 Three Wishes Tremors II: Aftershocks 1993 Jurassic Park RoboCop 3 1990 RoboCop 2 1987 RoboCop 358 WALT DISNEY Pur tra innovative coproduzioni (i lungometraggi Pixar) e coraggiose distribuzioni (La principessa Mononoke), la storica Walt Disney conserva ancora il proprio inconfondibile stile nel cinema di animazione contemporaneo. In principio erano Topolino e le Silly Simphonies, poi arrivò qualche abitante di Paperopoli e nel 1937 - quando Walt Disney aveva 36 anni Biancaneve e i sette nani, primo lungometraggio della casa. Due milioni di dollari e quattro anni di lavorazione. Seguiranno altri adattamenti da intramontabili fiabe (su tutte Cenerentola, 1950), da classici della letteratura e del teatro (Peter Pan, 1953, era una pièce di James M. Barrie) e anche soggetti originali (uno dei più celebri è Gli Aristogatti, "perché resister non si può al ritmo del jazz"). Negli anni '80 la Disney sembra aver perso il suo smalto, fino a quando il dirompente Chi ha incastrato Roger Rabbit (1988) non ne risolleva le sorti, ridando anche vita ad un filone con precedenti illustri (cartoon+umani = I tre Caballeros, 1945, o Mary Poppins, 1964, tanto per fare due nomi). Dal 1989 (La sirenetta), la Disney sforna un lungometraggio di animazione all'anno, senza contare i sequel per l'Home Video, e sfoggia un vero e proprio lifting della propria immagine. In termini di qualità artistica ma soprattutto d’impatto promozionale (a partire dai gadget in regalo nell'Happy Meal di MacDonald). A ben vedere, però, i connotati della produzione sono sempre gli stessi ed è nella ripetizione della formula che si nasconde il segreto del suo successo. Walt aveva un sogno: unire in matrimonio le forme rotondeggianti dei suoi personaggi con armoniose melodie musicali. Realizzare un'immagine che nascesse dal suono, un'animazione il cui movimento fosse stabilito da partiture illustri. L'inventore di tanti characters rincorreva un'imprevista esigenza del suo popolo cartoonistico: la connessione di sperimentazioni visive delle avanguardie anni '30 alla dolcezza delle forme, al coinvolgimento emotivo per un cinema d'animazione narrativo e didattico. E Topolino aveva bisogno di un nuovo ingaggio. Nacque così Fantasia (1940). Che siano estremamente orecchiabili o terribilmente sdolcinate, le canzoni targate Disney ipnotizzano i bambini. Oltre a essere un accompagnamento, assolvono precise funzioni narrative: fanno evolvere gli eventi o mettono in luce alcuni aspetti dei personaggi. C'è poi sempre un motivetto particolarmente trascinante che accompagna il momento clou di allegria e di ipercineticità di ogni film (vedi "Akuna Matata" ne Il re leone, 1994). Il recente Tarzan non è però un classico musical-cartoon in cui gli stessi protagonisti "interpretano" i pezzi, attraverso doppiatori più o meno celebri, ma affida alla voce esterna di 359 Phil Collins il commento di quanto avviene in scena (e anche la morale della favola). Il motto firmato Walt Disney è valido ancor oggi per i suoi eredi di sangue e di penna. Nel lontano 1940, significava gettare nel calderone commercio e aspirazioni artistiche, sperimentazioni tecniche e gusto per il kitsch. Il celebre direttore d'orchestra Stokowski che dialoga con Topolino, "direttore di stelle" nei sogni di apprendista stregone; la presenza di Stravinskji, adattatore del proprio spartito La sagra della Primavera; la Philadelphia Orchestra al completo, protagonista degli intermezzi e del primo episodio (Toccata e fuga in re minore, di Bach): non si trattava di una semplice sfilata di star musicali e cartoon-cinematografiche. Il senso profondo era racchiuso in una vaga aspirazione del creatore. "Fantasia è un'idea che vive di vita propria." Un'idea ripetibile ad libitum, come è scritto in fondo alle partiture musicali. Walt insegue il fascino che il disegno animato emana da se stesso. Il primo Fantasia si apre con un affermazione programmatica: "…questa è musica fine a se stessa". Anno 2000: Roy Disney jr., nipote del primo Disney, non si è fatto spaventare dal fallimento di Fantasia. L'opera che avrebbe dovuto rivoluzionare il cinema d'animazione fu un fiasco clamoroso. A chi non piacque la scelta delle musiche (adattate alle conoscenze "turistiche" di un pubblico incolto), chi criticò l'eccessiva rotondità del tratto, chi la banalità dei presupposti ideologici. Terminata l'epoca del one man show di Walt Disney, gli staff si sono sparsi per il globo e non sempre hanno perseguito la stessa alta professionalità. Così l'insieme di Fantasia 2000 si presenta più eterogeneo. Tranne che per il primo episodio, simile di concetto all'avvio di Fantasia '40 (farfalle color pastello volteggiano lottando con forme geometriche nere, malvagie), tutti i nuovi episodi hanno una struttura narrativa più solida e sofisticata, anche se peccano di ingenuità nel presentare al pubblico smaliziato del 2000 un universo ancora nettamente diviso tra bene e male (è il caso dell'ultimo episodio, Suite l'uccello di fuoco). Questa volta, però, al centro dell'attenzione non è tanto la possibilità di unire musica e immagini in un connubio artistico ed emotivo altissimo. Acquisita la tecnica del videoclip musicale, rotte le barriere della narrazione tradizionale, sembra che gli staff Disney cerchino di rinverdire il concetto-Fantasia affiancandolo alle infinite alternative grafiche che in questo secolo si sono offerte allo spettatore di ogni arte visiva. Le meraviglie del digitale danno consistenza e peso alle enormi balene in volo verso una supernova esplosa (I pini di Roma); il tratto volutamente schematico, i colori brillanti, la bidimensionalità dell'insieme di Rapsodia in blu sono non solo un omaggio a Hirschfierld, famoso caricaturista, ma anche la testimonianza del fatto che i disegnatori conservano sempre - con tutti gli strumenti tecnici a loro 360 disposizione - un proprio stile, che può anche andare contro le immagini correnti e corrive. 361 PACIFIC DATA IMAGES Pacific Data Images ha creato meravigliose immagini per film e spot, includendo l’ottimo lavoro svolto per T2, Batman Forever e Natural Born Killers. PDI è stata una delle prime società ad utilizzare la tecnica del morphing per i video di Michael Jackson, ed è una delle migliori società di animazione tridimensionale al mondo. All’età di 23 anni, Carl Rosendahl fonda la PDI. PDI recentemente collabora con la DreamWorks SKG al fine di coprodurre film d’animazione. 362 FILMOGRAFIA 1999 ANTZ 1997 THE PEACEMAKER BATMAN & ROBIN A SIMPLE WISH TITANIC 1996 BROKEN ARROW THE ARRIVAL ERASER EXECUTIVE DECISION 1995 BATMAN FOREVER 1994 TRUE LIES NATURAL BORN KILLERS DENNIS THE MENACE 1993 HEART & SOULS CARLITO'S WAY ANGELS IN THE OUTFIELD THE BABE 1991 TERMINATOR 2: JUDGMENT DAY TOYS 363 PARTE 6: LA SITUAZIONE EUROPEA 364 COME MIGLIORARE LA COMPETITIVITÁ DEL SETTORE AUDIOVISIVO EUROPEO Il contesto generale: competere sul mercato globale La forte presenza delle produzioni americane sul mercato audiovisivo europeo e, di fatto, sul mercato audiovisivo globale è una caratteristica ormai tradizionale del nostro secolo. Attualmente, la massima parte dei mercati europei sono caratterizzati da una "bipolarità" dualistica: la programmazione televisiva consiste principalmente in materiali di origine nazionale o statunitense; in generale, i materiali americani sono più numerosi di quelli nazionali; sui mercati cinematografici si riscontra il predominio, in gradi diversi, dei film statunitensi, mentre gli altri film presenti sui rispettivi mercati sono per la massima parte di produzione nazionale. In entrambi i casi i materiali europei non nazionali si situano in genere a un lontano terzo posto, almeno sui mercati più vasti. Il punto di maggiore debolezza dell’Europa è il mercato dei lungometraggi non nazionali: proprio in questo mercato la presenza statunitense è più forte. I motivi del successo riscosso dai prodotti statunitensi, soprattutto in campo cinematografico, sui mercati audiovisivi mondiali e in particolare europei. Si possono sintetizzare in quanto segue: q i prodotti americani si possono vendere sul mercato mondiale a condizioni molto concorrenziali, perché di norma i costi vengono recuperati, in misura superiore che in ogni altro paese, grazie alle vendite sul grande e omogeneo mercato nazionale; q I vantaggi in termini di esportazione dovuti alla lingua inglese. q Commercializzazione e pubblicità quanto mai efficaci. q Il successo di Hollywood, in questo secolo, nel creare un tipo di linguaggio e grammatica audiovisivi globali. q Il dinamismo dell’imprenditoria americana e la qualità di molti dei suoi prodotti e della loro commercializzazione. q L’incapacità di altre imprese audiovisive di raccogliere la sfida. q L’appoggio forte e sostanziale del governo statunitense. q I contenuti riflettono gli interessi del consumatore: le esigenze europee di sviluppare politiche lungimiranti intese a consentire alle società europee di diventare più competitive sul mercato globale. È un fatto concreto che, per realizzare profitti, il settore audiovisivo americano dipende sempre più dalle esportazioni, le quali costituiscono attualmente il 43% degli introiti delle "grandi società" americane. Inoltre, il propulsore della crescita sono le vendite ai canali televisivi non americani, in particolare quelli della TV a pagamento. I redditi della TV a pagamento costituiscono il 30% dei proventi totali delle maggiori società americane. 365 Oltre che a esportare semplicemente programmi, queste società predominanti stanno anche impiantando in Europa canali televisivi tematici. La forte posizione dell’industria statunitense nel settore audiovisivo mostra l’importanza del nesso tra produzione e distribuzione: gli US sono eccellenti in entrambe tali attività, mentre in Europa la produzione è solida in termini quantitativi ma la capacità del settore audiovisivo di distribuire i propri prodotti lascia molto a desiderare, specialmente fuori del paese di produzione. Tali differenze sottolineano l’esigenza di un aumento del sostegno pubblico a tale settore ed evidenziano la necessità di passare da strutture frammentarie e basate sulla produzione a un’impostazione integrata basata sulla distribuzione. L’Europa non è ancora capace di riconoscere l’importanza strategica di controllare i cataloghi di diritti sui contenuti di pregio. Non si tratta semplicemente di un concetto culturale: chi controlla i diritti sui contenuti influirà in misura considerevole sulle modalità della loro distribuzione. Il controllo sui contenuti conferisce controllo sulla distribuzione e anche sulle proiezioni: le massime società statunitensi, per esempio, stanno investendo massivamente in sale cinematografiche in Europa. È importante che le società europee del settore dei mass media cerchino di massimizzare i proventi dei contenuti che esse producono e/o controllano avvalendosi al massimo grado di tutti i mezzi possibili di distribuzione, compresi quelli forniti dai nuovi media on- e off-line. Nel tentare di tenere il passo con il rapido aumento della domanda di lungometraggi e di sceneggiati televisivi, l’Europa può imparare molto da Hollywood in termini di competitività. Per esempio: occorre incrementare in grande misura il tempo e il denaro da destinare allo sviluppo di sceneggiature e si deve frenare la tendenza europea a procedere alla produzione prima che la sceneggiatura sia completata. Per le sceneggiature, i produttori europei spendono in media l’1% del bilancio di un film, mentre le massime società statunitensi stanziano a tale scopo il 10% dei loro bilanci (che sono di gran lunga superiori): i produttori e i responsabili della produzione devono proseguire la loro formazione per potenziare la propria efficienza commerciale e la conoscenza del mercato; si devono incrementare a livello europeo gli investimenti nella formazione professionale e nella riqualificazione di produttori, registi, autori e tecnici; si deve potenziare e migliorare il marketing: spesso le massime società statunitensi stanziano a tale scopo sino al 50% del bilancio di un film; si devono creare dispositivi per ripartire i rischi degli investimenti cinematografici su un pacchetto di film. Per la televisione, che costituisce il nucleo del mercato, è stato più evidente lo spostamento dell’audience dai programmi americani a quelli europei. È difficile quantificarne gli effetti concreti, ma sembra proprio 366 che a questo successo stiano contribuendo i vari dispositivi di sostegno del settore audiovisivo europeo introdotti negli ultimi dieci anni a livello europeo e nazionale. Non si tratta, tuttavia, di un fenomeno totalmente nuovo ed è troppo presto per proclamare la rinascita della cinematografia europea. L’effetto principale dell’avvento del digitale sarà un enorme aumento della domanda di materiali audiovisivi. Per l’Europa, quindi, si pone il seguente interrogativo: Quest’enorme aumento della domanda di contenuti audiovisivi, in particolar modo di film, sceneggiati e documentari televisivi, verrà soddisfatta con materiali d’archivio e d’importazione oppure con una nuova programmazione nazionale? Il finanziamento della produzione ad opera della televisione Nell’esaminare le modalità per migliorare la competitività del settore audiovisivo europeo, si deve riconoscere che le emittenti televisive svolgono una funzione guida nel finanziare la produzione di programmi non soltanto cinematografici ma anche televisivi (e, in molti casi, si tratta di programmi realizzati da loro stesse). È difficile ottenere cifre precise riguardanti gli investimenti dei canali televisivi europei nella produzione: in parte, ciò è dovuto al fatto che il loro contributo al finanziamento può concretarsi in forma di unico produttore, coproduttore o acquirente di diritti di distribuzione. Un altro problema è distinguere tra gli investimenti in sceneggiati televisivi (film televisivi, serie, miniserie ecc.) e lungometraggi. Nel Regno Unito, in Italia, in Francia e in Portogallo è previsto l’obbligo, per i canali televisivi, di investire nella cinematografia: in effetti, in questi paesi gli investimenti dei canali televisivi nella produzione di film è sostanziale. Nel Regno Unito, per esempio, oltre un terzo dei film prodotti sono finanziati parzialmente da emittenti televisive. Detto questo, si deve rammentare che la produzione non riguarda soltanto i lungometraggi: le produzioni destinate unicamente alla televisione possono avere altrettanta importanza culturale delle produzioni cinematografiche e sono essenziali per lo sviluppo del settore. Negli ultimi anni la produzione televisiva europea è in crescente incremento, grazie a vari fattori principali: l’avvento delle televisioni private ha accresciuto la concorrenza e la domanda di nuove produzioni; il pubblico ha espresso una netta preferenza per programmi nella loro lingua e rispondenti alla loro cultura; le produzioni americane stanno diventando più care e sembrano soffrire di una "carenza di creatività". L’attuale livello elevato degli investimenti nella produzione audiovisiva è dovuto all’aumento delle spese di programmazione delle emittenti 367 private e pubbliche (le prime hanno incrementato in misura considerevole le loro spese rispetto ai bassi livelli iniziali, mentre le seconde mantengono e anzi stanno aumentando i loro livelli tradizionalmente elevati d’investimenti nella produzione europea). Le emittenti devono rivolgere maggiore attenzione alla commercializzazione come parte integrante del processo di produzione e di distribuzione. Il successo delle produzioni hollywoodiane si spiega in gran parte con il fatto che, in proporzione, i budget per la commercializzazione sono molto più ingenti a Hollywood che nelle produzione europee e molto maggiore è anche l’attenzione che si rivolge alla commercializzazione. A tale riguardo, poiché i canali televisivi privati europei dipendono per la loro sopravvivenza dal valore commerciale dei loro programmi, essi possono apportare al processo della produzione audiovisiva la perizia e l’esperienza che sono tanto necessarie. Le misure di sostegno Il settore audiovisivo non è semplicemente un’industria come un’altra: svolge una funzione culturale e sociale d’importanza vitale. Se il mercato audiovisivo europeo sarà dominato dai prodotti culturali di un’altra società, il risultato finale sarà la parziale alienazione di un popolo dal proprio contesto culturale e storico. Preoccupazioni di questo tipo non sono puramente europee: sono condivise da numerose società dell’Estremo Oriente e persino da paesi nel continente americano, quali il Canada. Inoltre, questo settore presenta un’enorme rilevanza economica, considerato il suo potenziale per la crescita e la creazione di posti di lavoro in Europa. Nondimeno, gli interventi pubblici dovrebbero limitarsi in linea di massima a campi nei quali si manifesti un’evidente debolezza del mercato; inoltre, nelle misure di sostegno a livello europeo (relativamente esigue nella loro portata rispetto alle sovvenzioni nazionali) si deve tener conto della diversità delle situazioni nazionali, cercando di agire in forma complementare rispetto alle politiche nazionali e aggiungendo una dimensione europea. La situazione ideale consisterebbe in un settore audiovisivo europeo che non necessiti più di sostegni e interventi pubblici, ma ciò sembra impossibile nel futuro prevedibile. L’interrogativo è quindi: quale forma debbano assumere le misure di sostegno e gli interventi per conseguire risultati ottimali? I contenuti informativi (servizi di attualità, finanziari e ricreativi, oltre ai documentari) raramente creano un valore in termini di catalogo di programmi. L’eccezione è costituita dai documentari, sebbene in genere siano notevolmente meno costosi dei lungometraggi. Di conseguenza, le barriere che si frappongono all’accesso in tale settore di contenuti sono relativamente basse e si può ritenere che i programmi 368 di questo genere (tranne i documentari) non debbano costituire una priorità per le misure di sostegno a livello europeo. I contenuti ricreativi comprendono due categorie principali: lo sport e i lungometraggi. A parte poche eccezioni, quali la Formula 1, non si può dire che lo sport abbia veramente un’audience internazionale: persino manifestazioni quali i Giochi olimpici e la Coppa del mondo di calcio spesso richiedono una presentazione diversa in funzione del pubblico nazionale. Inoltre, in ogni singolo paese il livello d’interesse per tali manifestazioni dipende in gran parte dalla partecipazione ad esse di squadre o rappresentanti nazionali (non è una coincidenza che, per la finale della Coppa del mondo 1998, la televisione francese abbia registrato un’audience di 28 milioni). Gli Stati membri hanno la facoltà di chiedere che alcune manifestazioni di grande importanza sociale siano accessibili sulla televisione gratuita. I programmi sportivi in quanto tali, per i quali la domanda e i prezzi sono elevati e l’offerta è più che abbondante, costituiscono un esempio di contenuti che non richiedono sostegno europeo. Invece i lungometraggi, pur avendo un ampio potenziale internazionale, sono costosi da produrre: di conseguenza, all’accesso a questo segmento del mercato si frappongono barriere elevate. Quanto si è detto si applica, mutatis mutandis, agli sceneggiati e ai documentari televisivi, i quali, in termini di contenuto, presentano al contrario il massimo valore a lungo termine grazie al loro valore per i cataloghi di programmazione. Se sono necessarie misure di sostegno, è proprio qui che vanno applicate. Qui di seguito si presentano le proposte del Gruppo per simili misure di sostegno. Fondi di finanziamento mediante titoli Un grave problema di fronte al quale si trovano i produttori europei consiste nel finanziamento. Nelle sue conclusioni del 28 maggio 1998, il Consiglio dei ministri si è riferito specificamente all’interesse espresso dai professionisti del settore intervenuti per la creazione di uno strumento finanziario atto ad attirare capitali privati nella produzione europea. Si tratta di un riferimento alla proposta della Commissione di costituire un Fondo europeo di garanzia, che è stata accolta con favore dal settore industriale, dal Parlamento europeo e dalla maggioranza degli Stati membri, ma non ha ottenuto la necessaria unanimità in sede di Consiglio. Tuttavia, anche quegli Stati membri che non sono stati in grado di unirsi alla maggioranza favorevole a tale proposta hanno espresso interesse per il principio (di uno strumento comunitario atto ad attirare in misura maggiore gli investimenti del settore privato nella produzione di opere europee aventi potenziale di vendita internazionale) in misura sufficiente perché l’idea non venga abbandonata puramente e semplicemente. Al contrario, l’alternativa è continuare a sostenere con energia l’idea del Fondo di garanzia oppure 369 elaborare una nuova e diversa serie di proposte da presentare al Parlamento europeo e al Consiglio in occasione del riesame del programma MEDIA II. In tale contesto presenta interesse il dispositivo finanziario noto come "finanziamento mediante titoli", a cui hanno fatto ricorso la Fox e la Universal (due delle massime società statunitensi del settore) e la Polygram. Tale dispositivo prevede l’impiego di una base limitata di capitale netto (di norma fra il 3 e il 4%) di un terzo partecipante, più l’assunzione di debito bancario mediante garanzia costituita da titoli negoziabili. I fondi raccolti in tal modo servono per finanziare i costi negativi (cioè la produzione) dei film prodotti negli studios, i quali conservano tutti i diritti per la loro distribuzione. Gli studios non garantiscono il rimborso del debito bancario, ma sono tenuti ad assumere una quota di debito subordinato, cioè ai fini del ricupero dei propri costi di distribuzione e di commercializzazione, i quali costi, per assicurare una adeguata diffusione dei film, devono essere pari ad almeno il 60% dei costi negativi. Questa condizione minima di spesa in posizione subordinata, combinata con il cumulo dei risultati ottenuti da tutti i film finanziati mediante questo schema, fornisce alle banche un "garanzia" efficace (ma non assoluta). Il dispositivo che si è qui descritto, il quale consente agli studios hollywoodiani di procurarsi per i loro pacchetti di film ingenti importi di finanziamento relativamente a basso costo, potrebbe servire da modello per un’analoga struttura comunitaria. Per esempio, si potrebbe prevedere la seguente struttura: la Comunità potrebbe individuare un numero limitato di società di produzione e/o distribuzione (oppure consorzi comprendenti più società) aventi una capacità di produzione internazionale di circa 10 film ciascuna per un triennio. Dovrebbe trattarsi di film atti ad essere commercializzati sul mercato internazionale; la Comunità fornirebbe il capitale netto, necessario per ottenere altri finanziamenti dalla banche, così da costituire un fondo coperto da società assicuratrici; quest’importo sarebbe distribuito alle società o consorzi selezionati, che se ne servirebbero per finanziare principalmente lo sviluppo e la produzione dei film in questione, secondo livelli preconcordati. Del totale delle spese di produzione, un importo minimo sarebbe sborsato da società indipendenti dai consorzi. In tal modo, questa struttura potrebbe contribuire a mantenere in una situazione di sana autonomia il settore di produzione in Europa; le società o consorzi partecipanti dovrebbero sostenere con mezzi propri, per la stampa e la pubblicità, il 60% dei costi negativi dei loro film (cioè i costi effettivi di produzione). Sarebbe consentito alle società o consorzi di assicurarsi contro la perdita di parte di questo 60%, prelevando ricevuta. 370 Questo finanziamento, oltre ad essere relativamente poco costoso, non figurerebbe nel bilancio ufficiale delle società partecipanti, il che costituisce un vantaggio di rilievo in termini contabili (per esempio evitando inutili preoccupazioni da parte degli azionisti). Questo tipo di struttura si è già rivelata efficace per grandi società in grado di offrire il necessario pacchetto di film. L’interrogativo principale per quanto riguarda la fattibilità di questo dispositivo in Europa è se sia possibile costituire consorzi, possibilmente comprendenti società di più Stati membri, che siano in grado di offrire congiuntamente il necessario potenziale di produzione e di distribuzione. Se la risposta è positiva, l’incidenza strutturale di un simile dispositivo sarebbe di grande rilievo e, di conseguenza, fornirebbe un notevole corrispettivo rispetto al denaro impiegato. Poiché l’importo del contributo comunitario sarebbe relativamente esiguo, non è necessario presentare al riguardo una proposta a sé stante e si potrebbero includere le necessarie disposizioni in una proposta globale di riesame del programma MEDIA II. Una rete di scuole cinematografiche e televisive in Europa In Europa vi è una grande tradizione di scuole cinematografiche e televisive che forniscono un’offerta molto abbondante di corsi di formazione iniziale a livello nazionale. Ci si potrebbe avvalere di tale tradizione per svilupparla a livello europeo secondo tre modalità: le scuole devono scambiarsi le prassi migliori e stimolare reciprocamente le proprie idee per mantenere e migliorare il loro livello di eccellenza e aggiungervi la dimensione europea; è necessario integrare gli attuali programmi di studio mediante corsi che pongano in grado i professionisti europei in erba di acquisire le capacità commerciali internazionali che li rendano capaci di concorrere su mercati globali; si dovrà prevedere un Centro simbolico per il potenziamento della qualità nei settori cinematografico e televisivo europei. In termini concreti, ciò si tradurrà in incremento delle sovvenzioni del programma MEDIA a favore di una rete di istituti che impartiscano a titolo permanente corsi di formazione professionale sulle specializzazioni in gestione societaria dei mass media internazionali (affari, finanze, commercializzazione e questioni giuridiche). La rete dovrà offrire formazione anche nella redazione e nello sviluppo di sceneggiature per il mercato internazionale, e inoltre negli effetti speciali e nell’animazione tramite le nuove tecnologie e il computer. Le organizzazioni che attualmente ricevono finanziamenti dal programma MEDIA saranno invitate ad adoperarsi al massimo per estendere le loro attività, in termini al tempo stesso geografici e linguistici, al di là dell’Europa settentrionale e occidentale, per 371 correggere l’attuale squilibrio a sfavore dell’Europa meridionale e orientale. Per rafforzare e ampliare le reti di formazione europea nell’ambito del programma MEDIA, è necessario, ai fini della coerenza, un grado elevato di coordinamento fra i centri di alta qualità: ciò sarebbe agevolato - ed i settori cinematografico e televisivo europei sarebbero così dotati di un simbolico "Centro dei centri" - istituendo una "Scuola europea cinematografica e televisiva", cioè un Centro nel senso di un luogo fisico concreto dove si possano svolgere le attività di coordinamento e possano riunirsi periodicamente i professionisti in fase di formazione. Questo Centro sarebbe finanziato in parte in forma autonoma e in parte con il contributo del settore, più sovvenzioni aggiuntive (almeno all’inizio) da parte del programma MEDIA e dei governi nazionali. Dei premi europei di prestigio. Anche se il settore audiovisivo europeo sarà dotato del necessario capitale di base, di un contesto normativo e di formazione, richiederà pur sempre una manifestazione per presentare le sue produzioni televisive e cinematografiche. Già da qualche anno l’Accademia cinematografica europea ha organizzato premi cinematografici (chiamati un tempo premi "Felix") e sta adoperandosi al massimo per migliorarne la qualità. Negli Stati Uniti vi sono gli Academy Awards (gli "Oscar") e i loro equivalenti per la televisione (gli "Emmy"), che servono da eccellenti strumenti di commercializzazione. Il settore europeo trarrebbe grande vantaggio da una mostra a premi avente analoga incidenza. A giudizio del Gruppo di alto livello, quest’idea potrebbe essere elaborata in tempi brevi da operatori interessati del settore, in particolare l'Accademia, con l’apporto della Commissione per consentirne lo sviluppo. 372 IL PROGRAMMA MEDIA Il programma MEDIA costituisce un complemento necessario dei programmi nazionali di sostegno. Data la limitatezza dei finanziamenti disponibili, il programma deve rimanere incentrato sulla promozione della distribuzione paneuropea di film europei e sull’appoggio alle imprese europee perché diventino operatori validi a livello non soltanto europeo ma anche internazionale. In base all’esperienza acquisita con il programma MEDIA I, nel MEDIA II si sono selezionati tre settori cruciali: q la formazione q lo sviluppo q la distribuzione. Il programma è entrato in vigore il 1° gennaio 1996. Il Gruppo ha approvato il varo, nel 1997, di un sistema di "sostegno automatico" per la distribuzione dei film nelle sale cinematografiche, secondo il quale è stabilito un nesso tra le sovvenzioni a favore dei film e il loro successo in termini di incassi sui mercati non nazionali di tutta Europa. Questo dispositivo di sostegno ricompensa il successo e contribuisce quindi a rendere più competitivo il settore audiovisivo europeo; inoltre, consente di raccogliere dati statistici quanto mai importanti, che contribuiscono a far conoscere meglio il mercato europeo. Quindi si dovrebbe dare base permanente a questo sistema di sostegno, incrementando il bilancio stanziato per il sostegno "automatico" (in opposizione a quello selettivo). Si deve inoltre esaminare a fondo l’opportunità di ampliare la portata del sostegno automatico ad altre forme di distribuzione, per esempio tramite video (anche in questo caso sui mercati non nazionali). Nel settore della formazione professionale permanente, il programma MEDIA può contribuire in misura decisiva a costituire la rete di scuole cinematografiche e televisive europee. Inoltre, si deve accrescere il bilancio destinato allo sviluppo: si suggerisce che le sovvenzioni U.E. allo sviluppo non siano più un prestito singolo, una tantum, di cui è esclusa una seconda erogazione, ma vengano concesse per fasi, valutando ad ogni fase il potenziale della sceneggiatura, con la conseguente possibilità che il totale raggiunga un massimale molto più elevato. Si può prevedere un’impostazione "a due livelli": il primo aperto a tutti, come nell’attuale sistema, e il secondo destinato a imprese che abbiano un passato di comprovati successi, una comprovata capacità di sviluppare un pacchetto di film e dimostrabile accesso al finanziamento in partnership. Si dovrebbe abolire del tutto il sistema di pagamenti e rimborsi previsto agli inizi del programma MEDIA II. Se un film sovvenzionato dal Fondo di sviluppo del programma MEDIA non arriva alla fase della produzione, le sovvenzioni andranno stornate al 100%. A meno che non vi sia 373 rottura del contratto da parte del produttore, la responsabilità dell'insuccesso spetta tanto al Fondo di sviluppo, che ha deciso di sostenere il progetto, che al produttore. Penalizzare un produttore dopo che questi ha visto naufragare un progetto è errato e punitivo. Finanziare lo sviluppo costituisce un investimento a rischio molto elevato: le sovvenzioni ai produttori vanno erogate secondo modalità ancora più rigorose, tenendo conto di criteri al tempo stesso industriali e culturali. I progetti prescelti vanno seguiti sintantoché appaiano validi, possono ricevere sovvenzioni supplementari quando se ne debba perfezionare lo sviluppo oppure vanno abbandonati quando sembra che procedano male. I prodotti video fruttano spesso proventi molto più cospicui delle produzioni cinematografiche. Tuttavia, l’unica forma di sovvenzione prevista dal programma MEDIA II sono delle indennità per il flusso di tesoreria; inoltre, gli importi disponibili sono troppi esigui. La struttura attuale serve a poco e va riveduta: ancora una volta, si dovrebbe prevedere un sistema di sostegno automatico, tenendo conto del potenziale dei videodischi digitali DVD. Incoraggiare gli investimenti nella produzione da parte delle emittenti televisive. Di solito le emittenti finanziano la produzione audiovisiva, in particolare i lungometraggi, in forma diretta, ma sono molto numerose le altre possibilità della televisione di svolgere funzioni di maggiore rilievo nel finanziamento o nel sostegno della produzione. Per esempio: le emittenti potrebbero incrementare i loro preacquisti dei diritti di diffusione di lungometraggi; nei paesi di dimensioni più ridotte, spesso le emittenti hanno problemi a causa della limitatezza dei rispettivi mercati: accordi con le emittenti di altri paesi potrebbero incrementare i finanziamenti disponibili e il mercato potenziale. Ciò potrebbe essere agevolato mediante un sistema di sostegno automatico; inoltre, le emittenti potrebbero organizzare lo scambio di film e di altri programmi, consentendo così un rinnovo più rapido delle riserve e, anche in questo caso, ampliando i mercati potenziali. si potrebbero stabilire punti permanenti di contatto tra produttori televisivi e cinematografici; infine, la pubblicità televisiva di lungometraggi può avere effetti di rilievo sul loro successo sul mercato: le emittenti potrebbero procedere a tale pubblicità come parte del finanziamento. Molto di quanto le emittenti possono fare per sostenere la produzione può provenire dall’iniziativa delle emittenti stesse oppure, nel caso delle emittenti pubbliche, tramite la missione di servizio pubblico. Tuttavia, possono svolgere una funzione importante anche gli accordi di partnership "volontaria" tra le pubbliche autorità e le emittenti private. 374 Il rimborso da parte dello Stato può servire per finanziare altra produzione audiovisiva: l’emittente può scegliere all’interno di tutta una serie di produzioni, comprese quelle selezionate dagli Istituti del cinema e del settore audiovisivo, e quindi può optare per quelle produzioni che risultino più adatte alla sua particolare audience. Il finanziamento può essere diretto o tramite azione promozionale. L’emittente ne trae profitto poiché acquisisce il controllo, in certa misura, sui progetti selezionati per il finanziamento e in quanto avrà il diritto di trasmettere il film. Il produttore trae profitto dall’intensa azione promozionale a favore del film e dalla garanzia che verrà presentato in televisione. Il risultato globale è l’accrescimento della produzione. La Comunità e gli Stati membri dovrebbero esaminare come favorirne la diffusione e in particolare come tradurre in realtà il potenziale transnazionale dei film e dei programmi prodotti. 375 RISULTATI DEL PROGRAMMA MEDIA II Giunto al suo ultimo anno, il Programma MEDIA II (1996-2000) a sostegno del cinema e delle opere audiovisive ha permesso ad oggi: di sviluppare 1350 opere europee (film, telefilm, documentari, animazione, multimediale) tra le quali "Elisabeth" di Sheka Kapur (sei premi al BAFTA 1999 e al Golden Globe 1999), "East is East" di Damien O'Donnell (Premio Alexander Korda per il miglior film britannico BAFTA 2000 e l'Espigo de Oro a Valladolid), "Solas" di Benito Zambrano (5 riconoscimenti ai Premi Goya 2000 e Iris d'Or al Festival di Bruxelles) "Dancer in the Dark" di Lars von Trier (Palma d'Oro al Festival di Cannes 2000) o ancora "Pane e Tulipani" di Silvio Soldini (7 riconoscimenti al David di Donatello 2000), e "Kirikou et la sorciere" di Michel Ocelot (Gran Premio del lungometraggio al festival d'animazione di Annecy nel 1999); di sostenere lo sviluppo di 210 imprese di produzione europee; di sostenere più di 1830 campagne di promozione e di distribuzione per 360 film europei: "Aprile" di Nanni Moretti, "On connaît la chanson" di Alain Resnais (7 Césars ed il Premio Louis Delluc nel 1998), "La vita è bella" di Roberto Benigni (Oscar Miglior Film Straniero 1999 e Gran Premio della Giuria a Cannes 1998), "Festen" di Thomas Twycker, "Todo sobre mi madre" di Pedro Almodovar (Premio per la regia al Festival di Cannes 1999, Oscar per il Miglior Film Straniero 2000), "Asterix" di Claude Berri; In quattro anni, il numero di film distribuiti al di fuori del loro Paese di produzione è aumentato dell'85%, passando da 246 nel 1996 a 456 nel 1999. In rapporto ai film prodotti in Europa nello stesso periodo, la proporzione di film distribuiti al di fuori del loro Paese d'origine è passata da 13,71% a 22,19%. di coprodurre e distribuire 275 opere televisive (fiction, documentari, programmi d'animazione) quali "Il Conte di Monte Cristo", "St. Ives", "Carvalho", "Mobutu Roi du Zaïre" oppure "Simsalagrimm"; di editare e distribuire in video circa 200 cataloghi di opere europee; di sostenere 350 sale cinematografiche, totalizzando 831 schermi in 213 città d'Europa, impegnate in una programmazione maggioritaria di film europei per un totale di 75 milioni di spettatori; di sostenere annualmente 64 festival cinematografici con una programmazione 7.500 opere europee, illustrando la creatività e la diversità delle cinematografie europee, per un pubblico di più di 2.000.000 persone. - di sostenere 145 iniziative di formazione che hanno permesso a più di 4.000 professionisti (produttori, sceneggiatori, autori,...) di accrescere le loro competenze sul mercato internazionale. 376 MEDIA PLUS Mille miliardi di lire al servizio della creazione audiovisiva europea. La Commissione Europea, la Banca Europea d'investimento (BEI) e il Fondo Europeo d'investimento (FEI) propongono all'industria audiovisiva europea una nuova fase di attività destinate a rinforzare la sua base finanziaria e ad accelerare il suo adattamento alle nuove tecnologie numeriche. Intervenendo a complemento del Programma Media Plus (2001-2005), questo pacchetto finanziario si pone come obiettivi l'aumento della competitività di questa industria e di favorire lo sviluppo di contenuti audiovisivi europei. Viviane Reding, commissario europeo responsabile della Cultura e dell'Audiovisivo, e Philippe Maystadt, Presidente della Banca europea d'investimento, hanno presentato oggi a Bruxelles una nuova strategia di cooperazione tra le Commissioni, BEI e FEI che mettono in pratica, nell'ambito dell'audiovisivo, il mandato consegnato a Lisbona nel Marzo 2000 dai capi di Stato e di governo dell'Unione europea (UE) mirato a facilitare la transizione dei Quindici verso un'economia e una società fondata sull'informazione e la conoscenza. Della durata iniziale di 3 anni, l'iniziativa "i2i-Audiovisivo" conta di concedere importanti risorse economiche: alcune stime, basate sulle prime operazioni in corso di valutazione, permettono di considerare un volume iniziale di finanziamento del gruppo BEI superiore al mezzo miliardo di EURO, ovvero mille miliardi di Lire. Sono state presentate quattro linee d'azione: Linee di credito (o "prestiti globali") della BEI al settore bancario specializzato nell’audiovisivo per il finanziamento di piccole imprese di creazione audiovisiva e di tecnologie audiovisive. Il finanziamento a medio e lungo termine del BEI, in cooperazione con il settore bancario, di grandi gruppi privati o pubblici di televisione, di produzione o di distribuzione audiovisiva per i loro investimenti d'infrastrutture (studi, installazioni numeriche, stazioni di emissione, et.) o di creazione (produzione di "bouquets" di film, distribuzione di opere o di cataloghi). Il finanziamento di fondi di capitale a rischio specializzati nell'audiovisivo attraverso la partecipazione del FEI. Azioni congiunte del gruppo BEI e la Commissione Europea mirate ad assicurare una migliore complementarità tra le risorse bancarie del Gruppo e le sovvenzioni comunitarie del programma Media Plus, il quale è dotato di un budget di 400 milioni di EURO su 5 anni per sostenere la cooperazione tra distributori europei (campagne di distribuzione, etc.) per sviluppare i servizi "on-line", valorizzare gli archivi cinematografici e sviluppare i canali numerici tematici 377 Inoltre, Viviane Reding e Philippe Maystadt sperano di incoraggiare il dialogo tra i finanzieri europei dell'audiovisivo, che fino ad ora lavorano con poca collaborazione su dei progetti europei. Commentando questa decisione, Philippe Maystadt ha dichiarato: " è fondamentale che l’Europa prenda il suo posto nell’industria audiovisiva. Per questa ragione sia economica che culturale, è indispensabile offrire un finanziamento adatto ai criteri europei. E’ ciò che noi tentiamo di fare attraverso il programma "i2i" lanciato a seguito del Summit di Lisbona." Viviane Reding ha stimato che "questa iniziativa congiunta vuole fare entrare l’Europa dell’audiovisivo in un circolo virtuoso. Poiché se riguadagnassimo delle parti di mercato, i nostri creatori, vedendo la loro audience aumentare, creerebbero loro stessi dei mezzi finanziari nuovi e accrescerebbero così la possibilità di diffondere la nostra cultura in altri paesi europei e nel mondo. Dobbiamo quindi avere un metodo decisionista e rilanciare la sfida sui nostri impegni e sulle diversità culturali. Sostegno all’industria audiovisiva Adozione da parte del Consiglio Cultura del programma MEDIA Plus di sostegno all'industria audiovisiva europea Il Consiglio riunito a Bruxelles ha raggiunto un accordo sul Programma MEDIA Plus (2001-2005) con un budget di 400 millioni di EURO, come proposto dalla Commissione. Tale programma comprende un'area di "formazione continua dei professionisti dell'audiovisivo" (adeguamento al digitale, tecniche di vendita, formazione alla scrittura di sceneggiature, ecc.) che dispone di 50 milioni di EURO e un'area "sviluppo, distribuzione, promozione" che dispone di 350 milioni di EURO. Il budget di MEDIA II (1996-2000) era di 310 millioni di EURO. I tre Stati membri che avevano suggerito un budget inferiore (RegnoUnito, Paesi Bassi, e Germania) hanno infine accettato il budget di 400 millioni di EURO. La fase "formazione" deve essere adottata dal Parlamento (codecisione) in seconda lettura, prima dell'adozione finale del Consiglio. La fase "sviluppo" (consultazione semplice e unanimità) può essere adottata come punto A durante il prossimo Consiglio. I ministri si sono accordati sulla seguente ripartizione indicativa del budget MEDIA Plus area "sviluppo, distribuzione, promozione": almeno il 20% per lo sviluppo, almeno il 57,5% per la distribuzione, l'8,5% per la promozione, il 5% per i progetti pilota (novità di MEDIA Plus rispetto a MEDIA II e destinata in particolare a facilitare il passaggio al digitale) e almeno il 9% per i costi strutturali (in particolare i MEDIA Desk negli Stati membri) Viviane Reding si è rallegrata che il Consiglio abbia adottato la proposta della Commissione, che "dà un segnale forte ai professionisti dell'audiovisivo circa la volontà dei Quindici di sostenere il cinema 378 europeo e accrescere la sua competività dal momento che il digitale offre un formidabile potenziale di crescita e di impiego". Il commissario ha ribadito ai ministri la volontà della Commissione di gestire MEDIA Plus in piena trasparenza ed ha insistito perché vengano dati dei mezzi sufficienti ai MEDIA Desk, che sono la chiave di volta del sistema nell'informare e sostenere i professionisti che intendono prendere parte al programma. Grazie a MEDIA, la proporzione dei film europei che circolano al di fuori del loro Paese d'origine è passata da meno del 14% nel 1996 a più del 22% nel 1999 e più del 60% dei film europei distribuiti in altri Paesi rispetto a quello di produzione sono sostenuti da MEDIA. Inoltre, Viviane Reding ha comunicato ai ministri che sono sul punto di concretizzarsi i colloqui della Commissione con la Banca Europea degli Investimenti (BEI) volti ad attivare, per il settore audiovisivo, strumenti quali i prestiti, le garanzie o il sostegno a fondi di capitale a rischio. LA COMMISSIONE ADOTTA LE PROPOSTE PER IL PROGRAMMA MEDIA PLUS (2001-2005) La Commissione ha adottato la proposta di Decisione del Parlamento Europeo e del Consiglio sull'attuazione di un nuovo programma di Formazione di professionisti nel settore audiovisivo (MEDIA PlusFormazione) ed una proposta di Decisione del Consiglio sull'attuazione di un nuovo Programma di incentivi allo Sviluppo, Distribuzione e Promozione di opere audiovisive europee (MEDIA Plus- Sviluppo). Le due Decisioni andranno a coprire il periodo dal 2001-2005. Il Programma Media Plus sarà introdotto nel 2001 come proseguimento del Programma Media II (1996-2000), e sarà incentrato in modo specifico sulla circolazione di opere audiovisive europee, dentro e fuori i paesi dell'Unione Europea, con un maggior legame tra i risultati conseguiti sul mercato ed il sostegno concesso. Il programma sarà inoltre sufficientemente flessibile da consentire, durante il suo periodo di attuazione, di sostenere nuovi tipi di progetti legati all'evoluzione di tecnologie digitali. Media Plus presterà una particolare attenzione alle esigenze dei Paesi nei quali l'industria audiovisiva è poco sviluppata e/o ad aree linguistiche e geografiche ristrette. MEDIA PLUS sarà inoltre aperto ad accettare sia quei paesi che hanno fatto domanda di adesione, a patto che la loro legislazione sia sufficientemente allineata con la politica stabilita dalla Comunità per ciò che concerne il settore dell'audiovisivo, sia altri paesi europei. MEDIA PLUS interverrà in modo complementare con i sistemi nazionali di finanziamento all'audiovisivo, cioè a monte e a valle della produzione dell'opera. Esso sarà inoltre complementare con altre iniziative comunitarie, come il 5° Programma Quadro/Ricerca (1998-2002) o 379 l'iniziativa e-Europe (finanziamento con capitale a rischio nella fase di avvio nel settore audiovisivo). A commentare le proposte sulle decisioni di Media Plus, Viviane Reding, neo membro della Commissione con specifica responsabilità per l'educazione e la cultura, ha espresso il suo pieno appoggio alla " produzione audiovisiva europea che non dovrà più contare solo sulla sua inventiva ed originalità, riflesso della sua diversità culturale, ma dovrà anche disporsi in modo risoluto ad attirare un pubblico europeo e mondiale". Media Plus - Formazione Il Programma Media Formazione è rivolto ai professionisti dell'audiovisivo, formatori e a quelle imprese che lavorano nel settore dell'audiovisivo. Esso promuoverà la formazione legale e commerciale, la formazione nell'uso delle nuove tecnologie (in particolare la computer grafica e il multimediale), la formazione per sceneggiatori professionisti nella redazione e nello sviluppo di sceneggiature rivolte ad un pubblico non nazionale. MEDIA PLUS incoraggerà inoltre network di istruttori e professionisti nei relativi paesi. Il Cofinanziamento Comunitario dei progetti avverrà attraverso dei fondi, in genere non superiori al 50%. La maggioranza dei partecipanti nel settore della Formazione dovrà essere di nazionalità diversa da quella del paese in cui il corso di Formazione avrà luogo. La Decisione del Programma Media-Formazione si è basata sull'art.150 del Trattato (Formazione professionale - codecisione e maggioranza qualificata). Il budget proposto per il Programma Media -Formazione è di 50 milioni di Euro per il periodo 2001-2005. Media plus - Sviluppo Poiché l'aiuto pubblico nazionale all'industria audiovisiva nazionale è diretto principalmente alla produzione, il Programma MEDIA Sviluppo è incentrato sulla fase di sviluppo e di distribuzione delle opere. Il sostegno finanziario della Comunità deve essere considerato come un incentivo per l'industria in grado di smuovere investimenti finanziari complementari. Il finanziamento comunitario avviene sotto forma di prestito, in generale non superiore al 50% del costo del progetto. MEDIA PLUS-Sviluppo comprende quattro forme di sostegno; sviluppo, distribuzione, promozione e progetti pilota. Per poter assistere nello sviluppo del contenuti audiovisivi idonei ad attrarre un pubblico europeo ed internazionale, i progetti individuali (sceneggiatura, ricerca di un partner finanziario ed artistico, studi di marketing) presentati dai produttori europei e che rispondano a questo criterio saranno eleggibili per il cofinanziamento comunitario. Le imprese di produzione saranno incoraggiate attraverso l'assegnazione di un aiuto non rimborsabile per sviluppare pacchetti di progetti che incontrino una strategia di sviluppo a medio-termine. Sarà particolarmente incoraggiato l'uso di nuove tecnologie. 380 Lo schema di sostegno alla distribuzione è altamente sviluppato, compreso, nel caso del cinema, lo schema di supporto selettivo nella forma di un anticipo non rimborsabile inducendo i distributori di opere europee a raggrupparsi in network e ad investire nella distribuzione e nel multilinguismo (doppiaggio, sottotitolaggio e produzione multilingue). Si aggiunga un sistema di sostegno automatico proporzionale al numero di biglietti venduti per film europei non-nazionali, da reinvestire nello sviluppo di produzioni europee. Altre forme di sostegno come l'aiuto per la realizzazione della colonna sonora per film europei e l'aiuto per esercenti cinematografici affinché programmino un numero significativo di film europei nelle principali sale cinematografiche per un periodo minimo di programmazione sono inclusi in MEDIA PLUS. Novità per quanto riguarda la distribuzione "off-line" (videocassette, DVD),dove viene previsto un sistema di sostegno automatico, con l'obbligo di reinvestimento nella edizione, distribuzione e promozione di opere europee. Nel caso della televisione, un sostegno andrà ad incoraggiare la cooperazione tra i distributori televisivi apparteneneti a differenti aree linguistiche. Per quanto riguarda la distribuzione di opere europee on line (Internet, pay-per-view, etc.) lo scopo è quello di incoraggiare lo sviluppo di cataloghi di opere in formato digitale. Quanto alla promozione, le misure del programma mirano ad aiutare i professionisti ad ottenere l'accesso al mercato europeo ed internazionale accrescendo la loro presenza nei principali mercati professionali e festival anche attraverso una migliore utilizzazione dei cataloghi di programmi europei. I progetti pilota, infine, riguarderranno in particolare la digitalizzazione di archivi di programmi europei. La Decisione sul Programma di MEDIA-Sviluppo è basata sull'art.157 del trattato TCE (industria - unanime decisione del Consiglio a seguito della consultazione del Parlamento). Il budget proposto per il Programma MEDIA-Sviluppo è di 350 milioni per il periodo 2001-2005. 381 IL DIGITALE IN ITALIA Ad un esame, anche sommario, sul totale della produzione cinematografica nostrana, risulta subito evidente quanto poco successo abbia riscosso l'utilizzo degli effetti speciali, soprattutto se paragonato alla produzione made in USA. Infatti, a differenza dei cineasti statunitensi che, proverbialmente intenti a confezionare film spettacolari, hanno impiegato tempo ed energie nella ricerca di soluzioni sempre più sofisticate, tra i nostri registi e produttori fino a pochi anni fa - e in parte tuttora - la concezione dominante è stata quella di impronta neorealista. Il motto di questa corrente artistica sostiene che in un film il regista debba "Parlare del portiere di casa"; ora, con questa forma mentis dalle sembianze vagamente tradizionaliste, in che modo il cinema italiano avrebbe potuto adeguarsi al cammino innovativo e sperimentale - in senso tecnologico- intrapreso negli Stati Uniti? Come sarebbe stato possibile giustificare il ricorso ad un qualunque tipo di effetto speciale, che altro non è che un'alterazione intenzionale del reale? Quei pochi pionieri che nel nostro paese hanno scelto la strada della trasgressione, comunque, non hanno potuto - per l'indifferenza del mondo dello spettacolo - o saputo distaccarsi da una concezione statica, primitiva, dell'idea di effetto speciale. Il risultato di questo insieme di circostanze sfavorevoli è stato l'impiego di trucchi artigianali, semplificati all'estremo, cristallizzati in uno stato e affatto destinati all'evoluzione: gli 'esperti' di effetti speciali si sono arrangiati con ghiaccio secco, modellini e trippa (per gli horror). Soltanto a partire dalla seconda metà degli anni '70 inizia faticosamente la formazione di un gruppo di veri esperti truccatori ed effettisti, costretti però ad esportare all'estero il loro talento; fra questi possiamo ricordare Carlo Rimbaldi, Mario Bava, Giannetto de Rossi e Sergio Stivaletti. I loro contributi nel cinema italiano, si contano oggi sulle dita di una mano, e sono rimasti limitati al genere horror e fantascientifico. Soltanto in tempi recenti, a seguito delle grandissime trasformazioni occorse nell'industria cinematografica mondiale con l'introduzione degli interventi digitali in post-produzione, il mercato italiano sembra tentare i primi passi verso un progressivo -seppur lento- adeguamento. Il bisogno di definire un campo di autonomia rispetto alle issues più trite del cinema americano è rimasto comunque uno dei tratti più marcati della nostra produzione cinematografica. Se negli Stati Uniti il ricorso ad interventi in post-produzione gioca un ruolo primario sul piano della spettacolarità e della suggestione, in un'Italia ancora legata alla tradizione la tendenza sembra all'inverso quella di limitarne al massimo l'impiego e la visibilità: il ricorso all'effetto digitale è consentito solo nei casi in cui questo contribuisca a ridurre i 382 costi e le difficoltà di filmare alcune riprese. Ad ogni modo, la sua 'invisibilità' è una prerogativa ineludibile. Per quanto riguarda il primo incontro tra industria cinematografica e visual effects, è d'obbligo citare Ritorno in casa Gori, divertente commedia di Alessandro Benvenuti: nelle scene finali assistiamo, quasi senza rendercene conto -la sequenza è infatti nulla se paragonata agli effetti speciali made in USA- al primo intervento in post-produzione mai realizzato su una pellicola italiana. Lo spirito di Adele (Ilaria Occhini) volteggia sopra le teste degli altri protagonisti attoniti. Artefice del miracolo è la Proxima. In seguito a questo primo tentativo inizia timidamente a farsi strada il desiderio di sperimentare le nuove tecnologie che, da interesse esclusivo del mercato pubblicitario, si estende - pur senza superare i limiti della pura curiosità - ad alcuni registi e case di produzione. Nel 1996 Gabriele Salvatores tenta la rottura dallo schema tradizionale della commedia all'italiana girando Nirvana, il capolavoro che, con 17 miliardi di investimento e 80 sequenze digitali, getta le basi per un deciso processo di avvicinamento agli standard di produzione mondiali. Gli effetti sono stati realizzati dalla Digitalia Graphics, azienda leader in questo settore del mercato italiano, autrice di numerosi successi cinematografici e pubblicitari. La presentazione di Nirvana e l'enorme successo nazionale ed estero hanno innescato un rapido processo di avvicinamento tra le nuove tecnologie ed il mondo del cinema: anche i più scettici sostenitori del valore della tradizione hanno dovuto ridimensionare il loro atteggiamento di diffidenza, o almeno si sono trovati costretti a fronteggiare una realtà che in precedenza si ostinavano ad ignorare. I più autorevoli personaggi del panorama culturale italiano sono stati chiamati ad esprimere opinioni sulla possibilità di un connubio tra cinema e multimedialità: a tale scopo sono state organizzate varie giornate di incontri (Montecarlo Imagina e Cinecittà). La Camera di Commercio di Milano - sede delle più importanti imprese nazionali nel settore della multimedialità - ha promosso il Progetto DIMMI, nell'ambito del quale sono state realizzate alcune importanti iniziative. Successivi contributi alla realizzazione di film per il cinema sono stati apportati ancora dalla Proxima in Fuochi d'artificio di Leonardo Pieraccioni (le scene in questione sono due: il fulmine che colpisce Ceccherini ed i razzi delle scene finali) e Ovosodo di Paolo Virzì (ricostruzione digitale di una veduta panoramica) e dalla Digitalia in Porzus di Renzo Martinelli (1998; tramite accurati interventi di morphing i flashback dei protagonisti vengono resi più verosimili) e ne I piccoli maestri di Daniele Lucchetti. Recentemente, Cinecittà ha compiuto un importante passo di avvicinamento alle nuove tecnologie investendo diversi miliardi nell'acquisto di sofisticati macchinari (laser scanner e recorder Cineon Kodak per il trattamento delle pellicole e 383 multiprocessori Onyx per il restauro delle pellicole): negli studios è stato girato il film di Giuseppe Tornatore, La leggenda del pianista sull'oceano, in cui sono stati inseriti alcuni interventi realizzati dalla Proxima, Zed VFX, e dalla Interactive Group. Il digitale ormai si è prepotentemente imposto come nuova realtà cinematografica, aprendo la via ad un'infinita serie di possibilità. L'approccio italiano al digitale è ancora in una fase sperimentale e rimane limitato a piccoli interventi. Il problema è di ordine tecnico, poiché le apparecchiature di cui disponiamo sono buone, ma purtroppo mancano delle organizzazioni solide come la Industrial Light & Magic, le uniche in grado di formare una categoria di tecnici veramente qualificata. Gli effetti speciali nascono ad Hollywood, ma hanno spesso nomi italiani. Questo succede per una questione puramente economica; l'industria vera è ad Hollywood. Il rapporto tra la produzione cinematografica italiana e quella americana può essere espresso in termini di uno a cento... è ovvio quindi che i talenti si indirizzino dove c'è più richiesta di lavoro e maggiori prospettive di guadagno. 384 DIMMI DIMMI è il programma della Camera di Commercio di Milano per la promozione del multimediale italiano (Digital Interactive Multimedia Made in Italy). Questo settore vede muoversi con successo alcune imprese nell'editoria multimediale di nicchia (scuola, arti pittoriche e culinarie, musica e sport) e soprattutto nel cinema. La Camera di Commercio di Milano era presente alla rassegna con uno stand per la promozione delle imprese italiane aderenti al progetto DIMMI. Il Digital Interactive Multimedia Made in Italy (DIMMI), nato nel 1999 dalla collaborazione tra le aziende speciali della CdC di Milano Cedcamera e Promos, si propone di: * promuovere una più incisiva presenza del settore multimediale italiano sul mercato internazionale. * sostenere lo sviluppo di tale settore favorendo un miglior coordinamento tra le imprese aderenti al DIMMI; * valorizzare il patrimonio creativo della multimedialità italiana; Le principali iniziative sono: * Organizzazione di incontri d'affari tra le imprese aderenti al DIMMI e potenziali partner esteri. * Partecipazione alle principali fiere internazionali sulla multimedialità. * Creazione di una banca dati con il repertorio della produzione multimediale italiana. * Costituzione di un supporto operativo di rete, con la collaborazione della Camera di Commercio italiana a Los Angeles, che consentirà l'attivazione per le imprese aderenti a DIMMI di servizi di interscambio e di partnership con imprese statunitensi, specie nel campo degli effetti speciali cinematografici. 385 LA FABBRICA DELL’IMMAGINARIO Nel 1993 eravamo già convinti sulle positive opportunità di sviluppo culturale e socio-economico date dalla affermazione della Società dell'Informazione, promuoviamo il dibattito sulla promozione della Cultura Digitale collaborando senza scopo di lucro con istituzioni, amministrazioni pubbliche, università, centri di ricerca. Nel 1994, con l'attivazione del programma di ricerca Umanesimo & Tecnologia, abbiamo affermato il principio secondo il quale la promozione della Cultura Digitale per lo sviluppo delle Scienze Umane nell'Economia Digitale era uno degli obiettivi da perseguire per la produzione di Contenuti di qualità nell'Industria dei Contenuti digitali che si andava definendo in Europa. Nel 1995, con l'attivazione di un laboratorio sperimentale in collaborazione con l'Università, abbiamo promosso, primi nella Città di Napoli, la Ricerca applicata all'uso delle nuove tecnologie nelle Scienze Umane. Nel 1996 abbiamo promosso il Manifesto multimediale "Napoli Città del Lavoro e della Ricerca" - al quale hanno aderito istituzioni locali, amministrazioni pubbliche, università, centri di ricerca - allo scopo di contribuire a rendere sensibili le istituzioni verso le creazione di condizioni ambientali favorevoli allo sviluppo della Società dell'Informazione nella città di Napoli. Nel 1997, attenti alle problematiche che si andavano evidenziando sul mercato del lavoro con lo sviluppo della Società dell'Informazione, abbiamo elaborato per il Comune di Napoli il progetto LINKED ed abbiamo promosso la costituzione del Centro Studi Umanistici e Ricerche Multimediali presso l'Istituto Universitario Orientale di Napoli. Nel 1998 il gruppo di ricerca della Fabbrica dell'Immaginario aderisce al Manifesto internazionale Technorelism e ne promuove i Contenuti in Italia su Internet con la versione in lingua italiana. Nel 1999 il Presidente della Provincia di Napoli sostiene moralmente il progetto Umanesimo & Tecnologia, la Fabbrica dell'Immaginario si attiva per la promozione della Cultura Digitale anche in altre regioni italiane. Nel 2000 la Fabbrica dell'Immaginario promuove l'accordo tra la Provincia di Napoli, La Regione Toscana ed il Laboratorio Italiano Digitale, cui fa capo Cinecittà Holding, per la Promozione della Cultura Digitale. 386 John Attard in Chinatown. John Attard co-fondatore della Fabbrica dell'Immaginario, dopo due lunghi anni ritorna stabilmente in Italia a produrre effetti speciali digitali. Il noto studio di pre e post-produzione milanese Chinatown ha stipulato un contratto con l'artista digitale affidandogli la responsabilità del reparto di produzione in computer grafica 3D e l'incarico di consulente alla supervisione degli effetti speciali per le produzioni alla cui realizzazione parteciperà la società. John, che agli inizi della sua carriera di artista digitale ha lavorato continuamente per tre anni al programma di ricerca Umanesimo & Tecnologia, si è dichiarato entusiasta di ritornare a lavorare in Italia. Nuovo corso in Chinatown la società di post-produzione milanese che guarda al mercato internazionale con una nuova filosofia incentrata sul Rinascimento Digitale. Parlare di filosofia per una società di post-produzione appare un po' azzardato ma in questo caso non c'è proprio nulla di esagerato. Chinatown la più gialla delle società di post-produzione milanese, sta rivoluzionando il suo metodo di lavoro per passare dal service evoluto al Rinascimento Digitale con un nuovo responsabile del reparto 3D: John Attard uno dei maghi degli effetti speciali. Lo abbiamo incontrato per farci raccontare in che cosa si fonda questo nuovo corso. Tv Key: Rinascimento Digitale, il nome ríchiama un sublime periodo della storia italiana, cosa ha a che fare con la tecnologia dell'audiovisivo? John Attard: Le tecniche si sono evolute, ma i principi sono rimasti quelli dei pittori di 500 anni fa. Oggi ci sono strumenti elettronici al posto dei pennelli, ma siamo in un'era di grandissima creatività artistica, facilitata proprio dalla diffusione di queste tecnologie. Tv Key: il Rinascimento ha visto eccellere grandi artisti, vede un'analogia coi tecnici della post-produzione? John Attard: In post-produzione non ci sono solo tecnici, ma dei veri artisti. Spesso quello che manca è il metodo e talvolta l'esperienza. Il mio compito è anche quello di coniugare queste differenti caratteristiche, di introdurre un metodo di lavoro nuovo, funzionale prima di tutto alla qualità del risultato. Questo si ottiene ottimizzando le risorse e i tempi: avere più tempo a disposizione significa poter lavorare meglio e quindi dare un risultato superiore. Tv Key: In che modo il cliente recepisce questo diverso metodo di lavoro? 387 John Attard: Mi rifaccio all'esperienza inglese, dove il primo passo è stato quello di risolvere un punto centrale del rapporto col Cliente: di cosa ha bisogno. Sembra banale, ma a volte la fretta e la mancanza di metodo portano a una mancata convergenza tra le aspettative di chi commissiona il lavoro e la sua attuazione. Questo è il primo passo. Ogni fase del lavoro non è solo una conseguenza della fase precedente, ma fa parte di un piano che deve tenere in ogni istante perfettamente in conto quale deve essere il risultato. Tv Key: Lei è considerato uno dei maestri mondiali del 3D, che cosa l'ha spinta a venire in Italia e in Chinatown? John Attard: Di Chinatown mi è piaciuto molto la mentalità, aperta alla diffusione della conoscenza. Il limite delle strutture di post-produzione è spesso costituito dalla tendenza a mantenere all'interno ciò che si conosce e si apprende. Invece i successi si ottengono divulgando la conoscenza per far crescere la cultura del mezzo e poi confrontandosi sulle capacità e non sulle macchine. In Chinatown ho trovato una totale adesione a quest'impostazione, ed ecco il motivo del mio trasloco a Milano. Tv Key: Per molti L'Italia è un territorio emarginato nell'Europa dell'audiovisivo, non teme di aver fatto m una scelta che la mette fuori dalle grandi produzioni continentali? John Attard: Per me è esattamente il contrario. E' vero che l'Italia non è una nazione di punta nel settore, ma sono convinto, anzi convintissimo che quello che stiamo facendo in Chinatown contribuirà a cambiare le cose, a beneficio anche dell'intero settore. Io sono qui per dare il mio contributo per la costruzione di una grande struttura di post-produzione europea per gli effetti speciali. Già oggi abbiamo moltiplicato i lavori internazionali e il nostro metodo di lavoro, non mi stancherò di ripetertelo, ci consente di gareggiare con i più prestigiosi concorrenti europei e di vincere. Tv Key: Intende rinforzare la squadra di Chinatown per aumentare ancora la competitività internazionale? John Attard: Uno degli elementi che mia ha spinto a venire a lavorare in Chinatown è l'elevata competenza dell'attuale staff. Sono rimasto davvero impressionato dalle capacità individuali e dalla lungimiranza del management. Verranno sicuramente inserite nuove figure professionali, ma attualmente Chinatown dispone già di persone estremamente valide, in grado di affrontare qualsiasi progetto, e che lavorano in squadra. Non ci sono prime donne, tutti lavoriamo per un 388 risultato collettivo e questo è fondamentale. Quello che ho trovato in questa struttura è il piacere di lavorare insieme, un elemento vincente per crescere e fare lavori di qualità. Tv Key: Lei ridimensiona molto il valore delle tecnologie, ritenute però un elemento fondamentale in una post-produzione. John Attard: Le tecnologie non sono più un problema. Molti lavori di 3D, anche complessi, possono essere eseguiti da giovani artisti che lavorano a casa nel doposcuola. La potenza degli elaboratori e la familiarità dell'interfaccia macchina hanno reso la tecnologia alla portata di tutti. Questo è un bene, perché la diffusione della Cultura Digitale fa crescere anche la qualità. Chinatown lo ha compreso e oggi punta sulle capacità, sugli artisti digitali e sull'integrazione delle professionalità di altissimo livello che parte della squadra. Tv Key: Non vi sentite solo dei tecnici, magari sofisticati, ma degli artisti, quindi vorrete dire la vostra anche in fatto di creatività ? John Attard: La creatività nel senso di ideazione non è cosa che ci compete. Noi siamo dei creatori, non dei creativi. Anche nel Rinascimento agli artisti veniva detto cosa dovevano dipingere o scolpire. La differenza stava nella qualità del risultato. Noi siamo nella stessa situazione. Possiamo certamente interpretare in diversi modi le richieste dei creativi, ma il nostro compito è soprattutto quello di creare un film armonioso, capace di dare suggestioni, sia che si tratti di un effetto speciale mozzafiato, oppure un super da collocare su una scatola. L'importante è saper usare gli strumenti migliori e fare le cose con passione, insieme a gente capace. Tv Key: Che differenze ha trovato tra l'impostazione anglosassone e quella italiana nella produzione? John Attard: Una cosa che mi ha molto colpito è che talvolta per film in cui sono richiesti interventi di grafica o di effetti anche piuttosto complessi, in Italia non si coinvolge la post-produzione in fase di studio. Mi sono chiesto com'è possibile e le risposte che mi sono state date non mi sono chiare. Io sono abituato a considerare la genesi, la produzione e la finalizzazione di un film come un unico lavoro, in cui entrano con pesi diversi nelle diverse fasi tutte le professionalità coinvolte, con i loro suggerimenti e le loro competenze. Qui mi dicono che le cose sul piano della collaborazione sono molto migliorate, ma io sono comunque rimasto stupito di come sia considerato talvolta secondario il ruolo della post-produzione. 389 In Inghilterra, come negli Stati Uniti, è normale coinvolgere la postproduzione in fase di progettazione del film. Non solo per avere preventivi molto precisi, ma anche per poter beneficiare delle esperienza di chi poi dovrà finalizzare il prodotto. Questo metodo consente molto spesso ai clienti di risparmiare denaro, perché si arriva in post-produzione con tutto il materiale giusto e chi deve mettere mano già lo conosce. Sono ore, addirittura giornate di lavoro risparmiate e di conseguenza c'è più tempo per fare un lavoro migliore. Un altro elemento che mi ha stupito è la grande fretta. In Italia chiedete spesso di lavorare in fretta. Si arriva all'ultimo momento, magari il film è stato girato senza coinvolgere la post-produzione e poi si chiede di fare in 3 giorni un lavoro che, per essere fatto bene, ne richiederebbe, in quelle condizioni, cinque. Se il metodo fosse diverso si potrebbe fare magari in tre giorni e meglio. Tv Key: E quando siete in post-produzione i registi vi ascoltano ? John Attard: Beh, la domanda è curiosa, ma giusta, perché io in effetti ho sempre dato per scontato che il regista quando è in post-produzione collabori in modo completo con chi lavora in 3D, agli effetti speciali, alla grafica. Devo dire che più o meno in questi mesi le mie esperienze sono state tutte positive, però ho sentito anche lo stupore dei miei colleghi che si sentono spesso utilizzati solo come esecutori, come tecnici che muovono le leve delle macchine. Io coi registi italiani mi trovo bene, hanno in genere una elevata sensibilità per le immagini e facilmente si costruiscono insieme tutti gli elementi che danno ancora più valore ed emozioni al loro lavoro. John Attard in Chinatown dall'inizio del 2000. Arriva da Londra dove ha lavorato con Pison, per SWC, The Mill, Rushes, Framework. Oltre ad innumerevoli spot e videoclip prestigiosi, nel suo portfolio, figurano collaborazioni per gli effetti speciali realizzati in film come Lost in Space, Merlin, Batman & Robin. Per le Nazioni Unite ha presentato una relazione sullo stato della computer grafica nel Duemila. 390 FUTURE FILM FESTIVAL Il Future Film Festival è il primo evento italiano dedicato alle produzioni di immagini realizzate con le nuove tecnologie informatiche. Svoltosi l’anno scorso a fine gennaio, il Future Film Festival ha riunito a Bologna alcuni dei più grandi nomi a livello internazionale impegnati sul fronte delle nuove tecnologie digitali per il cinema di animazione. Cinque le giornate in programma, ricche di conferenze, proiezioni in anteprima e presentazioni in esclusiva di altissimo livello tecnico ed artistico, come raramente è possibile trovare nel nostra paese. Merito forse anche della passione e competenza dei giovani organizzatori (validamente supportati dalla Cineteca del Comune di Bologna). Unico neo: la scarsa promozione della rassegna presso media e pubblico. Le proiezioni di anteprime e retrospettive sono state accompagnate da incontri con gli autori, che hanno analizzato la linea di confine che accomuna il digitale all'animazione tout court, dando visibilità a nuove tecnologie oltre che a nuovi prodotti. La manifestazione nasce con l'intento di individuare i percorsi e le sperimentazioni più interessanti all'interno di una produzione in grande espansione. Immagini digitali, personaggi 3D, tecniche di motion capture: sono solo alcune delle nuove soluzioni elaborate dagli Animation Studios che operano nel mercato dell'audiovisivo, e che sull'onda di un grande successo commerciale si stanno impegnando in progetti sempre più ambiziosi. Le cinque giornate di proiezioni e incontri hanno ospitato film e serie tv in anteprima italiana ed europea, con un attenzione particolare ai protagonisti del mondo del digitale e dell'animazione. Tutti gli ospiti presenti al Future Film Festival, durante gli incontri con il pubblico, hanno mostrato materiali inediti e making of tratti dal loro lavoro. Il Future Film Festival, quest’anno è alla sua terza edizione, diventando il punto di riferimento italiano per la riflessione sulle nuove tecnologie dell'animazione, tenendo sempre presenti da un lato le tecnologie in continua trasformazione e dall'altro la creatività e i progetti che gli autori portano all'attenzione del pubblico. Il FFF l’anno scorso, proponendo l’anteprima del nuovo Toy story, ci ha fatto vedere forse il migliore esempio di buon cinema futuristico, niente carta, niente inchiostro e niente matita, solo tasti di computer e comandi. I due episodi di Toy story sono belli e importanti proprio perché raccontano la “storia del gioco” e di conseguenza raccontano un po’ della storia del cinema che è ed è stato sempre un bel gioco, divertente e serio allo stesso tempo, basta guardare con che serietà ed attenzione giocano i bambini. La storia di un gioco, dove prima Woody, il gioco vecchio, ma anche il vecchio cinema, si scontra con Buzz, il 391 gioco nuovo e accantivante, Buzz il cinema del futuro (non a caso i tratti somatici provengono dal viso di John Lasseter). Due giochi e due cinema che si scontrano e alla fine si riconciliano. Nel nuovo episodio, la storia metacinematografica mette in scena l’idea del gioco come oggetto immortale, ma viene anche raccontato il rischio del gioco come sterile oggetto da museo. Suggestioni che appartengono anche al cinema, visto che il digitale permette al cinema di diventare un supporto immortale, ma Lasseter rappresenta anche il rischio che ora il vecchio cinema diventi oggetto da museo. Un film contro la museificazione a favore della fruizione sotto il segno del carpe diem, cogli l’attimo, goditelo finché puoi. Chiudo questa piccola riflessione con un immagine. Alla conferenza stampa Dylan Brown, curatore delle animazioni di Toy story 2, si presenta con un pacchetto di fogli in mano, chiediamo se sono gli schizzi originali dei personaggi. Dylan sorride e srotola questi fogli uniti l’uno all’altro, alla fine quello che compare è una striscia di carta lunga almeno tre metri con scritti lettere e numeri. Dylan sorride ancora e dice: “Questo è Woody”. Un episodio carino, ma riflettendoci un po’ quella striscia di carta fa pensare, in fin dei conti come il “Neo” Keanu Revees abbiamo appena visto la matrice, il “Matrix”, i comandi di una nuova realtà: il cinema digitale. In anteprima lo scorso anno al Future non soltanto quattro episodi inediti dei ragazzini tondi postpeanuts dal colorino marcio e dal linguaggio sboccato, ma soprattutto il lungometraggio South Park: Bigger, Longer e Uncut, futura uscita cinematografica dei personaggi creati da Trey Parker e Matt Stone. In anterprima i pronipoti dei Simpson, non allegrissimi anch'essi, che abitano le navi spaziali di Futurama, nuova serie di Matt Groening. Anche in questo caso sono in arrivo episodi inediti, come pure per l'altra serie Family Guy di Neil Afflek, preceduta a sua volta da una fama di tragicomica irriverenza verso l'istituto familiare. Nella sala del cinema Nosadella, viene proiettato il film di Tim Burton Il mistero di Sleepv Hollow, che è la storia settecentesca del cavaliere decapitato che batte le brughiere tagliando, teste altrui per ritrovare la propria, e il macabro girotondo ha richiesto l'impegno di sofisticate tecnologie animate. E ancora con Principessa Mononoke, vediamo in anteprima la fiaba del maestro dell'animazione giapponese Hayao Miyazaki,. Giapponesi anche le retrospettive, dedicate a Makoto Tezka e a Go Nagai, storico tra gli animatori giapponesi che due decenni fa colonizzarono i pomeriggi dell'Occidente televisivo, padre di Mazinga e Ufo Robot. Go Nagai è stato anche il protagonista di uno dei numerosi incontri e tavole rotonde che hanno costituito la tranche seminariale, con la partecipazione di esperti della lndustrial Light and Magic, della Digital 392 Domani, delle principali firme francesi e inoltre, una sezione speciale per far festa a Bruno Bozzetto. Il Future Film Festival è stato anche l'occasione per una delle prime dimostrazioni nel nostro paese del Cinema Elettronico, cioè delle tecnologie digitali che vanno ad insidiare il dominio della pellicola nella proiezione e distribuzione di film. Electronic Cinema (o cinema digitale) viene definita la possibilità di distribuire e, soprattutto, proiettare opere cinematografiche a partire da supporti e mediante tecniche interamente digitali. La cara, vecchia pellicola 35 mm è destinata ad andare presto in pensione, portando con sé una intera epoca di cinema? Il grande schermo perderà gran parte del proprio fascino (legato proprio alle dimensioni e alla "uniformità" dell'immagine, se confrontata con quella "a punti" dei supporti di natura video) oppure saprà trovare una "seconda giovinezza"? A queste e ad altre intriganti domande ha provato a rispondere Keith Morris - manager della Barco (grande azienda belga produttrice di monitor tv e di apparecchiature per il broadcast). Il quadro internazionale sulla diffusione delle prime realizzazioni di impianti di Cinema Elettronico è abbastanza incoraggiante. Sono già disponibili sul mercato i primi esemplari di proiettori dal cuore interamente digitale in grado di generare immagini di natura video su schermi cinematografici di dimensioni standard con qualità del tutto assimilabile (ed anzi, secondo molti, sensibilmente migliore) a quella ottenuta dai proiettori a 35 mm. Tali nuove macchine trovano naturale collocazione direttamente in cabina di proiezione, grazie a livelli di luminosità che possono superare i 10.000 ANSI Lumen. I prezzi sono inevitabilmente ancora piuttosto elevati ma si può ragionevolmente ritenere che essi scenderanno non appena sarà possibile operare in economie di scala, anche piccole. Da giugno '99 - cioè dalla uscita anche in versione digitale di Star Wars Episode 1 di George Lucas - sono già otto le sale digitali sorte in Usa, ma l'area di sperimentazione sta allargandosi anche all'Europa, dove, ad esempio, la Texas Instruments ha deciso di installare cinque dei suoi nuovi proiettori. Anche Technicolor si è dimostrata interessata, sostenendo il finanziamento di un "digital system provider" in Nord America. Le proiezioni in digitale dei primi tre film disponibili in tale versione (Star Wars, Tarzan e Ideal Husband) sono state considerate ovunque un successo. Particolarmente interessante appare anche la riflessione sui vantaggi che tali meccanismi di distribuzione potrebbero portare. La sola eliminazione della necessità di stampare chilometri di pellicola per garantire l'uscita in contemporanea in centinaia di sale dello stesso titolo consentirebbe enormi risparmi in termini di spazio, di materiali e di spese di trasporto. 393 Tale duplicazione verrebbe sostituita dalla produzione di leggeri, poco ingombranti e resistentissimi dischi ottici (quando non la completa "smaterializzazione" della diffusione stessa, affidata interamente a transponder satellitari). Ma non solo: in caso di distribuzione "satellitare" i gestori di sala cinematografica avrebbero la possibilità di adeguare perfettamente la programmazione di un film all'afflusso giornaliero degli spettatori, senza più preoccuparsi di fare previsioni con largo anticipo. I distributori, dal canto loro, potrebbero sfruttare appieno i successi imprevisti di alcuni titoli, programmandoli "all'istante" in nuove sale secondo le richieste. E' prevedibile che il digitale porterà considerevoli mutamenti anche sul fronte del numero e della natura delle sale. I costi del cinema elettronico, una volta "a regime", saranno realisticamente accessibili anche a piccole sale (150 - 250 posti) di proprietà di comunità o situate in piccoli centri abitati, oggi svantaggiate o escluse dai normali circuiti di distribuzione. La eliminazione del passaggio "obbligato" alla pellicola come unico supporto di visualizzazione in ambito cinematografico (con tutti i costi e le lavorazioni specialistiche che ne conseguono) potrebbe consentire un accesso facilitato e de-strutturato al mezzo da parte di un numero molto più alto di soggetti (anche indipendenti) rispetto a quello attuale. Ciò potrebbe tradursi in una più ampia gamma di scelta per lo spettatore e, soprattutto, nella maggiore visibilità per le opere più innovative e coraggiose (oggi spesso penalizzate a favore di prodotti più sicuri dal punto di vista degli incassi). Un tempo realistico per l'avvio su larga scala del servizio di cinema elettronico può essere stimato in tre - sette anni, ma tutto dipende, come facilmente intuibile, da un lato dagli accordi che le varie industrie coinvolte riusciranno a trovare riguardo agli standard tecnici da adottare e, dall'altro, dalle strategie che Hollywood deciderà di attuare. Forti sono anche le resistenze dei distributori, di molti gestori e di tutto l'indotto che vive sulle lavorazioni in pellicola. In conclusione, appare chiaro che la introduzione della proiezione/distribuzione digitale di film apre un enorme ventaglio di nuove opportunità per un business che ha da "reinventarsi" totalmente. 394 IL CINEMA ITALIANO SCOPRE GLI EFFETTI DIGITALI Nirvana, è il film di Gabriele Salvatores che sembra aver dato il via all'utilizzo dei visual effects nelle produzioni made in Italy. Anche i produttori italiani stanno capendo che la tecnologia digitale non solo aumenta la qualità del prodotto, ma può anche far risparmiare tempo e denaro. Già si parla di "Hollywood sui Navigli" visto che si trovano a Milano la gran parte delle strutture specializzate in effetti digitali. Tra queste, naturalmente, spicca Digitalia Graphics, "la boutique milanese degli effetti speciali" che è stata la protagonista della lavorazione grafica di Nirvana. In realtà, in Italia, la realizzazione di effetti ha ben poco a che fare con la tendenza hollywoodiana del visual effect. Niente situazioni spettacolari, effetti catastrofici, mostri fantastici. L'invisibilità è il punto cardine del visual effect all'italiana. L'effetto speciale è nascosto, quasi impercettibile agli occhi dello spettatore. Un tocco soft, leggero caratterizza il filone dominante dell'effetto speciale nostrano, perfettamente integrato nella scenografia. Evidentemente Digitalia Graphics fa tendenza ed i nuovi lavori acquisiti da Paola Trisoglio e Stefano Marinoni lo confermano. Digitalia vanta la post-produzione di ben 14 film per la distribuzione cinematografica e 15 film per la TV. Per 'Fatima', film per la TV, diretto da Fabrizio Costa, Digitalia ha lavorato per moltiplicare le comparse presenti in una scena di folla. Tramite un sapiente lavoro di sovrapposizione 150 persone sono diventate alcune migliaia. Lo stesso è valso per le situazioni meteorologiche particolari. Gli effetti digitali del film sono un esempio di effettistica invisibile. Oltre agli effetti evidenti, altri interventi di questo film sono di natura sottile e comprendono una serie di arricchimenti alla fotografia, alla scenografia e al racconto stesso. La scena che precede la prima apparizione della Madonna è carica di aspettativa e di tensione, conferita dalla tempesta di fiocchi di pioppo interamente costruita al computer. I fiocchi sono stati realizzati con un sistema di particelle tridimensionali e quindi sovrapposti sul girato. La Madonna è stata girata su uno sfondo blu e il contributo trattato in studio per realizzare l'effetto etereo che avvolge la scena dell’apparizione. Un altro contributo evidente degli effetti speciali la scena che racconta il miracolo del sole. In una giornata buia e piovosa, improvvisamente le nuvole cominciano a rotolare impazzite, liberando un sole pallido che inizia una sorta di danza nel cielo. Questa scena è stata interamente realizzata con tecniche di modellazione ed animazione tridimensionale. Infine vi sono scene in cui l'apporto degli effetti speciali ha snellito il compito della produzione. E' il 395 caso della moltiplicazione delle comparse che, magicamente da 120 sono diventate 6000. Questo è stato possibile girando la scena più volte con il gruppo di comparse ripreso in diverse posizioni; le riprese sono state infine sovrapposte su un unico fondale pulito. Il film per la TV "La Principessa ed il Povero" con Anna Falchi e Lorenzo Crespi come protagonisti. Un film dolce dove chi parla con la luna ha il raro privilegio di sentirsi rispondere. Ma una luna dal viso rotondo e simpatico non è l'unica curiosa stranezza del film. Le persone si smaterializzano, le gocce vengono seguite nella loro caduta con riprese impossibili, le cisterne si crepano ed esplodono. "La principessa e il povero" è stata per Digitalia un'esperienza divertente in cui è stato dato libero sfogo alla fantasia. In questo film il regista Lamberto Bava ha richiesto un'effettistica appariscente, irreale, quasi paradossale. Settantasei sequenze con effetti molto evidenti, come nella migliore tradizione degli effetti fantastici per le favole. La goccia della potente pozione magica del mago cattivo, la nuvola di petali che si stacca magicamente dagli stucchi del soffitto e che avvolge il re e la regina dopo che hanno bevuto la pozione magica, il periscopio del mago cattivo, una via di mezzo tra un telescopio, un periscopio e un televisore, la freccia che viene trasformata dal mago. Sono tutte scene in cui è ben evidente l'apporto degli effetti digitali. Effetti che sono stati realizzati con tecniche di computer grafica in 2D e 3D e, in seguito, inseriti sul girato. ‘Porzus’ è il film di Renzo Martinelli prodotto da Film Maura e presentato a Venezia, racconta la storia vera di due nuclei partigiani antagonisti durante l'ultima guerra e dell'incontro dei loro capi ai giorni nostri. Il film è un continuo flash-back dei due protagonisti che ricordano le vicende del passato. Grazie all'intervento di Digitalia i flash-back sono più verosimili, perché attraverso accurati lavori di morphing le fattezze fisiche dei due protagonisti mutano rapidamente al mutare dell'epoca storica. Spettacolare è la ripresa realizzata in post-produzione di una goccia di sangue che cadendo colpisce la neve. L'elefante bianco fiction tv in onda su Rai Uno rivela le ultime tendenze spirituali della New age: rinascita spiritualità e voglia d’oriente… Anche per questo film (una produzione Anfri firmata dalla regia di Gianfranco Albano) l'apporto di Digitalia si è reso indispensabile, oltre che per piccoli interventi di ritocco, nelle soggettive di alcuni protagonisti e nella realizzazione delle scene in cui convivono la protagonista femminile e il suo doppio maschile. Le soggettive descrivono ciò che appare agli occhi dei fedeli che è, al contrario, precluso alla vista degli increduli. In particolare gli effetti visivi mostrano la trasformazione di pastori tibetani in monaci e di un deserto roccioso nella sede del tempio in cui si trova l'elefante bianco. 396 Questi interventi sono stati ottenuti attraverso lavorazione di compositing. Il compositing è la tecnica usata anche per far convivere nella stessa scena la ragazza e il suo doppio maschile. In questo caso si sono unite due pellicole: quella della scena completa e il contributo della protagonista in veste maschile precedentemente girata su green-back. L'ormai affermato regista Daniele Luchetti si presenta a Venezia con un film che parla della resistenza, o meglio della personale organizzazione della resistenza da parte di un gruppo di giovani amici. "I Piccoli Maestri" è il titolo del film che racconta le vicende della Resistenza in Italia durante la Seconda Guerra Mondiale ed anche per questa pellicola Digitalia ha svolto un lavoro che è prevalentemente di arriccimento scenografico. Gli interventi del computer sono quasi tutti inseriti in modo da risultare completamente invisibili, pur cambiando sostanzialmente alcune ambientazioni. Un esempio degli effetti 'invisibili' realizzati da Digitalia Graphics per questa pellicola è l'arrivo di una colonna di carri armati alleati: mentre nella realtà la colonna era composta da sei carri, il risultato su grande schermo è una carovana di decine di mezzi. La moltiplicazione dei carri armati è stata ottenuta tramite tecniche di animazione tridimensionale e di compositing su girato. Un secondo esempio è la creazione dello strapiombo sottostante i protagonisti che si inerpicano su una parete rocciosa per sfuggire ai loro inseguitori. In realtà gli attori sono stati ripresi mentre scalano una parete a poca distanza dal manto erboso; il prato è stato quindi sostituito da un collage di fotografie di vallate montane scattate in quota da un parapendio. "Radiofreccia" di Luciano Ligabue, popolare cantante al suo esordio come regista, racconta, attraverso la storia di una radio libera, le vite di quattro ragazzi di un paese della bassa padana negli anni '70. Una storia poetica e minimalista che tratta in maniera lieve argomenti poetici e commuoventi. La magia degli effetti digitali ha enfatizzato il lirismo di alcuni momenti del racconto. L'uso delicato del computer è presente negli effetti che sottolineano la sensazione provata da Tito, uno dei personaggi principali, quando, credendo di avere assassinato il padre, cammina al rallentatore sotto i portici e vede la gente intorno a sé sfrecciare a velocità impossibile. Questo effetto è stato realizzato girando separatamente l'azione della gente e quella di Tito; in seguito a trattamenti di 'retiming' (modifica della velocità dell'azione) e di 'motion blur' (effetto scia), i due contributi sono stati compostati ad ottenere il risultato finale. Altro esempio di effetti visivi digitali all'interno del film è la biglia di plastica contenente l'immagine del ciclista Bitossi che, caduta dalla tasca di Freccia durante una rapina, rotola fino ad impallare la macchina da presa, ed introduce il racconto successivo. 397 In questo caso la biglia è stata generata completamente al computer tramite tecniche di modellazione e animazione tridimensionale. "I Piccoli Maestri" di Daniele Luchetti e "Radiofreccia" di Luciano Ligabue sono stati presentati alla Mostra del Cinema di Venezia. Un altro film per la TV, ‘Leo & Beo’: protagonisti Marco Columbro (Leo) ed il suo cane parlante (Beo). Anche questo film utilizza gli effetti speciali per rendere visibile la parte fondamentale della storia: la parlantina del cane. L'Italia, dunque, si sta muovendo, con due punti a proprio favore: grande rapidità nell'esecuzione e basso costo delle lavorazioni. 398 NIRVANA La storia Anno 2005, vigilia di Natale. Nella futuristica città italiana di Agglomerato del Nord cade una neve fitta e leggera, che crea un'atmosfera alla Blade Runner. La trama del film è frutto della sapiente fusione di due storie. La prima, abbastanza semplice, ha per protagonista Jimi (Christopher Lambert), un programmatore di videogiochi distrutto per la perdita della sua amata Lisa (Emmanuelle Seigner), che vediamo apparire soltanto in un lungo monologo davanti ad una telecamera. Jimi ha appena terminato la sua ultima creazione, un videogioco chiamato 'Nirvana', che ha per protagonista Solo (Diego Abatantuono). Jimi è uno dei più quotati creatori di videogiochi e lavora per la Okosama Starr, la multinazionale leader del settore. Proprio per il giorno di Natale è annunciata l'uscita del suo ultimo gioco, Nirvana. Ma Jimi non è felice, la sua vita sembra non avere più senso, la sua anima è malata. E, senza che Jimi lo sappia, anche il computer su cui sta lavorando è malato: un virus elettronico ha fatto impazzire il programma NIRVANA, e Solo, il protagonista del videogioco, ha preso coscienza di essere solo un personaggio virtuale, in un mondo finto, destinato a ripetere per l'eternità le stesse false cose, in quella che è solo l'apparenza di una vita reale. La cosa è naturalmente insopportabile, e Solo chiede a Jimi, il suo creatore, di liberarlo da quell'incubo e di cancellarlo. Forse è proprio quello che Jimi aspettava, forse distruggere quello che si sta facendo è l'unico atto di libertà possibile...Ma la cosa non è così semplice: una copia di NIRVANA è conservata alla banca dati della Okosama Starr. Bisogna entrarci clandestinamente e per far questo Jimi ha bisogno di alleati. Nel quartiere arabo di Agglomerato vive Joystick, un angelo abituato a volare sulla Rete Informatica e a violare le banche dati delle multinazionali. Lisa, quando aveva abbandonato Jimi, era andata a vivere da lui... e così, inconsciamente, inizia il viaggio di Jimi nelle Periferie sulle tracce di Lisa, in compagnia dello stesso Joystick, che si è venduto le cornee sostituendole con due protesi elettroniche che gli consentono di vedere solo in bianco e nero, di Naima, una giovane donna esperta di hardware, che ha perso la memoria e può inserirsi in testa solo ricordi artificiali, e del suo compagno segreto virtuale, Solo, suo vero alter-ego. Meta dell'avventuroso viaggio sono i supercomputer della Okasama Starr, la multinazionale cui Jimi ha venduto alcune copie del videogioco. Salvatores, si sa, è un regista 'irrequieto'. Nei suoi film non si accontenta -per fortuna!- di ricalcare il classico registro adottato da gran parte del cinema italiano, ma cerca quel 399 qualcosa in più che fa la differenza, che rende un film indimenticabile: egli cerca l'espressività immediata, la profondità dei temi trattati. Molto spesso è riuscito nell'intento: i suoi film non sono mai banali, nelle loro trame scorre il germe della vitalità, alimentato dalla linfa della 'contaminazione', parola chiave della sua intera produzione, da intendersi nell'accezione positiva di "disponibilità ad aprirsi alle tendenze del cinema mondiale ed a captarne gli spunti innovativi". Salvatores fonde alcuni aspetti della commedia all'italiana -da cui la sua formazione ed i suoi interessi impediscono il completo distacco- con il mèlo alla francese in Turnè, o con il cinema di guerra in Mediterraneo, ed il risultato è sempre una commedia dal sapore amaro. In Nirvana il leit-motiv della comicità si stempera in una cornice fantascientifica o, meglio, 'psichedelica': Nirvana è un buco nero, un viaggio all'interno della mente, un gorgo di suoni-colori-luci-ricordisensazioni difficilmente esprimibili in modo lineare. Il regista concepisce il film a Benares, in India, sulle rive del Gange: alcuni bambini giocano con un computer nei pressi di un'immagine di Shiva danzante all'interno del ciclo delle reincarnazioni. Il flash è immediato; nella mente prende forma Solo, figlio della tecnologia per caso dotato di una coscienza, che gli fa percepire l'inutile ripetitività del suo ruolo, da cui scaturisce il giusto desiderio di annientarsi in un Nulla altrettanto eterno: il Nirvana, il luogo in cui tutto è niente, il luogo irraggiungibile, è la meta dell'intero genere umano, di cui Solo e gli altri personaggi del film sono metafora nel contempo poetica e ridicola. Tutti i protagonisti infatti vagano affannosamente come formiche in un mondo divenuto ormai un indistricabile groviglio di violenza e tecnologia, ed ognuno di essi ricerca il proprio Nirvana: Jimi cerca Lisa, Solo cerca l'annullamento, Naima i suoi ricordi. Tutti sono in lotta, ed il mondo si configura come un enorme gioco di interessi contrastanti: homo homini lupus, ognuno, per raggiungere i propri obiettivi, deve affrontare nemici, ostacoli, durissime prove, sofferenze: la conquista del Nirvana è un traguardo duro da conquistare ed il cammino è fitto di pericoli. Il messaggio lanciato da Salvatores è dunque profondo. Gli effetti speciali a cui il film ricorre ampiamente sono funzionali all'intendimento di questo, sono un mezzo per trasmettere intense suggestioni allo spettatore pronto a svuotare la mente da ogni pregiudizio pur di recepirle. Il genere americano appare qui contaminato dall'intimismo tipico della tradizione italiana, forse l'unica in grado di alternare dramma e comicità grottesca mantenendo un perfetto equilibrio sul piano dei registri. La scena più pregnante? A mio avviso, quella in cui Solo apre la porta che si affaccia sul desolante panorama dei circuiti del gioco e mostra a Maria (Amanda Sandrelli) tutta l'irrealtà della realtà in cui viviamo. 400 La lavorazione I contributi di scena sono stati realizzati a risoluzione video e ripresi in 35mm da Betacam SP sui monitor di scena. Gli effetti all'interno del gioco sono stati realizzati a qualità video D1; infatti tutte le sequenze del gioco subiscono un particolare trattamento cromatico in fase di telecinema su D1. Le scene con effetti, così come le altre scene, del gioco saranno soggette quindi ad un processo di transfer da D1 a 35 mm. La parte di effetti veri e propri è stata lavorata a risoluzione pellicola (1828X1332 linee - 64 bit di profondità colore). Il negativo originale è stato acquisito in service tramite scanner Cineon Kodak ed archivito in forma digitale su supporto magnetico DLT (digital linear tape). Una volta in Digitalia, vengono estratti i fotogrammi (files) da DLT e realizzati gli effetti; i nastri DLT contenenti i fotogrammi elaborati seguono quindi il procedimento inverso. Tramite questo processo digitale viene interamente preservata la qualità originale della pellicola. Gli interventi di Digitalia Il set di Nirvana è stato allestito all'interno della ex fabbrica Alfa Romeo di Milano, in un'area di circa 140.000 mq dove è stato possibile ricostruire 60 diverse scenografie dei vari quartieri di Agglomerato; fa eccezione Bombay City, per la cui ambientazione sono stati scelti i sotterranei del macello del Comune di Milano. La lavorazione del film, costato circa 17 miliardi -un budget inconsueto per le produzioni italiane-, è durata sette mesi; Digitalia Graphics ha realizzato circa 80 sequenze digitali, per un totale di 10 minuti. Il lavoro di intervento sui fotogrammi è stato realizzato nella sede di Milano, ma l'acquisizione della pellicola su computer e l'incisione del nastro ritoccato su pellicola vergine sono state eseguite dalla Cinesite di Londra utilizzando apparecchi Kodak Cineon. Gli apporti digitali al film sono stati di quattro tipi diversi: Interventi in pre-produzione: sono quelli realizzati in fase di elaborazione del filmato, come ad esempio le simulazioni al computer di alcune scene che avrebbero richiesto un trattamento; contributi grafici di scena: consistono in tutto l'insieme di sequenze che fanno parte del mondo in cui il film è ambientato: videocitofoni, videotelefoni, il gioco di Nirvana ed il suo logo; Effetti speciali all'interno del gioco: All'interno del gioco, gli effetti si fanno volutamente evidenti; i personaggi si sbriciolano e si sciolgono; l'universo in cui vivono Solo e Maria viene rappresentato da una psichedelica e desolata pianura. 401 Effetti speciali invisibili La maggior parte degli effetti veri e propri non sono riconoscibili come tali, le integrazioni alla scenografia ne sono un esempio; i trattamenti di questo genere sono stati principalmente l'aggiunta di neve e fumo, l'inserimento dei maxi-schermi e delle insegne luminose, la simulazione di camera car. Alcuni degli effetti: l'animazione iniziale del cunicolo e i titoli di testa; l'agglomerato sia nel totale dall'alto che visto dalle grandi sopraelevate urbane; il maxi-schermo della dea Kali; la pistola che "spara" marijuana liquida; l'ologramma dell'uomo nudo nel bazaar di marrakech; la condensa sulle lenti di Joystick; la tromba dell'ascensore che scende a Bombay City; l'inserimento del cristallo nella fronte di Naima; la soggettiva a infrarossi del risolutore; l'esplosione della testa del risolutore; la visione di Jimi della rete informatica; la visione di Jimi della directory amministrativa dell'Okosama Star etc. Elenco lavorazioni Cinematografiche Anno Produzione In lavoraz. ORANGO FILM In lavoraz. CATTLEYA In lavoraz. INTEL FILM 2000 COLORADO FILM 2000 FANDANGO 2000 CECCHI GORI 1999 PALOMAR 1999 ITERFILM 1999 1999 1998 1998 1997 1997 411 GLOBE FILMS FANDANGO CECCHI GORI VIDEOMAURA COLORADO FILM Regia Giorgio Serafini Titolo "Texas" “Un'isola nei mari del Marcello Cesena sud” Marco Simon “L'ultimo giorno di Puccioni Impero” Gabriele Salvatores“Denti” “Il Partigiano Guido Chiesa Johnny” “C’era un cinese in Carlo Verdone coma” P. “Tutti gli uomini del Costella/Gialappa’s deficiente” Francesco “Branchie” Martinotti Marco Pozzi “Venti” Fabio Segatori “Terra Bruciata” Luciano Ligabue “Radiofreccia” Daniele Luchetti "I Piccoli Maestri" Renzo Martinelli “Porzus” Gabriele Salvatores"Nirvana" Elenco lavorazioni per la televisione Anno Produzione Regia 402 Titolo In lavoraz. SACHA FILM 2000 PARUS 2000 BEAR FILM 1999 TITANUS 1999 TVMA 1999 TANGRAM FILM 1999 1999 1998 1998 1998 1998 1997 TITANUS REDFILM GROUP ANFRI FILMALPHA TITANUS ANFRI MASTROFILM 1997 ANFRI 1997 LUX VIDE "Il Rumore di un Treno" "Come Quando Mario Monicelli Fuori Piove" Alberto Negrin “Nanà” “Maria figlia del suo Fabrizio Costa figlio” Alfredo Angeli “Giochi Pericolosi” “Una farfalla nel Giuliana Gamba Cuore” Fabrizio Costa “Il Corriere dello Zar” Cinzia TH Torrini “Ombre” Lamberto Bava “Caraibi” Alberto Negrin “Iguardiani del Cielo” Fabrizio Costa “Tristano e Isotta” Gianfranco Albano “L’Elefante Bianco” Rossella Izzo "Leo e Beo" "La Principessa e il Lamberto Bava Povero" Fabrizio Costa "Fatima" Fabrizio Costa 403 PARTE 7: LA RIVOLUZIONE DIGITALE 404 DVB E LA COMPRESSIONE VIDEO DIGITALE L'immagine digitale Digitale significa tradurre l'immagine in numeri: spezzettarla in tante tessere di un mosaico, in tanti pixel (picture element). Ovviamente maggiore è il numero delle tessere, maggiore sarà il dettaglio percepibile. Ogni tessera può essere rappresentata da tre numeri, ognuno dei quali dà il valore di ognuno dei tre colori fondamentali. I numeri non sono quelli in base decimale, che la macchina avrebbe difficoltà a leggere, ma quelli in base 2, formati quindi da un si o un no, uno 0 e un 1. Questa numerazione, detta booleana dal nome del suo inventore, il matematico George Boole (1814-1864), è formata da bit (gli 0 o gli 1) generalmente raccolti in gruppi di 8 bit, gruppi che prendono il nome di byte. Per dare un’idea della potenza di questa matematica, poiché ogni byte può rappresentare un numero che va da 0 a 256, con 3 byte, associati ad ogni pixel, si possono rappresentare 2563=16.777.216 colori e saturazioni di colori, troppi perché l'occhio umano possa percepirli tutti. Trasmettere o registrare dei si o no, degli 0 o dei 1, anziché un segnale variabile con continuità come una curva, è più sicuro. Il segnale che ha solo due livelli è, come si dice, più "robusto". Ma non è il solo vantaggio: avere a che fare con dei numeri anziché con delle curve significa poter intervenire in maniera più semplice e sicura. Facendo un esempio banale, se si sottrae in fotogrammi successivi a tutti i pixel un certo valore si ha uno scurimento generale del quadro. Con i numeri e con le combinazioni di numeri è dunque possibile lavorare sull'immagine in modo da modificarla, migliorarla, sovrapporla o intercalarla con altra immagine. Intervenire, in una parola, con il solo limite della fantasia dell'operatore. Digital Video Broadcasting Lo standard DVB ha riunito in un flusso unico di dati tutto ciò che può trarre vantaggi da un’elevata velocità di trasmissione. Ci troviamo quindi di fronte a segnali video e audio compressi uniti a segnali dati che utilizzano tutti lo stesso mezzo trasmissivo ma che non devono essere obbligatoriamente legati da qualche relazione. Un segnale tv trasformato in formato digitale rappresenta una grande mole di dati da elaborare che va oltre alle capacità degli attuali sistemi di diffusione tra cui i transponder satellitari. Questa enorme quantità di dati per essere sfruttata nelle trasmissioni tv satellite richiede un trattamento di "compressione" che si concretizza nella applicazione dello standard MPEG-2. 405 La digitalizzazione del segnale video ha una storia meno recente di quella del sistema MPEG. Già dal 1982 il CCIR, organo consultivo internazionale che oggi è sostituito dalla sezione raccomandazioni dell’ITU denominata ITU-R, definì le specifiche CCIR 601" Encoding Parameters of Digital Television for Studios". Nell’ultima edizione del 1990, CCIR 601-2, ci sono le basi dell’odierno sistema televisivo digitale e tale specifica è oggi il punto di riferimento costante per chiunque operi nel campo della digitalizzazione video. Le CCIR 601 hanno permesso l’introduzione del video digitale negli studi di produzione televisiva, infatti nel broadcast già da lungo tempo vengono impiegate macchine di registrazione video in formato digitale. Solo successivamente, con il DVB e la compressione video, le tecniche digitali sono state applicate alle trasmissioni televisive ed oggi rappresentano l’evoluzione del sistema televisivo in tutte le sue estensioni: via cavo, via satellite e via terrestre. Il processo di digitalizzazione non è semplice da descrivere a chi non è avvezzo a questioni tecniche. Vengono tirati in ballo concetti e modalità del tutto nuovi che, per la loro comprensione, richiedono buone conoscenze tecniche. Cercherò di semplificare l’argomento "digitale" allo scopo di fornire informazioni essenziali sulle nuove tecniche di digitalizzazione partendo dall’inizio, ovvero dal campionamento del segnale video. Linee TV, pixel e campioni. Un’immagine TV analogica viene normalmente descritta come il risultato di una scansione operata da sinistra verso destra e dall’alto verso il basso. Ogni scansione completa è costituita da 625 linee e viene ripetuta per 25 volte in un secondo così come in una proiezione cinematografica si hanno 25 fotogrammi in un secondo. Le 625 linee tv non vengono impiegate totalmente per descrivere l’immagine. Infatti oltre alle informazioni sul contenuto di luminanza e crominanza dell’immagine sono necessarie altre informazioni per la cui trasmissione richiedono un periodo di pausa di ben 49 linee. Le linee attive dell’immagine sono quindi 576. Nel campo della TV digitale si utilizza invece un altra modalità di descrizione dell’immagine suddividendola in pixel. Per ogni linea tv si considerano quindi 720 pixel pertanto un’intera immagine tv è formata da 720 x 576 pixel. Ad ogni pixel sono associati i valori di luminosità dell’immagine, in gergo luminanza Y, e i valori relativi al colore, in gergo crominanza C. Ogni pixel è quindi costituito da campioni di luminanza e crominanza in numero variabile in funzione del livello qualitativo che si deve ottenere che viene descritto nella raccomandazione CCIR.601. 406 Dall’analogico al digitale 4.2.2 Le specifiche CCIR 601-2 hanno avuto il grande ruolo di normalizzare le condizioni di digitalizzazione del segnale video al fine di facilitare l’interoperabilità tra le macchine e favorire lo scambio dei programmi televisivi. Un’altra specifica, la CCIR 656 ha invece fissato le condizioni d’interfaccia tra i sistemi e le apparecchiature destinate al trattamento dei segnali video digitali. Secondo le CCIR 601-2 il segnale video digitale standardizzato è costituito dai dati relativi al campionamento di tre componenti del segnale video: la componente di luminanza Y e due componenti di differenza colore Cb e Cr. Queste tre componenti vengono campionate al fine di produrre un segnale digitale formato da 864 campioni di luminanza Y e 432 campioni di crominanza per ogni segnale differenza colore Cb e Cr. Questi valori si riferiscono ad un’immagine televisiva completa con 625 linee e 50 quadri. L’immagine reale, come abbiamo visto, invece lascia inutilizzate alcune aree pertanto i campioni realmente utilizzati sono di meno in quanto i pixel utili alla descrizione dell’immagine sono 720 in senso orizzontale e 576 in senso verticale. I campioni di luminanza e crominanza, all’interno dell’immagine vengono suddivisi con una struttura definita in tre possibili formati: 4:2:2, 4:1:1 e 4:2:0. Il formato 4:2:2 è indicato dalla specifica CCIR 601-2 come lo standard di fatto per l’interscambio dei programmi e la diffusione tv. Il formato 4:2:0 è utilizzabile nei contributi mentre il formato 4:1:1 è destinato ad applicazioni di bassa qualità. In un’immagine video trasmessa nel formato 4:2:2, in orizzontale per ogni linea si hanno due campioni di luminanza ogni quattro campioni di luminanza mentre in verticale si ha la successione di linee identiche. Ciò significa che in orizzontale si ha un sottocampionamento mentre in verticale no. Ridurre la quantità di dati Se proviamo a calcolare il "bit rate" necessario alla trasmissione di un segnale video campionato in 4:2:2 a 8 bit avremmo delle amare sorprese in quanto ci troveremmo di fronte ad un bit rate necessario di 216 Mb/s, valore molto elevato. Ovviamente se si escludono le parti non significative dell’immagine ovvero, gli intervalli di cancellazione di linea e di quadro, si può avere un risparmio in termini di bit rate passando da 216 Mbit/s a 166 Mbit/s. Il "bit rate" è in stretta connessione con la larghezza di banda necessaria per eseguire la trasmissione via radio. Pertanto per poter trasmettere un segnale digitale è necessario adattare il bit rate alla larghezza del canale satellitare. Prendendo ad esempio un canale satellitare largo 33 MHz, questo supporta un Symbol Rate di 24,4 Ms/s 407 che equivale, in QPSK, ad un bit rate di 48,8 Mb/s (fuori dalla codifica Reed-Solomon e Convoluzionale). Attualmente viene tollerato un certo degrado di qualità che mantiene il tasso di errori entro valori accettabili, pertanto viene utilizzato frequentemente un Symbol Rate di 27,5 Ms/s il che equivale ad ottenere un bit rate massimo di 55 Mb/s. Tale bit rate viene ridotto impiegando la codifica convoluzionale e quindi si ottengono diversi valori convenienti di bit rate in funzione del FEC impiegato. Con un FEC di 1/2 si ottiene un bit rate di 25,43 Mb/s mentre con un FEC di 7/8 si ottiene un bit rate di 44,35 Mb/s. Attualmente viene largamente impiegato un FEC di 3/4 con il quale si ottiene un bit rate di 38 Mb/s per un canale come quello utilizzato su Hot Bird largo 33 MHz e con un Symbol rate di 27,5 Ms/s. I valori ottenuti sono più favorevoli di quelli indicati dalla norma ETS 300 421 "Digital Broadcasting sistems for television, sound and data services". Nonostante le possibilità del sistema di trasmissione 38 Mb/s sono ancora pochi per supportare la trasmissione di un segnale video digitale. Per questo motivo entra in gioco il sistema di compressione MPEG-2 adottato dal DVB. Utilizzando la compressione si ottiene una forte riduzione della quantità di dati da trasmettere permettendo così di sfruttare un unico canale satellitare per la trasmissione di più programmi televisivi. Basti pensare al fatto che attualmente la migliore qualità di trasmissioni dirette agli utenti richiede un bit rate di circa 8 Mbit/s per ogni programma tv. Pertanto ciò lascia intuire che unendo l’MPEG-2 alle tecniche di multiplazione digitale si possano trasmettere grandi quantità di dati. Ciò è, infatti, quello che accade con le attuali trasmissioni digitali dove su un solo transponder da 33 MHz può trovare spazio la combinazione di programmi aventi anche tra loro un diverso bit rate. Alla base di questo principio sta una importante applicazione, relativa alle tecniche di compressione, attualmente sperimentata dalle trasmissioni RAI. Tali trasmissioni, infatti, utilizzano la tecnica di "compressione dinamica" per mezzo della quale il bit rate dei singoli programmi che condividono lo stesso bouquet non è fisso ma può variare dipendentemente dalle esigenze istantanee di qualità e quindi di bit rate delle singole immagini. Ad esempio: un programma sportivo con immagini in forte movimento può avere a disposizione un bit rate istantaneo elevatissimo sfruttando una maggiore compressione degli altri programmi presenti nello stesso bouquet. MPEG-2, indispensabile per il DVB La televisione digitale DVB (Digital Video Broadcasting) adotta la compressione video chiamata MPEG-2. La sigla MPEG deriva dal nome di un gruppo di lavoro chiamato "Motion Pictures Expert Group" che riunisce esperti internazionali del settore con lo scopo di 408 standardizzare le procedure di compressione per servizi televisivi e multimediali. Si tratta in realtà di un gruppo di lavoro ISO/IEC con la complicata sigla identificativa JTC1/SC29/WG11, che opera congiuntamente al gruppo 15, della sezione telecomunicazioni della ITU, che invece si occupa di codifica video ATM. Il gruppo MPEG collabora anche con la sezione raccomandazioni della ITU, SMPTE e la comunità americana che si occupa di HDTV. MPEG-2 raggruppa le specifiche divenute standard a tutti gli effetti e fissate al 29º meeting ISO/IEC di Singapore nel Novembre 1994. Tali specifiche sono raccolte nel fascicolo ISO/IEC 13813 in tre parti: 13183-1 per il sistema; 13183-2 per il video e 13183-3 per l’audio. Esistono altre specifiche MPEG ovvero: MPEG-1, MPEG-3 e MPEG-4 la prima non è diversa concettualmente da MPEG-2 ma ha caratteristiche inferiori mentre; MPEG-3 è ancora in fase di definizione ed è destinato alle applicazioni per immagini ad alta definizione HDTV; MPEG-4 viene impiegato in applicazioni che utilizzano immagini software a basso bit rate, inferiore a 64 Kb/sec. Il sistema MPEG-1 MPEG-1 è stato introdotto nel 1991 e originariamente è stato ottimizzato per le applicazioni video a basso bit rate con una risoluzione video di 352x240 pixel con 30 fotogrammi al secondo per lo standard tv NTSC oppure di 352x288 pixel con 25 fotogrammi al secondo per lo standard tv PAL. Questi formati sono comunemente definiti come SIF (Source Input Format). MPEG-1 non è strutturalmente limitato a questi formati in quanto può raggiungere ad esempio i 4095x4095 pixel con 60 fotogrammi al secondo ma, nelle applicazioni ha condotto il gioco la velocità di trasmissione e quindi il sistema è stato ottimizzato per un bit rate di 1,5 Mbit/s. Il limite più importante del sistema MPEG-1 è dovuto all’impossibilità di trattare immagini interallacciate come quelle impiegate nel broadcast TV Europeo che richiedono un doppio processo di codifica. Il sistema MPEG-2 MPEG-2 è stato destinato al broadcast televisivo, fin dalla sua introduzione nel 1994. Un’efficiente codifica per il video interallacciato e la scalabilita sono state le caratteristiche che hanno permesso di digitalizzare efficacemente i segnali televisivi. Grazie all’MPEG-2 si ottengono immagini televisive di buona qualità con bit rate compresi tra 4 e 9 Mbit/s MPEG-2 è costituito da "profili" e "livelli". I profili definiscono la modalità di compressione utilizzata e stabiliscono, di fatto, il compromesso tra tasso di compressione e costo del decodificatore. I livelli definiscono la 409 risoluzione d’immagine ed il bit rate massimo da associare ad ogni profilo. Ci sono complessivamente 4 livelli e 5 profili. La combinazione attualmente utilizzata dalle trasmissioni digitali per ricezione diretta impiega il cosiddetto "main level @ main profile" MP@ML. Livelli e profili dell’MPEG-2 Descriviamo sinteticamente le caratteristiche dei livelli e dei profili dell’MPEG-2 che rappresentano la forza del sistema in quanto a flessibilità e adattabilità a varie applicazioni. E’ sorprendente come MPEG-2 riesca a spaziare tra la più bassa risoluzione di immagine SIF fino all’alta definizione HDTV semplicemente variando le associazioni tra livelli e profili. I livelli previsti sono: low (basso), main (principale), high-1440 (alto-1440), high (alto). Il livello "low" corrisponde alla risoluzione più bassa come la SIF utilizzata nell’MPEG-1; il livello "main" corrisponde alla struttura 4: 2:0 fino ad una risoluzione di 720 x 756 pixel; il livello "high-1440" è dedicato alla tv ad alta definizione TVHD mentre il livello "high" è ottimizzato per il formato di schermo 16/9 in alta definizione. La descrizione dei profili è invece un po' meno semplice di quella dei livelli in quanto implica la conoscenza delle metodologie di base con cui opera il sistema MPEG. Il profilo "simple" permette di semplificare notevolmente sia il codificatore di stazione che il decodificatore di utente in quanto non utilizza la predizione di tipo B. Il profilo "main" è quello che offre il miglior compromesso tra qualità e tasso di compressione, impiega le immagini relative alle predizioni I, P, B a svantaggio dei dispositivi di codifica e decodifica che sono più complessi. Il profilo "scalable" è destinato ad applicazioni particolari dove sia necessario ad esempio mantenere la compatibilità tra alta definizione e definizione standard oppure, riuscire ad ottenere una qualità accettabile in condizioni di ricezione difficile come potrebbe accadere ad esempio nella televisione digitale terrestre. Il profilo più elevato "high" è destinato all’alta definizione con le strutture 4:2:0 e 4:2:2. Transpoprt Stream (TS) La trasmissione di programmi e servizi secondo lo standard DVB avviene per mezzo di un flusso di dati chiamato in gergo "Transport Stream" abbreviato TS. Il TS è quindi il segnale che va a modulare in QPSK il trasmettitore di una stazione di uplink per la tv satellite oppure in QAM il trasmettitore di una stazione di testa per tv via cavo. Il TS è il risultato di una 410 multiplazione o, in gergo "Multiplex" di pacchetti di dati elementari chiamati PES "Packetized Elementary Streams" che contengono le informazioni video, audio e dati di un singolo programma con tutti gli elementi per sincronizzare l'audio con il video e per l'eventuale criptaggio. Lo stesso multiplex riceve dati aggiuntivi relativi alla identificazione dei servizi trasmessi SI, al controllo di accesso CA e alla guida elettronica ai programmi EPG. 411 PROIETTORI DIGITALI La convergenza digitale arriverà ben presto anche nella sale cinematografiche. I film in digitale potrebbero essere trasmessi direttamente nelle sale attraverso trasmissioni via cavo o via satellite. Manager e tecnici della Texas Instruments e della Hughes Jvc, hanno fatto un giro per gli studios e sembra siano riusciti a convincere i capi della major: proiettori digitali al posto dei classici 35 millimetri a pellicola. Il "cinema elettronico-digitale" offre enormi vantaggi economici, soprattutto per le grandi case di produzione di Hollywood (le copie delle pellicole chimiche costano molto e un grosso film ne richiede circa cinquemila solo per la distribuzione negli Stati Uniti). Le copie su supporto digitale, invece, hanno costi molto più ridotti e non si consumano né si alterano anche dopo migliaia di proiezioni. Il film verrà ancora girato e montato in 35 millimetri e, in seguito, (tramite una macchina chiamata telecine) sarà possibile creare una copia digitale. Tutte le copie che seguiranno saranno delle repliche perfette (al contrario delle vecchie pellicole che perdevano in qualità dopo le ripetute copie dal master). Nella sale ci sarà sempre un proiettore, un fascio di luce e uno schermo, ma invece di proiettare l'immagine illuminando il nastro in movimento, il nuovo apparecchio elettronico la produrrà decodificando i dati del computer (come avviene con i lettori DVD…). In molte sale, si usa già il suono digitale, che viene sviluppato da otto tracce in contemporanea. Il nuovo sistema le porterà a dodici, il che consentirà più punti di amplificazione. I dati memorizzabili nel proiettore digitale saranno pressoché infiniti, e potranno consentire tecnologie innovative come le poltrone mobili o gli odori in sala. La qualità dell'immagine sarà eccezionale, confrontabile con quella della tv digitale ad alta definizione. La diffusione dei film dal produttore alla sala in questo modo è istantanea, evitando le attese per le sale dei piccoli centri (che spesso devono aspettare settimane per avere la copia). Con il satellite, inoltre, si potranno spedire differenti colonne sonore (il cinema di un quartiere di Roma potrà mandare alle sedici "Ronin" in inglese, alle diciotto in spagnolo). La distribuzione satellitare ha però diversi problemi, su tutti la pirateria. Gli studios già ora perdono cinquemila miliardi di lire l’anno a causa delle copie illegali. Un domani i cyber-ladri potrebbero intercettare il segnale e rubare una copia perfetta dell'ultimo successo americano. Una società americana la Qualcomm, ha assicurato al New York Times di avere già pronto un sistema sofisticato per codificare la trasmissione dei film, impossibile da penetrare. Un altro problema è quello relativo alla gestione della trasmissione. Gli studios e i gestori delle sale temono che il sistema 412 vada in mano ad un solo grande distributore, in grado di imporre i prezzi. 413 Proiettori DLP Digital Light Processor, indica un nuovo chip che costituisce la base dei proiettori digitali. Il microprocessore è interamente coperto da ben un milione e trecentomila mini-specchi che hanno il compito di riflettere ciascuno l'immagine di un singolo pixel. Il computer controlla la formazione dell'immagine che, stavolta, è davvero tutta digitale, con una definizione massima di 1.280 x 1.024 pixel. Il DLP è un sistema di proiezione delle immagini che offre brillanti caratteristiche per Video e per Data. Tutto è basato sullo sviluppo del chip DMD (Digital Micromirror Device), una matrice formata da migliaia di microscopici specchi controllati da una complessa circuitazione e sulla digitalizzazione del fascio luminoso, che attraversa un ingegnoso filtro rotante sincronizzato con il chip DMD. La luce proveniente dalla lampada viene filtrata dal disco rotante che, essendo formato da 3 settori di colore rosso, verde e blu, scompone la luce bianca digitalizzandola. I microspecchi possono oscillare dalla loro posizione di riposo per riflettere la luce. Ogni microspecchio rappresenta un pixel dell'immagine. Sotto ogni specchio è presente una cella di memoria statica ad accesso casuale che ne determina la posizione, utilizzando il sistema binario. Il segnale video è strettamente correlato alla cella di memoria che muoverà lo specchio corrispondente. Grazie al rapidissimo movimento di ogni singolo specchio, l'immagine viene ricomposta in proiezione sullo schermo. I vantaggi della tecnologia DLP derivano dal principio della riflessione della luce che produce una minore perdita rispetto ai filtri del sistema LCD e, fatto non trascurabile, dalla distanza molto ravvicinata (circa un millesimo di millimetro) tra gli specchi, grazie alla quale l'immagine proiettata perde l'effetto reticolo tipico della proiezione a cristalli liquidi. La nuova macchina non userà più la pellicola a 35 millimetri ma nastri magnetici o dischi digitali. 414 LA TELEVISIONE STEREOSCOPICA La scena ha tre dimensioni L’aspetto più travolgente di questa rivoluzione è la rapidità con la quale nascono nuovi prodotti e nuove modalità di fruizione dello schermo televisivo. I sistemi televisivi di nuova concezione hanno un obiettivo molto ambizioso: promuovere lo spettatore ad attore di un teatro virtuale. Ciò sarà possibile con la diffusione della tv tridimensionale, che esce dallo schermo e mediante display "intelligenti" consente un'interattività prima inimmaginabile. Digitale, ad alta definizione, interattiva e tridimensionale. Il paradigma della televisione si è arricchito di un nuovo modo di riprodurre le immagini, proiettate in uno spazio virtuale tridimensionale. Non nel senso convenzionale delle viste prospettiche esaltate da linee di fuga accentuate, contrasti di luci e ombre, colori sfumati, su cui fa leva la computergrafica cosiddetta tridimensionale. Si tratta invece di una vera e propria ricostruzione spaziale delle immagini, che l'osservatore percepisce come materializzate in parte al di qua, in parte al di là dello schermo. Può sorprendere che il principio di base che consente questo prodigio virtuale fosse noto già nel secolo scorso, quando grazie a una prima implementazione con la tecnica fotografica ha prodotto immagini d'epoca tuttora esposte nelle mostre sulla cultura del 3D. La particolarità di tali immagini era duplice, per il fatto di presentarsi in coppie, sempre molto simili, quasi indistinguibili, e per il poter essere riviste "a tre dimensioni" per mezzo di uno speciale visore, lo stereoscopio. La stessa tecnica, detta appunto stereoscopia, è ai giorni nostri oggetto di un interesse rinnovato, con la motivazione ambiziosa di una possibile estensione al campo televisivo. Grazie anche alla crescente disponibilità delle tecniche digitali e multimediali, nell'ultimo decennio la comunità scientifica internazionale ha cominciato a inseguire questo obiettivo con studi sistematici e coordinati: si può anticipare che il passaggio alle immagini elettroniche si è rivelato tutt'altro che immediato, soprattutto per il contenuto di movimento, che introduce nuove questioni nel dominio dei fattori umani studiati dall'ingegneria televisiva. Quale che sia la forma di implementazione (alle due tecniche fotografica e televisiva per completezza dovremmo aggiungerne una terza, quella meno diffusa della cinematografia stereoscopica), si cerca di riprodurre la percezione delle tre dimensioni spaziali mediante l'emulazione del meccanismo della visione naturale, cioè con un approccio binoculare. 415 Ciò si traduce nell'impiego di una coppia di dispositivi di ripresa uguali (fotocamere, cineprese, videocamere), disposti come gli occhi di una persona, cioè distanziati di circa 60-65 mm su una linea orizzontale, e coordinati nel movimento. Inoltre, nel caso di una videocamera stereoscopica i due segnali elettrici devono essere anche allineati a un riferimento temporale comune, cioè la scansione nei due trasduttori di ripresa deve essere cadenzata da un unico segnale di sincronismo. Con questa configurazione i due dispositivi "vedono" una stessa scena da due punti di osservazione distinti, anche se ravvicinati, e perciò generano due immagini (stereo-coppia) diverse, anche se apparentemente simili. Tralasciando i problemi legati al trasporto a distanza di queste informazioni, la restituzione su uno schermo tridimensionale avviene in modo complementare alla ripresa, mediante un’opportuna tecnica di separazione ottica delle due immagini (sinistra e destra). A questo proposito i ricercatori hanno messo a punto una vasta serie di soluzioni, diversificate per tecnologie, complessità e prestazioni, che probabilmente sono destinate a giocare un ruolo chiave negli scenari futuri della televisione tridimensionale. Lo schermo: un componente "passivo". Gli schermi stereoscopici di prima generazione erano composti di due monitor convenzionali disposti ad angolo retto e di uno specchio semitrasparente; le due immagini venivano risolte con l'ausilio di filtri ottici polarizzati, di cui veniva dotato anche l'osservatore (occhiali). Nonostante si tratti di un'aggregazione piuttosto ingombrante di componenti tradizionali per diverse applicazioni televisive, questa soluzione ha mantenuto per decenni il primato della qualità delle immagini, rispetto ai numerosi ritrovati di ben altra complessità tecnologica, portati avanti in nome dell'eliminazione degli occhiali; ancora oggi lo stesso arrangiamento, mutatis mutandis (una coppia di video-proiettori convenzionali convergenti su uno schermo non depolarizzante) viene trasposto con successo ai sistemi di proiezione di immagini 3Dtv destinate a un pubblico più numeroso. Soprattutto in queste ultime applicazioni, gli occhiali polarizzati (trasparenti, leggeri, economici) sembrano un "disagio" ben accettabile, in cambio della rappresentazione tridimensionale di una realtà fantasiosa in cui sembra di essere immersi. Un problema forse più concreto è invece la complessità del display. In questo senso va interpretato il tentativo di riportare le dimensioni dei display stereoscopici a quelle più abituali dei monitor per applicazioni televisive o multimediali mediante la scansione cosiddetta tempo-sequenziale: la filosofia che ispira questa tecnica è di commutare la multiplazione dei 416 segnali dallo spazio al tempo, mediante l'alternanza delle immagini sinistra e destra in un segnale composito. In sincronismo con le immagini che scorrono sul display, gli occhi vengono oscurati alternativamente, per mezzo di opportuni occhiali otturatori ("shutters") attivi; l'assenza di una vera e propria simultaneità delle due immagini tuttavia non preclude la visione stereoscopica, che si verifica ancora una volta per il fenomeno della persistenza delle immagini sulla retina. I metodi per rivedere le immagini 3D senza occhiali speciali si basano sulla separazione ottica al livello dello schermo (detto "autostereoscopico"); nelle realizzazioni più semplici viene sfruttata una tecnologia di deposizione di una schiera di lenti cilindriche, di diametro dell'ordine di grandezza di 1 mm ("pitch" dello schermo). Per poter essere rilette in formato tridimensionale, le immagini devono essere scritte sullo schermo interallacciate pixel a pixel: la separazione ottica delle due immagini avviene a carico delle microlenti. Tuttavia, anche se più evoluti, gli schermi di questa tipologia sono ancora "passivi", cioè incapaci di interagire con l'osservatore. Il display 3D diventa intelligente. Una caratteristica comune ai sistemi stereoscopici descritti è che l'osservatore può vedere la scena riprodotta con l'unica prospettiva trascritta al momento della ripresa, indipendentemente dalla sua posizione rispetto allo schermo. Questa limitazione può essere superata se si incrementa il numero delle immagini riprese simultaneamente (con una schiera di telecamere) e quindi si rende disponibile una molteplicità di prospettive. In questo modo si riesce ad approssimare localmente, per piccoli spostamenti del punto di ripresa, un effetto tridimensionale più naturale. Applicato inizialmente ai display lenticolari, questo principio ha riscosso ampi consensi presso la comunità scientifica internazionale, pur essendo tale implementazione suscettibile di miglioramenti soprattutto nella miniaturizzazione dei relativi componenti. Proprio questo obiettivo ha portato in tempi più recenti al progetto di schermi dotati di dispositivi elettro-ottici in grado di dirigere dinamicamente verso l'osservatore la coppia di immagini più rispondente alla sua posizione. Questo comportamento adattativo viene ottenuto chiudendo il segmento display-utente della classica catena televisiva in un anello controreazionato da un rilevatore automatico della posizione dell'osservatore (la linea di feedback include l'elaborazione in tempo reale dei dati raccolti con un sistema di ripresa telemetrico, naturalmente stereoscopico). Integrato in questo sistema di controllo automatico, il display possiede tutti i requisiti che sono necessari per 417 accedere a forme di interazione più intelligenti, anche al di là del tradizionale ambito televisivo. 418 Verso la multimedialità. Opportunamente accoppiati a tecniche innovative di interazione, gli schermi tridimensionali stanno contribuendo all'implementazione di interfacce d'utente di nuova concezione all'interno delle applicazioni multimediali. Considerando la crescente varietà dell'informazione multimediale, come documenti, archivi audio e video, programmi applicativi, la dimensioneprofondità contribuisce a ricreare una struttura di presentazione dell'informazione più intuitiva e immediata. Sembra, infatti, più naturale organizzare la disposizione e la visualizzazione delle informazioni multimediali con un’interfaccia grafica (Gui, Graphic user interface) che prevede la gestione di modelli spaziali. Tra le soluzioni ancora più avanzate che cominciano ad affacciarsi sul panorama affollato della multimedialità, quella di un Sistema operativo visivo (Vos, Visual operating system) promette un ambiente integrato per gestire interazioni basate su comandi di tipo sia esplicito (lanciati mediante tastiera o dispositivi di puntamento tipo mouse) sia implicito (comunicati mediante il semplice sguardo). Il supporto hardware/software di una piattaforma multimediale dotata di simili automatismi comprende i componenti tipici della televisione stereoscopica: non soltanto lo schermo 3D per la presentazione delle informazioni, ma anche, e questa è la novità più significativa, un sistema di ripresa stereoscopico integrato per il rilevamento automatico della posizione della testa dell'osservatore e della linea del suo sguardo. Questo comporta la possibilità di definire dinamicamente la prospettiva di osservazione, e anche di poter attivare un oggetto sensibile (ad esempio, un documento) semplicemente con lo sguardo. Un'applicazione molto interessante è un lettore di pagine web: in questo caso i collegamenti ipertestuali (hyper-links) vengono attivati semplicemente guardando una parola "sensibilizzata" per un certo lasso di tempo: il documento fissato verrà portato dal sistema in primo piano sullo schermo, mentre gli altri saranno allontanati sullo sfondo. Allo stesso modo, gli altri documenti disposti ovunque nello spazio virtuale potranno essere richiamati e visualizzati semplicemente guardandone l'icona sullo schermo. Realtà virtuale o virtualizzata? Nello scenario della cosiddetta Itc (Information and communications technology), presso la Carnegie Mellon University (Usa) è stata avviata una sperimentazione molto promettente sulla possibilità di coniugare le tecniche di realtà virtuale con la naturalezza delle immagini televisive. Il concetto di realtà virtualizzata nasce nel tentativo di superare due limitazioni connaturate con la televisione tradizionale: l'angolo di ripresa deciso univocamente dal regista e la visione bidimensionale dei (tele) 419 visori attuali. Come la più nota realtà virtuale, anche la realtà virtualizzata riproduce un ambiente virtuale attorno allo spettatore; dove però i due metodi differiscono è nel modo in cui i rispettivi modelli matematici vengono generati: il primo si basa su modelli relativamente semplici e schematici degli oggetti, del tutto sintetici, che si vogliono rappresentare; diversamente il secondo costruisce automaticamente i modelli virtuali a partire dalle riprese del mondo reale, mantenendo tutti i dettagli visibili nelle immagini originali. La realtà virtualizzata realizza un mezzo visivo immersivo che permette all'osservatore di personalizzare dinamicamente una prospettiva secondo le proprie preferenze del momento, come se potesse riprendere la scena (realtà) con una propria telecamera mobile (virtuale), liberamente posizionabile all'interno della scena. La potenza espressiva di un tale mezzo va anche ben al di là delle possibilità effettive di collocare una telecamera reale in una posizione preferita: come si potrebbe collocare una telecamera reale al centro di un campo di calcio, o, come è stato dimostrato, su una palla da baseball che "vede" il battitore dapprima avvicinarsi progressivamente, e poi allontanarsi dopo esserne stata respinta, o ancora nella stessa posizione fisicamente occupata da un chirurgo impegnato in un intervento operatorio destinato anche a essere visto in diretta a fini didattici. Tali questioni trovano una risposta affermativa se affrontate nel dominio virtuale, anzi virtualizzato, con gli strumenti di post-produzione finora riservati esclusivamente alle animazioni di computer-grafica. Europa e Giappone: competizione o cooperazione? In Europa in questo ultimo decennio sono stati attivati alcuni Progetti di ricerca coordinati sulla televisione stereoscopica: il primo è stato avviato nel Programma di ricerca Cost, con l'obiettivo di definire un sistema televisivo che attraverso l'innovazione della tridimensionalità potesse migliorare la qualità delle immagini ad alta definizione. Il Progetto Cost 230 (Stereoscopic television) grazie a una larga partecipazione internazionale ha svolto ricerche fondamentali nelle aree della psico-ottica, delle tecniche di elaborazione dei segnali video e delle tecnologie dei componenti. Tra le funzioni strategiche del Progetto Cost 230 va segnalata quella di avere originato alcuni Progetti di tipo applicativo che, supportati dai Programmi di ricerca europei Race e Acts, hanno potuto sviluppare alcuni argomenti tematici fino all'implementazione. Alcuni fattori, tra cui la molteplicità delle applicazioni suscettibili di un trattamento mediante immagini tridimensionali (applicazioni professionali e di intrattenimento) e la mancanza del primato di qualità di un sistema rispetto a tutti gli altri (sistemi stereoscopici a 420 polarizzazione o autostereoscopici?) frenano le proposte di standard video 3Dtv ancora all'interno dei laboratori di ricerca. In questo scenario l'assenza di un vero e proprio gap tecnologico tra Europa e Giappone (diversamente dalle pregresse esperienze sull'Hdtv) favorisce un clima di crescente cooperazione, in cui sono tutt'altro che rare iniziative di ricerca comuni. Si stima che attualmente in Giappone oltre duecento ricercatori (tra accademia e industria) siano impegnati nelle ricerche sulla 3Dtv, sia nella forma della stereoscopia, sia in quella decisamente più impegnativa dell'olografia. In questo scenario, la produzione 3Dtv è stata prevalentemente orientata alle applicazioni specifiche per gruppi di utenza professionale: telemedicina, chirurgia endoscopica, servizi di teledidattica, videoconferenza, ma anche la manipolazione remota di oggetti in ambienti inaccessibili o ostili mediante robot (come nella recente missione spaziale Usa sul pianeta Marte). Tuttavia, più recentemente anche sul piano dell'intrattenimento televisivo sono stati registrati risultati promettenti, tanto da indurre il Nhk giapponese ad arricchire la proposta dell'home-theatre con la cosiddetta 3D-HDtv, che produce immagini televisive spettacolari, dotate, oltre che di rilievo, dei dettagli propri dell'alta definizione. Il contributo della Fub. La Fondazione Ugo Bordoni, che ha una specifica riconosciuta competenza in questo campo, da anni partecipa attivamente agli studi sul tema della 3Dtv, con particolare attenzione alle tecniche di codifica dei segnali video stereoscopici. L'interesse verso questo tema è motivato dalla duplice finalità di adattare un segnale televisivo stereoscopico al trasporto attraverso i canali di telecomunicazione convenzionali e di memorizzarlo su un supporto di memoria di massa. La ricerca di uno schema di codifica idoneo ad applicazioni di elevata qualità è stato affrontato con l'atteggiamento di generalizzare i sistemi di codifica disponibili per i sistemi video convenzionali, possibilmente mantenendo la compatibilità verso la televisione monoscopica. L'approccio Fub alla compatibilità è articolato su un doppio livello di codifica, realizzata con metodi interamente numerici: compressione dei dati di una delle due immagini con una tecnica convenzionale (canale compatibile), descrizione della seconda immagine mediante le variazioni rispetto alla prima. Su questa piattaforma è stato innestato un codificatore "intelligente" di concezione Fub, in grado di differenziare la qualità degli oggetti all'interno delle singole immagini in funzione del loro "peso" visivo. Anche in questo caso, l'architettura del codec (codificatoredecodificatore) prevede una struttura ad anello chiuso, che include uno stimatore della posizione degli "oggetti" all'interno delle immagini. I 421 blocchi funzionali più critici del sistema sono tuttora oggetto di uno studio di ottimizzazione condotto in collaborazione con il Dipartimento di Informatica e Sistemistica dell'Università degli Studi di Roma "La Sapienza". Una recente attività di sperimentazione sui display ha portato allo sviluppo di un driver per gli schermi tempo-sequenziali, a partire dall'osservazione che la risoluzione verticale in questo tipo di display risulta degradata se viene utilizzato il tipo di interallacciamento usato nella televisione monoscopica. Questo artefatto è stato neutralizzato con una nuova organizzazione dei segnali di sincronismo video, rispondente a un fattore di interallacciamento alternativo. Il recupero completo della risoluzione verticale nelle immagini è stato dimostrato mediante un circuito integrato digitale (processore di sincronismo video) ideato e realizzato all'interno della Fondazione. Si prevede che nel breve termine il dispositivo potrà essere utilizzato nei laboratori degli Istituti di ricerca consorziati con la Fub, naturalmente motivati a privilegiare soluzioni tecnologiche basate su schermi sempre più compatti e luminosi, quali i display stereoscopici a scansione sequenziale. I risultati di queste ricerche vengono regolarmente diffusi nella comunità scientifica internazionale, particolarmente in ambito europeo, dove la Fub ha contribuito fin dal primo momento ai lavori del Progetto Cost 230, di cui ha recentemente assunto il coordinamento. Il Progetto Cost per la stereoscopia ha un numero: 230 I progetti di ricerca Cost (European cooperation in the scientific and technical field) nascono nei primi anni '70 e rappresentano la prima forma di collaborazione scientifica sistematica a livello europeo. La Fondazione Ugo Bordoni che è stata fin dall'inizio uno dei più strenui sostenitori della collaborazione Cost, ha detenuto la Presidenza di più di un quinto dei circa 60 progetti varati nell'area delle telecomunicazioni e rappresenta l'Italia nel Technical committee telecommunications. Il Progetto Cost 230 (Stereoscopic television - standards, technologies and signal processing) è stato avviato nel 1991 con l'obiettivo di coordinare le attività di ricerca e sviluppo in ambito europeo sulle tecnologie dei sistemi televisivi tridimensionali (3Dtv), in particolare stereoscopici. Alla stesura del piano di ricerca (in origine quinquennale, recentemente prolungato di altri due anni) hanno partecipato esperti di Istituti di ricerca di Belgio, Francia, Germania, Italia e Regno Unito, ai quali si sono aggiunti negli anni successivi Grecia, Portogallo e Spagna. Attualmente gli otto paesi membri contribuiscono al progetto con oltre venticinque enti di ricerca. Il progetto si sviluppa in tre filoni principali per ciascuno dei quali opera uno specifico gruppo di lavoro: 422 1) Fattori umani nella 3Dtv: psico-ottica della visione binoculare, grammatica di produzione 3Dtv e metodologie di valutazione della qualità delle immagini 3D. 2) Tecnologie 3Dtv: dispositivi di ripresa, dispositivi di videoregistrazione, schermi stereoscopici con occhiali e schermi autostereoscopici senza occhiali. 3) Elaborazione e trasmissione del segnale 3Dtv: tecniche di codifica di sorgente, interpolazione e sintesi di immagini virtuali. 423 TERZA DIMENSIONE DELL'IMMAGINE! Il suono digitale Due tra i più straordinari cineasti contemporanei, attribuiscono alle immagini, ma soprattutto al sonoro, il merito di inchiodare lo spettatore alla poltrona in balia delle emozioni: George Lucas, sostiene che "Il sonoro di un film è il 50% dello spettacolo"; per il geniale e pluripremiato regista iraniano, Abbas Kiarostami, autore di una cinematografia straordinariamente essenziale, realizzata con pochissimi mezzi tecnici "Il suono è molto importante, più importante dell'immagine... attraverso la ripresa visiva noi arriviamo, al massimo, a ottenere una superficie bidimensionale. Il suono conferisce a questa immagine la profondità, la terza dimensione. È il suono a colmare le lacune dell'immagine". Attualmente nelle sale più attrezzate, si vive un effetto presenza travolgente, tanto da poter dire: "vado a vedere e sentire un film ". L'avvento del sonoro multicanale permette una ricostruzione degli spazi perfetta. Si viene letteralmente bombardati dai suoni e non più solo dagli altoparlanti retro schermo: il sistema Dolby Digital, il più usato attualmente, prevede una sorgente sonora centrale per i dialoghi, un canale destro ed uno sinistro per la colonna sonora ed i rumori, un subwoofer (LFE Low Frequency Effects) per i bassi profondi, tutti posizionati dietro lo schermo, ed un certo numero di altoparlanti "surround", ai lati e dietro lo spettatore, per gli effetti: è la cosiddetta tridimensionalità del suono (i canali surround servono in definitiva a mettere lo spettatore in sala al centro dell'azione). I vantaggi dell’uso del suono digitale nella creazione della dimensione sonora del film sono: Canali Surround Stereo Canale subwoofer dedicato agli effetti di bassi Perfetta separazione del fronte sonoro e grande potenza su tutti i canali utilizzati (fino a 8) Possibilità di creare una perfetta integrazione tra immagini e audio avvolgente. Sistemi audio utilizzati nelle sale cinematografiche Attualmente vengono utilizzati tre sistemi audio cinematografici, tutti digitali, ognuno con le proprie caratteristiche, dalle quali sono derivati i sistemi casalinghi ma con le opportune differenziazioni. Non è facile riconoscere in un cinema quale sistema è utilizzato: solo essendo ascoltatori attenti e esperti è possibile riconoscerne le differenze. 424 Ogni sala cinematografica può scegliere di dotarsi di uno dei tre sistemi, o più di uno, e in base a ciò avrà poi la possibilità di proiettare pellicole codificate con quel sistema. Il sistema di codifica audio è sempre indicato sulle locandine dei film e nelle sale. Il DolbyDigital : è il sistema più diffuso. Il segnale è memorizzato sulla pellicola e il formato è 5.1 canali. Il DTS usa dei CD per la colonna sonora. L'SDDS ha la caratteristica di essere codificato con 7.1 canali (due in più) destinati al canale centro-sinistra e centro-destra. Dolby Digital E’ utilizzato per la prima volta nel film Batman returns. Questo sistema si avvale di 5 audio canali +1: destro, centro, sinistro, surround destro, surround sinistro, e un canale per subwoofer. (Nel diagramma in basso è riportata una configurazione tipica del Dolby Digital in una sala cinematografica) La colonna digitale è incisa sulla parte sinistra della pellicola 35mm, e precisamente fra gli spazi della perforazione, e ciò per poter registrare anche la normale colonna Dolby Stereo, che in tal modo coesiste nello spazio laterale normalmente riservato. La stessa copia può essere così proiettata sia in Dolby Stereo che in Dolby Digital. La separazione fra i canali è di oltre 90dB (prima era di 35dB). Tutto ciò è possibile grazie alla compressione AC-3, studiata dalla Dolby con Pioneer Electronics. I segnali analogici digitalizzati diventano una sequenza di numeri binari. I numeri possono essere manipolati con algoritmi appropriati. Parte del segnale audio al di sotto della curva di percezione, quindi inutile, viene scartato. Tutto ciò per ridurre la massa di informazioni digitali. Quindi le informazione audio compresse, decodificate con un processo inverso, vengono diffuse in sala con la qualità originale. SDDS – Sony Dynamic Digital Saund E’ il formato audio digitale ideato da Sony e basato sul sistema di compressione ATRAC. Un segnale in SDDS contiene sette canali audio +1- sinistra, centro/sinistra, centro, centro destra, destra, surround destro, surround sinistro, e un canale subwoofer per le basse frequenze. Le tracce del suono SDDS corrono lungo le estremità della pellicola 35 mm. Una delle due tracce è di back-up. Le tracce vengono lette con il sistema ottico. Il primo film realizzato con l’ SDDS è stato Last Action Hero del 1993. Il sistema utilizzato per i film della Columbia (Sony) è oggi impiegato nella realizzazione di colonne da tutte le major, inclusa la Universal coproprietaria del sistema DTS. 425 DTS –Digital Theater System: Il primo film realizzato in DTS dalla Universal Pictures, è stato Jurassic Park di Steven Spielberg. Si distingue dagli altri due sistemi, che utilizzano la pellicola come supporto per l’incisione digitale dell’audio, in quanto usa il film unicamente per la trascrizione di un timecode digitale accanto alla colonna analogica. Il timecode serve per sincronizzare con le immagini la lettura della colonna sonora, interamente incisa su COMPACT DISC. La possibilità di avere la colonna su Compact Disc comporta una maggiore quantità di dati sul suono, in quanto la compressione dei segnali è minore rispetto a quella degli altri sistemi. Nel caso la pellicola, per un difetto del supporto o altro motivo tecnico, subisse un salto nel trascinamento all’interno del proiettore il sistema di controllo provvede, al fine di recuperare il sincronismo con il Compact Disc, al passaggio audio sulla colonna analogica Dolby Stereo, per poi riprendere la lettura su CD. Tutto ciò avviene ovviamente senza alcuna percezione da parte dello spettatore poiché si tratta di operazioni nell’ordine di frazioni di secondi. Cinema Dolby Digital EX Questo sistema è stato utilizzato per la prima volta nel film Star Wars:Episode I. Rispetto al Dolby Digital, è stato aggiunto un canale in più, e precisamente il 'centrale posteriore'. Le casse che circondano la sala vengono così divise in tre gruppi e in base alla loro posizione serviranno per il canale posteriore destro, posteriore centrale, posteriore sinistro. Il canale aggiunto rispetto al classico DD non è, a differenza degli altri 6 canali, 'digitale'. E' invece ottenuto tramite una codifica 'matriciale' identica a quella utilizzata per il Prologic. Secondo il creatore di tale sistema (il direttore della Lucas Digital, Gary Rydstrom) questo stratagemma permette di dare effetti di 'fly over and fly around' più accurati e precisi dietro e ai lati degli spettatori. 426 CERTIFICAZIONE DI IMPIANTI E QUALITÁ AUDIO NELLE SALE CINEMATOGRAFICHE Il sistema THX per le sale cinematografiche. Nel 1983 George Lucas decide di creare la società THX ltd al fine di affrontare il problema dell’audio nelle sale cinematografiche di tutto il mondo, e ciò per stabilire dei parametri tecnici validi per le attrezzature utilizzate, la loro installazione, la definizione di impianti e strutture per un ascolto ottimale delle colonne sonore cinematografiche. THX non è, dunque, un sistema di codifica audio, ma una certificazione che garantisce qualità tecniche e acustiche per la diffusione del suono in sala Questo sistema si propone non come un processo di riproduzione alternativo al Dolby Stereo (e alle sue evoluzioni), ma come un insieme di regole e di requisiti ai quali una sala che vuole fregiarsi di questo marchio deve rispondere. La necessità di costruire una sala virtualmente perfetta era stata manifestata da George Lucas. L’ingegnere Tomlinson Holman venne così incaricato di creare nello “Skywalker Ranch”, complesso tecnico costruito dallo stesso Lucas, una sala di proiezione che fosse allo stato dell’arte. Venne poi l’idea di sfruttare commercialmente questo esperimento, visti i risultati entusiasmanti che Holman aveva ottenuto. Nacque così la certificazione THX per le sale cinematografiche. Il nome THX pare sia un acronimo di “Tomlinson Holman Experiment”; altri sostengono che abbia avuto origine dal primo cortometraggio diretto da Lucas dal titolo “THX1138”. Molti erano i problemi che Lucas e il suo staff volevano risolvere. I vecchi sistemi di riproduzione avevano una risposta molto scarsa alle basse frequenze e una forte distorsione a volumi elevati. Inoltre, non era stato risolto il grosso problema della combinazione crossover e dispersione alle medie frequenze. Un altro grosso difetto era che il livello di pressione sonora non era omogeneo in tutta la sala. Il sistema THX si propone di risolvere questi problemi utilizzando woofer con emissione diretta, montati su un baffle esteso e perfettamente piano, trombe a direttività costante per le alte frequenze con driver a compressione migliorati. 427 CSS-Cinema Sound System L’italianissima RCF ha brevettato il suo sistema di alta fedeltà cinematografica, il CCS RCF (Cinema Sound System), richiesto dalla Cecchi Gori Film per attrezzare i suoi cinema: per l'allestimento tecnologico della sala, usa come sorgente il Dolby, il Dts o l'Sdds, ma fornisce amplificatori e diffusori di costruzione propria. CSS è una certificazione di qualità attraverso soluzioni tecniche messe a punto dall’azienda RCF per migliorare la resa sonora nelle sale cinematografiche. Si tratta dell’alternativa italiana al THX, e prevede anch’essa lo studio degli impianti e delle sale, con controllo di tutti i singoli diffusori, dell’amplificazione, dei canali surround. 428 UN PERCORSO IN CERCA DI EFFETTI SPECIALI FRA GLI STRUMENTI DELLA TECNOLOGIA DIGITALE Per riuscire a capire quale dei software in commercio soddisfrerà le molteplici esigenze di una post-produzione, uno dei punti focali è la velocità di elaborazione soprattutto oggi che la risoluzione indipendente permette di lavorare su singoli frame di dimensioni virtualmente illimitate. I protagonisti sono sempre Quantel e Discreet Logic, ma oggi anche Avid sta recuperando un suo ruolo grazie alla politica di acquisizione di marchi prestigiosi del settore. Non sono gli unici, ma forse sono i più dinamici e certamente i più conosciuti. Ciascuna di questa aziende fino a ieri era fortemente caratterizzata. Il dibattito filosofico centrale era tra i sistemi chiusi e quelli aperti, rappresentati rispettivamente proprio da Quantel e Discreet Logic. Poi c'è Avid che ha fatto dell'integrazione tra edit ed effetti il suo cavallo di battaglia. Pur nelle reciproche specializzazioni tutti i produttori stanno cercando di costruire sistemi integrati con le massime possibilità di interscambio. Quantel opta per l'integrazione di Java aprendo il suo sistema ai contributi esterni; Discreet Logic si basa su hardware più dedicato che in passato, Avid incorpora funzioni dei diversi software per offrire la completa interscambiabilità dei file. Ritenere però che dopo i tre grandi il resto non conti sarebbe un errore enorme. Molte aziende oggi stanno costruendo sistemi dedicati, specializzati oppure no, che possono rispondere ad esigenze che vanno dall'effettistica quasi amatoriale fino agli effetti speciali per il cinema. Quantel, società che più di ogni altra ha contribuito alla diffusione degli effetti speciali nel settore televisivo. Le workstation Hal e Henry permettono attraverso l'opzione Transform FX di realizzare spettacolari effetti basati su particelle: esplosioni, immagini che si dissolvono come granelli di sabbia in una tempesta e così via. Questi nuovi effetti si vanno ad aggiungere alla già ricca dotazione di base di Hal che offre anche tutte le funzionalità di una Paintbox Bravo, l'evoluzione della classica Paintbox che permette di utilizzare pennelli di qualsiasi forma e contenuto. Henry, l'editor per gli effetti continua a essere la macchina di punta di Quantel e combina alle funzionalità di effettistica quelle di un sistema di compositing in grado di trattare fino a 8 layer in tempo reale. Soluzioni di pari livello sono quelle proposte da Discreet Logic (Video Progetti), tutte basate su workstation Silicon Graphics (SGI). Inferno, utlizzato per produzioni cinematografiche di alto livello; Flame, precedentemente disponibile solo su Onyx, può ora essere utilizzato anche sulle più "economiche" Octane mentre il fratello minore, Flint, è proposto insieme alla versione per O2, la personal workstation di SGI. La differenza principale fra i due sistemi consiste nella velocità di 429 elaborazione mentre entrambi permettono di lavorare su immagini in formato televisivo o cinematografico. Stesso hardware anche per Media Illusion di Avid, un pacchetto nato dall'integrazione del software di compositing Matador con Elastic Reality, uno dei più apprezzati software per la creazione di effetti morphing. Media Illusion consente l'acquisizione e il riversamento del video in tempo reale e supporta moduli aggiuntivi che permettono di estendere la gamma degli effetti disponibili. Infine, workstation SGI Octane e O2 anche per Jaleo di Comunicacion Integral (Gruppo TNT), un software di montaggio non lineare che mette però a disposizione tutta una serie di effetti speciali, da quelli classici in stile DVE fino al morphing. Un gradino più sotto troviamo poi i prodotti destinati a funzionare su personal computer. La qualità dei risultati ottenibili con questi è difficilmente distinguibile da quella tipica di sistemi ben più costosi, almeno in alcuni casi. Le grosse differenze sono però il livello di interazione con l'operatore e i tempi di esecuzione che difficilmente si conciliano con le stringenti esigenze di una post-produzione. Illuminaire della Denim Software (Video Progetti) è un pacchetto composto da un modulo di painting e da uno di compositing e può essere utilizzato su computer Macintosh o Windows. Il modulo di paint non si limita alla semplice applicazione di effetti pittorici, ma consente di animare tutte le funzioni. Molti dei filtri possono essere applicati con l'uso di pennelli la cui forma e il grado di trasparenza sono facilmente controllabili. Il modulo di compositing svolge in pratica le funzioni di un DVE 3D con prospettiva reale, controllo delle ombre e effetti di rifrazione. Edit Discreet Logic è una completa suite di editing non-lineare real-time che implementa al suo interno strumenti avanzatissimi di multi-layering e compositing assolutamente indispensabili per i vostri effetti speciali. Sfruttando la potenzialità della piattaforma Windows NT Edit può plasmarsi secondo le vostre esigenze "trasformandosi" da una stazione di produzione stan-alone ad una potentissima suite di finishing on-line. Paint Discreet Logic è la soluzione di object oriented animation basata sulla gestione vettoriale di file fissi o sequenze su piattaforma MAC, Windows 95 e Windows NT. Paint può essere utilizzato come applicazione stand-alone o come complemento di Edit, Effect e 3D Studio Max per applicazioni video, web, animazioni e multimedia favorendo risultati artistici eccellenti ed innovativi. Effect Discreet Logic è un vero compositing 3D che fornisce clip animation e permette di combinare a perfezione effetti speciali ed artistici, migliora e modifica frame video o sequenze di frame, con un livello di efficienza ed interattività mai raggiunti prima su di un sistema "desktop". 430 Anche Combustion Discreet Logic fornisce un potente strumento di produzione per la grafica, l'animazione, il compositing ed il rendering di effetti speciali. Adobe After Effects (Gruppo TNT) è quello che ha ottenendo i maggiori consensi ed è stato utilizzato anche per produzioni cinematografiche. Questo software è disponibile sia per piattaforma Macintosh che Windows e permette di combinare immagini fisse e sequenze video sfruttando tutta una serie di effetti in 2D e 3D. A ciascun elemento può essere associato un numero illimitato di filtri di elaborazione delle immagini e il programma supporta sia la risoluzione standard D1 del video Pal, sia risoluzioni cinematografiche. Altri effetti possono essere aggiunti con pacchetti come Boris Effects (Tempestini Video) che è utilizzabile anche con numerosi software di montaggio non-lineare, come Avid MCXPress e Media Composer, Adobe Premiere, Fast blue, Media 100 e così via. La maggior parte di questi incorpora comunque un certo numero di filtri, in alcuni casi anche piuttosto sofisticati, che possono essere utilizzati per la creazione di interessanti effetti di elaborazione pittorica delle immagini piuttosto che i classici effetti DVE, dal picture in picture al voltapagina. Il problema della lentezza di esecuzione tipico delle soluzioni basate su personal computer può essere risolto ricorrendo a schede in grado di accelerare i tempi di esecuzione e, in alcuni casi, lavorare in tempo reale. E' questo il caso di prodotti come Genie di Pinnacle - e l'equivalente Gaudi per Media 100 - o DveousFX di Scitex Digital Video (Video System) utilizzabile con tutti i sistemi di montaggio nonlineare della linea Sphere. DveousFX utilizza tecnologie sviluppate da Abekas per il Dveous, uno dei pochi DVE "puri", nel senso che possono essere utilizzati senza l'ausilio di un computer. Altre macchine di questo tipo sono il Magic DaVE di Snell & Wilcox (Video Progetti) e il DME-7000 di Sony. Quest'ultimo fa parte dell'equipaggiamento dell'Unità 18 di Telerecord, parcheggiata proprio di fronte ai padiglioni della mostra. I DVE "puri" sono, infatti, ancora insostituibili in produzione dove è indispensabile l'immediatezza dei risultati che sono in grado di garantire solo queste macchine mentre per la post-produzione la tendenza è quella di utilizzare strumenti più flessibili, che non siano cioè limitati a un numero di effetti che, per quanto grande sia, è pur sempre limitato. Fin qui ci siamo occupati di soluzioni che possono essere considerate estensioni dei classici DVE. I programmi di animazione 3D sono però entrati a far parte della dotazione standard di qualsiasi post-produzione che si rispetti e con questi è possibile realizzare effetti davvero speciali. Senza andare a scomodare i dinosauri di Jurassic Park, con programmi come questi si possono creare flaconi che danzano piuttosto che ambienti altrimenti troppo costosi da realizzare scenograficamente. 431 Il prodotto più innovativo in questo campo è Maya di Alias/Wavefront, presentato ufficialmente per la prima volta in Italia nel 1997 in occasione della fiera dell’IBTS. Maya rappresenta un notevole passo in avanti nell'animazione tridimensionale per l'elevato grado di interattività possibile, sia per quanto riguarda l'animazione dei modelli, sia per la gestione delle luci piuttosto che delle particelle. Questo software è disponibile sia su workstation SGI, che sulle piattaforma Windows NT. Altro prodotto per l’animazione tridimensionale è 3D Studio MAX di Kinetix che, grazie ai notevoli miglioramenti apportati, è ora in grado di competere alla pari con prodotti già affermati nel settore degli effetti speciali per la televisione e il cinema. LightWave 3D di Newtek ha costantemente dominato i mercati televisivo e cinematografico, nonché il mercato per lo sviluppo dei giochi. Progettato per l'uso produttivo, LightWave 3D vanta il migliore motore di calcolo del settore, una completa suddivisione di modellazione, ed il sistema più veloce e più accurato di animazione 3D del mondo basato sul motore di Cinematica Inversa (IK). Ultimo, ma certamente non ultimo, Softimage 3D di Avid E' il prodotto più venduto della famiglia 3D. I tools di modellazione, animazione e rendering permettono di realizzare qualsiasi contributo 3D nell'ambito Entertaiment, architettonico, design e aziendale. E' da anni il prodotto di riferimento per tutti coloro che devono realizzare animazioni di alta qualità come spot pubblicitari, contributi 3D per la cinematografia e video professionali per l'industria e le corporate. 432 CONCLUSIONI Il futuro del Cinema Mentre fino a ieri le immagini proposte dal cinema avevano una garanzia di realtà, nel senso che gli eventi proposti dallo schermo, anche per film fantastici, si erano sicuramente verificati davanti alla macchina da presa, oggi le nuove tecnologie consentono di far apparire sullo schermo personaggi, animali o oggetti che in realtà non esistono. La tecnologia digitale e la realtà virtuale stanno dando dunque vita ad una quarta dimensione dell'immaginario audiovisivo, caratterizzata dal totale superamento della realtà fisica. Film come Toy Story, interamente "girato" in digitale, dove l'immagine di sintesi non si limita ad integrare o correggere la realtà, ma la rimpiazza completamente, danno forse l'idea di cosa significherà fare cinema nei prossimi decenni. Le nuove tecnologie audiovisive e l'immagine elettronica in particolare saranno nei prossimi anni sempre più al centro dell'impegno produttivo di un'opera cinematografica, non solo come sistemi per la realizzazione del film, ma anche come generatrici di nuovi meccanismi di fruizione del prodotto, basti pensare che si stanno studiando soluzioni per sostituire gli schermi a cristalli liquidi con microscanner laser che disegnano direttamente le immagini sulla retina. Si tentano inoltre nuove strade verso la realizzazione di film interattivi attraverso l'uso di cd-rom; i game-designer si stanno, infatti, impegnando per creare trame che diano l'illusione di essere proiettati all'interno di una pellicola, con la possibilità di decidere e quindi modificare lo sviluppo delle sequenze vissute. Non si tratta già più, dunque, di produrre solo effetti speciali; la partita si gioca piuttosto sul terreno della ricerca e della capacità del cinema di seguire in prima persona le tappe dell'evoluzione elettronica. Lo sviluppo delle reti a banda larga avrà un ruolo determinante. Permetterà scambi e alleanze tra studi, maggiore economicità di tempi e di risorse, una diffusione più capillare. I personal media saranno lo strumento di una generazione di autori che vogliono controllare il processo creativo e bypassare persino il circuito commerciale. Per capire fino in fondo il fenomeno bisogna tenere d’occhio l’attività dei "dot-com". Molte compagnie come Atomfilm, Ifilm, FilmFilm, scovano attraverso la rete novità e talenti prima ancora che questi si affaccino nei vari festival, offrono biografie aggiornate, spazi di comunicazione, incoraggiano la produzione. Questi siti costituiscono ormai, un microcinema, come è stato battezzato dall’omonima società on line, un circuito alternativo per la visione di "corti" che secondo la rivista "Yahoo! Internet Life" sono più di 433 centomila all’anno regolarmente trascurati dalla distribuzione nelle sale. Ma sono anche l’anticamera del successo, visto che sono frequentati da produttori a caccia di novità. Nessuno può dire oggi se a caratterizzare il cinema del duemila saranno soltanto le immagini digitali con tutti i possibili effetti creati al computer oppure la contaminazione tra vecchio e nuovo nel segno d'una illuminata continuità dello specifico filmico evolutosi nel primo secolo di crescita. Certo, il nuovo concetto di realtà che è possibile generare con le immagini virtuali influenzerà sempre più le soluzioni registiche e gli stili interpretativi con un'offerta di libertà estesa dalle dimensioni degli schermi fino, alle più diverse percezioni sensoriali. L’universo multimediale e digitale, con tutte le sue risorse capaci di rinnovare e centuplicare il senso di meraviglia dello spettatore, sembra fatto apposta per esaltare la più antica prerogativa del cinema - quella, appunto, del potere ammaliatore di ciò che fluisce sullo schermo. 434 IL CINEMA E IL SUO VOCABOLARIO Academy Award: Premio Oscar assegnato ogni anno dall'Academy of Motion Picture Arts and Sciences (Associazione Americana dei Produttori e Cineasti). È l'unico premio che viene assegnato anche alle singole fasi della lavorazione. Acetate: Acetato (o Cel, se riferito all’uso della celluloide,). Foglio di plastica trasparente usato nelle tradizionali tecniche d’animazione e nella grafica da proiezione Action Line: Linea del movimento (vedi Motion Path). A.G.I.S.: Associazione Generale Italiana dello Spettacolo. Riunisce i gestori di tutte quelle aziende che si occupano dello spettacolo in generale: cinema teatro, circo ecc. Aim Point: Punto di mira, puntamento dell’asse ottico della MdP (vedi anche Camera Target). Aiuto assistente operatore: tuttofare dell'operatore. Si occupa della manutenzione della macchina da presa e di altri lavori come il trasporto delle bobine. Aiuto regista: si occupa di coordinare la regia con la troupe e il cast. Algoritmo: Procedura analitica rigorosamente sequenziale per risolvere “passo per passo” un qualunque problema che sia riducibile nei termini di un sistema simbolico (logico-matematico), ovviamente composto da elementi discreti dotati di significato univoco. Si tratta dunque di quel particolare modo di scomporre cartesianamente anche i problemi più complessi al fine di ricondurli a stringhe di operazioni elementari (facilmente traducibili in termini digitali, ovvero di alternative binarie), quindi del metodo che è ancora alla base delle attuali tecniche di programmazione informatica. Alpha Channel: Nel trattamento delle immagini digitali indica il canale utilizzato per veicolare le informazioni relative alla mascheratura zonale, ovvero allo “scontornamento” di certe zone del quadro al fine di ottenere un ritaglio utilizzabile per ulteriori operazioni compositive (vedi anche Cutout, Matte, Mask, Stencil). A.N.A.C.: Associazione Nazionale Autori Cinematografici. Anamorfico: tecnologia cinematografica capace, per mezzo di lenti montate sulla macchina da presa con caratteristiche "anamorfiche", di schiacciare l'immagine sul negativo distorcendola e comprimendola. In fase di proiezione, un altro sistema di lenti simili, provvede a riportare l'immagine alla proporzione desiderata per essere proiettata sullo schermo in formato Cinemascope/Panavision. Angle: Angolo di campo di un obiettivo (Field of View). Nel cinema si assume ad esempio un angolo di 30 gradi come riferibile ad una “focale normale”. A.N.I.C.A.: Associazione Nazionale Industrie Cinematografiche e Affini. 435 A.N.S.I.: (ex A.S.A.) American National Standard Istitute; è un ente che ha definito delle norme accettate internazionalmente da tutto il mondo della cinematografia. Anteprima: Pre-visualizzazione (vedi Preview) di una sequenza d’animazione che consente il controllo anticipato del risultato di massima (seppure a più bassa definizione) prima di procedere al “processamento” definitivo della stessa. Assolvenza: Apparizione graduale dell’immagine sullo schermo a partire da uno sfondo omogeneo (ad es. fondo nero; vedi Fade-In). Aspect Ratio: Rapporto tra la base e l’altezza dello schermo TV (4 : 3). Art Director: scenografo, lavora in sintonia con il regista; è responsabile della progettazione e della realizzazione delle scenografie; dirige le maestranze addette alle costruzioni. A.S.C.: (American Society of Cinematographers); associazione dei direttori della fotografia americani. Assistente alla produzione: coordina molte attività inerenti le riprese, dall'organizzazione dei viaggi, orari ecc. Assistente alla regia: collaboratore dell'aiuto regista. Attrezzista: responsabile di tutti gli oggetti presenti sulla scena. AVID: marchio di fabbrica che costruisce attrezzature per il montaggio. Axis of Motion: Asse del movimento, ovvero la linea immaginaria lungo la quale un oggetto si muove nello spazio (talora definibile come il principale vettore risultante dalle diverse componenti parziali di un fenomeno cinetico complesso). Background: Fondino su cui, ad esempio, è possibile inserire dei titoli. Si tratta dunque del piano (con tutti gli eventuali attributi di forma, colore, texture ecc.) che fa da sfondo o scenario principale ad una composizione grafica concepita su più livelli sovrapposti. E come tale rappresenta quindi l’elemento da inserire per primo nello schermo del computer quando si procede, come in genere accade, per stratificazione di piani e giustapposizione di ritagli. Si parla anche di lavoro in background quando una funzione occupa solo una parte della RAM del computer e si può pertanto lanciare un’altra funzione in foreground. Bevel: Particolari rastremature o smussature degli spigoli di un oggetto tridimensionale, predisposte ad esempio per rendere più variegati gli effetti di luce sui caratteri che compongono un logo in 3D. Bitmap: Immagine Raster, ovvero composta da una mappa di bit o matrice di punti (vedi anche Pixel) B.S.C.: (British Society of Cinematographers); associazione dei direttori della fotografia inglesi. Bounding Box: Visione semplificata per grossi blocchi scatolari di un oggetto 3D utilizzata, talora in alternativa al Wireframe, soprattutto al fine di percepire più chiaramente l’orientamento nello spazio di forme complesse (ad esempio quelle di un corpo umano), nonché per rendere più veloce l’interazione durante il preview. 436 Bump Map: Superficie composta da aree più o meno irregolari definite da scale di grigi che simulano, come in una carta da parati, i rilievi di una texture nel rivestimento bidimensionale di un oggetto 3D. Camera Target (Interest): Il centro di mira o “bersaglio” verso cui è puntato l’asse ottico della camera (vedi anche Aim Point). Campo: insieme al piano è una distanza cinematografica. Generalmente si parla di campoquando la distanza è in rapporto con l'ambiente, e di piano quando la distanza cinematografica è in rapporto con la persona. Campo medio: inquadratura di un'intera azione dove l'ambiente è ben visibile e relazionato. Campo lungo: inquadratura in esterni a larga visuale, dove però si nota un centro narrarivo. Cast: c'è quello "artistico" (regista, sceneggiatore, attori) e quello "tecnico" (montatore, direttore della fotografia, fonico, ecc.). Carrellata: ripresa dal carrello in movimento. Carrello: veicolo su ruote che alloggia la macchina da presa. Center of the World: Nel modello digitale di un qualunque spazio 3D simulato al computer, ovvero sempre riferibile con precisione ad un sistema di assi cartesiani (X,Y,Z), il “centro del mondo” (il punto di riferimento per ogni operazione di orientamento e dimensionamento numerico delle entità geometriche) tende ovviamente a coincidere per convenzione con le coordinate del punto di origine in cui tali assi s’intersecano (0,0,0). Characters Generator: Generatore di caratteri alfanumerici, titolatrice elettronica usata nella lavorazione di un prodotto televisivo. Prende talora il nome corrente della marca o del tipo (es. Aston, Cypher, Chyron ecc.). Chroma-Key: Chiave cromatica. Intarsio (ottenibile già in fase di ripresa) di un segnale video in un altro, utilizzando appunto come chiave un colore determinato (uno dei tre colori primari, in genere il blu o il verde). Ciak: Tavoletta nera con strisce bianche che nel suo lato inferiore è munita di un’asta mobile incernierata, in grado cioè di ruotare e di produrre un rumore tipico (un ciak, appunto). Simile ad una piccola lavagna, su di essa viene infatti scritto in bianco il titolo del film, il nome del regista e dell’operatore, nonché il numero d’ordine della ripresa. Sul negativo del film i rapporti tra bianchi e neri ovviamente s’invertono, e ciò facilita la lettura delle scritte anche qualora l’esposizione o lo sviluppo della pellicola non risultino perfette. Tale strumento viene usato all’inizio di ogni ripresa cinematografica per facilitare le successive operazioni di montaggio. Il rumore del ciak serve inoltre come segnale di riferimento per sincronizzare l’immagine con il sonoro. Cinemascope: sistema di ripresa/proiezione a schermo largo brevettato dalla Twenty Century Fox. 437 Cinerama: sofisticato sistema di ripresa/proiezione a grande schermo con tre macchine da presa sincronizzate capaci di coprire insieme un angolo visivo molto ampio. In sala proiezione vengono utilizzati tre proiettori anch'essi sincronizzati ed uno schermo gigante. Clipping Plane: Piano ortogonale all’asse visivo che delimita i bordi dello spazio cartesiano di riferimento. Close-Up: In una ripresa indica la visione in dettaglio di un oggetto. Collision Detection: Gli oggetti virtuali normalmente si compenetrano l’uno nell’altro se non viene impostato manualmente un valore limite del movimento in corrispondenza dei punti di collisione. Ma nei modelli di simulazione dinamica (vedi Dynamic Simulation) può essere invece prevista una funzione che rende automatico questo “rilevamento di collisione”. Colonna sonora: registrazione sonora di dialoghi, musiche ed effetti miscelati insieme. Colossal: film nel quale predominano le masse popolari e le ricostruzioni solitamente storico-avventurose. Constrain: Costrizione, impedimento che può essere attribuito intenzionalmente ad una qualunque entità geometrica al fine di vincolare il movimento, la rotazione o il cambio di scala di un oggetto virtuale rispetto ad una o più direttrici spaziali. Crossfade: Dissolvenza incrociata (DX) tra due inquadrature. Nel linguaggio del cinema indica in genere un passaggio di tempo. Cortometraggio: per la legge italiana un film di lunghezza non inferiore a 290 metri e non superiore a 1.500 metri di pellicola. Cursore: l’elemento segnaletico che sullo schermo del computer consente di seguire con lo sguardo le azioni svolte dall’operatore all’interno di una interfaccia grafica, ovvero di localizzare con precisione e in tempo reale la posizione assunta di volta in volta, per così dire, dal nostro “agente virtuale” nel quadro dei comandi previsti dal programma in uso. Consiste in genere in un puntatore a forma di freccia, di croce o di barretta mobile, ma può assumere le più diverse forme in base alle varie funzioni utilizzabili (pennello, matita, orologio ecc.). Cut: Taglio. Comando impartito dal regista per interrompere una ripresa (Action). Indica dunque uno “stop”. Cutout: Ritaglio, ovvero elemento grafico che può essere ottenuto, ad esempio, mediante lo scontornamento e il taglio di una figura prelevata dal quadro complessivo di una data immagine (vedi Picture) in vista di eventuali operazioni compositive di sovrapposizione o accostamento tra più figure e relativo incollaggio delle stesse (vedi Pasteup) Daylight: Luce diurna (termine riferito all’uso della luce solare in una ripresa fotografica). Découpage: divisioni in blocchi del film; è una fase della sceneggiatura Depth Cue: Effetto atmosferico che riduce gradualmente la visibilità degli oggetti lontani (nebbia, smog, foschia ecc.) 438 Dialoghista: nel doppiaggio è l'adattatore del testo, ricopre il ruolo di garante del rispetto dell'originale adattandolo ai movimenti della bocca dell'attore in video, ma anche alle consuetudini e alle peculiarità linguistiche. Digital sound: suono digitale. Dissolve: Transizione graduale ottenuta modificando la luminosità dell’immagine (vedi Fade to Black e Fade-Out). Si ottiene ad esempio utilizzando un’ apposita barra del Mixer. DLS: Digital Library System. Archivio digitale d’immagini usato nella documentazione televisiva. Distant Light: Luce direzionale che si suppone distante rispetto al soggetto principale, ovvero composta da raggi paralleli (simile, in questo, alla luce solare diretta) in quanto posta teoricamente “all’infinito” anche qualora non venga intesa né come luce principale, né come una rappresentazione del Sole (cioè non venga resa visibile, in termini naturalistici, come una effettiva sorgente luminosa appartenente all’orizzonte prospettico della scena). Distanza cinematografica: distanza apparente tra il pubblico ed il centro d'azione della ripresa. Si divide in campi quando la distanza è in rapporto con l'ambiente, e in piani quando è in rapporto con la persona. Dolly: (Altalena, leva, bilancia). Speciale “carrello” di ripresa con braccio elevatore che consente di muovere la camera anche lungo l’asse verticale. DPI: (Dots per Inch), risoluzione espressa nel numero massimo di dots (punti/immagine) che è possibile ottenere per ogni inch (1 inch = 2,54 cm) ad esempio nella stampa su carta di un documento digitale. Dynamic Simulation: Simulazione di fenomeni fisici, ovvero delle forze locali o globali che agiscono sugli oggetti: gravità, inerzia, attrito, torsioni ecc., con la possibilità di regolarne parametri quali l’intensità o la direzione. Direttore di doppiaggio: il garante dell'interpretazione durante le fasi del doppiaggio. Direttore del cast: si occupa di trovare gli attori più adatti ai vari ruoli che successivamente verranno presentati al regista che farà la scelta definitiva. Direttore della fotografia: responsabile tecnico artistico della fotografia di un film. Si occupa di tutto ciò che riguardano le inquadrature e le luci; sceglie e dirige le maestranze che rientrano nelle sue competenze. Direttore di produzione: responsabile dell'aspetto amministrativoproduttivo del film, ogni cosa che attiene all'organizzazione passa sotto il suo diretto controllo. Dissolvenza: progressivo schiarirsi o scurirsi di un inquadratura. Dissolvenza incrociata: tecnica per la quale due inquadrature in sequenza si mischiano tra di loro in modo graduale. Dolby Digital: sistema di riproduzione audio digitale a 5.1 canali, brevettato dalla Dolby Labs. 439 Dolby Labs: marchio di fabbrica che produce tecnologie sonore. Dolby Stereo SR: Dolby Stereo Spectral Recording: sistema di riproduzione audio a 4 canali, brevettato dalla Dolby Labs. È l'evoluzione del Dolby Stereo A. Dolby SRD-EX: Dolby Digital EX: sistema di riproduzione audio digitale a 6.1 canali, brevettato dalla Dolby Labs. È l'evoluzione del Dolby Digital. Dolby Stereo A: sistema di riproduzione audio a 4 canali, brevettato dalla Dolby Labs. Dolby Surround Pro Logic: sistema di riproduzione audio in alta fedeltà, simile al Dolby Stereo SR ma realizzato per sistemi di videoregistrazione, brevettato dalla Dolby Labs. Dolly: carrello con braccio mobile su cui è sistemata la macchina da presa, gli operatori e gli assistenti. Può essere con ruote in gomma per pavimenti perfettamente lisci o con ruote scanalate da binario per terreni accidentati. Doppiaggio: registrazione in studio della colonna sonora (dialoghi + musiche + rumori). DTS: Digital Theater System; sistema di riproduzione audio digitale a 5.1 canali, brevettato dalla Amblin/Universal. Drive-in: cinema all'aperto nel quale si accede con l'automobile. Editing: Fase finale di edizione in cui avviene il montaggio, il doppiaggio, la sincronizzazione, il trattamento delle immagini con eventuali effetti speciali di post-produzione, nonché la titolazione e la duplicazione di un prodotto video. Environment Map (o Reflection Map): Superficie contenente un’immagine o una texture che è come “spalmata” all’interno di una sfera virtuale (invisibile) la quale avvolga l’intero mondo 3D costruito al computer (in modo da potersi riflettere parzialmente, ad esempio, negli oggetti cromati presenti sulla scena). Fade-In: Apparizione graduale dell’immagine in apertura (vedi Assolvenza) Fade to Black: Dissolvenza in chiusura su nero (Fade-Out). Field: Semiquadro (due semiquadri interallacciati compongono un frame). Field of View: Campo della visione o angolo di campo (vedi Angle). Flash-Back: Inserimento in una sequenza di un racconto che si riferisce al ricordo di eventi passati. Flip: Ribaltamento orizzontale (inversione tra destra e sinistra) di un Cutout. Fonico: tecnico addetto alla registrazione ed alla manipolazione del suono. Fonico di presa diretta: si occupa della sistemazione dell'attrezzatura audio sul set affinché queste non intralcino la regia e la fotografia. Formato schermo: noto anche come formato immagine, formato inquadratura, rapporto dimensionale, formato dimensionale, aspect 440 ratio. È il rapporto tra larghezza e l'altezza dell'immagine cinematografica sullo schermo. Fotografia cinematografica: la tecnica con cui si ottiene la costruzione dell'immagine per mezzo di opportune forme di luci e della disposizione di tutti gli elementi presenti sul set. In pratica, con la fotografia si realizzano visivamente le richieste artistiche della regia; una particolare "illuminazione" e disposizione degli elementi, compreso gli attori, i costumi e il trucco, definisce l'atmosfera. Fotografo di scena: documenta attraverso fotografie tutto quello che accade sul set. Fotogramma: singola immagine impressa sulla pellicola. Frame: Il singolo “quadro” di una sequenza video (equivalente al fotogramma cinematografico). Freeze: Congelamento dell’immagine (fermo-fotogramma). Fuori campo: ogni azione o suono che ha luogo fuori dal campo di ripresa. Gel: Gelatina di correzione o colorazione policroma della luce emessa da un riflettore. Funzione del mixer che produce viraggi cromatici. Nei programmi di computer graphics indica quella funzione che in genere consente appunto di simulare un foglio di gelatina colorata o pellicola trasparente in grado di filtrare la luce di una lampada al fine di produrre una dominante di colore o di proiettare, ad esempio, una sagoma (ovvero un’immagine qualsiasi, non solo riferibile ad una singola slide ma persino ad un intero filmato) su qualche superficie di un oggetto virtuale. Glow: Luminescenza, fluorescenza. Proprietà attribuita ad una superficie al fine di creare l’illusione di una luce propria o di un alone emanato dall’oggetto, anche se non nei termini di una vera e propria luce radiante (vedi Radiosity). Grandangolare: obiettivo capace di riprendere un campo visivo maggiore di quello dell'occhio umano. GUI: Graphical User Interface. Hidden Line Removal: Cancellazione delle linee nascoste. Rimozione di quelle linee “posteriori” che nella volumetria di un oggetto supposto opaco, sebbene raffigurato in forma schematica con il solo reticolo geometrico che ne definisce i contorni, devono risultare nascoste alla vista per evitare fenomeni di ambiguità percettiva (vedi Wireframe). Imax: sistema a schermo gigante, con pellicola da 70 mm con 15 perforazioni per ogni fotogramma. In-Betweening: Intercalazione, interpolazione. Calcolo automatico dei passaggi intermedi in una procedura d’animazione. Index of Refraction: Valore numerico riferibile alle caratteristiche di un determinato materiale, il quale determina il tipo di rifrazione dei raggi di luce passanti attraverso un oggetto trasparente più o meno denso. Inquadratura: unità minima di montaggio. In pratica è la porzione di spazio inquadrata dalla macchina. 441 Inverse Kinematics: Nell’animare ad esempio una figura antropomorfa la funzione detta cinematica inversa consente d’impostare un movimento a partire dall’estremità degli arti anziché dal centro del corpo, ricavando in tal modo, grazie ai vincoli anatomici pre-impostati, la “causa” di una concatenazione cinematica dall’effetto che questa produce, semplificando così l’animazione degli oggetti complessi. Ispettore di produzione: collaboratore sul set del direttore di produzione.Ne è il braccio esecutivo. Keyframe: Inquadratura chiave in cui sono specificati tutti gli attributi (direzionali, dimensionali, cinetici ecc.) di un oggetto (attore) rispetto alla linea evolutiva globale del movimento delle immagini prevista nella fase di programmazione di una sequenza animata. La serie completa, ovvero svolta per l’intera sequenza, di tali indicazioni relative alle “posizioni chiave” delle entità animate, configura ad esempio quella traiettoria specifica che l’oggetto è destinato a percorrere nello spazio inquadrato (vedi Motion Path), la quale dunque si pone come risultante di tutte le posizioni parziali pre-impostate). La visione schematica d’insieme di tutti gli spostamenti che l’attore effettuerà nella scena assume quindi, in taluni programmi dedicati all’animazione, l’aspetto grafico di una linea tratteggiata che può essere più o meno curva e i cui trattini possono essere più o meno regolari in base alla velocità, all’uniformità, all’accelerazione o al rallentamento dell’azione (ogni singolo trattino, appunto, rappresenta la posizione dell’oggetto in quel keyframe o fotogramma specifico). Lens Flare: Difetto tipico di un obiettivo fotografico che può essere aggiunto artificialmente in una ripresa virtuale per renderla meno “perfetta” e dunque per accrescere l’effetto di realtà. Oltre al riflesso di luce che può formarsi all’interno di un obiettivo (ad esempio quando questo è orientato verso una sorgente di luce puntiforme), per estensione, il temine può indicare genericamente tutti quei falsi riflessi, bagliori a stella (filtro Cross screen) o aloni luminosi di vario tipo che possono essere aggiunti alle parvenze di un oggetto o di una scena per renderle più “brillanti” o per accentuare l’illusione della verosimiglianza (fotorealismo). Letterbox: formato schermo televisivo. Prevede sullo schermo tv l'aggiunta di bande nere orizzontali di varia ampiezza, sopra e sotto l'immagine, con lo scopo di rispettare il formato cinematografico originale. Live Video: Video dal vivo (l’immagine, proveniente da una fonte qualunque, ad esempio trasmessa da un canale televisivo, può dunque scorrere sul monitor in tempo reale quando tale funzione viene attivata, e può pertanto essere acquisita all’interno del sistema grafico con cui si sta operando). Loop: Funzione che consente di “allacciare” la prima e l’ultima inquadratura di una sequenza animata in modo da riprodurla ad anello, ovvero come un ciclo continuo d’immagini ricorsive. 442 Lungometraggio: per la legge italiana un film di lunghezza non inferiore a 1600 metri. Macchinista: tecnico addetto al trasporto ed al montaggio delle macchine e degli accessori di ripresa; progetta e costruisce apparecchiature per realizzare riprese particolarmente difficili. Majors: grandi case di produzione, solitamente storiche ed hollywoodiane. Matte: Funzione che consente il prelievo o l’intarsio di una porzione d’immagine (vedi anche Alpha Channel, Cutout, Mask, Stencil). Matte Key: Chiave d’intarsio. Funzione del Mixer che serve per ottenere effetti d’intarsio (nonché di colorazione o alterazione cromatica) in un’area predeterminata dell’immagine. Mask: Maschera (nel Mixer indica la funzione che consente ad esempio di selezionare le diverse sagome pre-impostate che si possono adottare come “mascherino” per effetti d’intarsio o transizione). Microfonista: tecnico alle dipendenze del fonico; si occupa della sistemazione dei microfoni. MdP: Macchina da presa. Mesh: Nei sistemi di modellazione indica il reticolo di poligoni che definisce la forma degli oggetti. Metaball: Metasfera. Espediente usato in alcuni programmi di modellazione per simulare con un procedimento rapido e intuitivo delle “masse semisolide” (Blob), o comunque delle forme complesse come le fasce muscolari di un corpo umano (Meta-clay, “metamuscoli”). Il metodo più semplice è appunto quello basato sull’adozione di moduli sferoidali. Missaggio: montaggio audio della colonna sonora (musiche + dialoghi + rumori). Mixer: Strumento utilizzato sia nella fase di Editing o postproduzione video, sia negli studi televisivi durante la registrazione o la trasmissione in diretta di un programma. Consiste in un banco di missaggio che può smistare e trattare contemporaneamente un certo numero più o meno elevato di canali. Si tratta dunque di un apparato elettronico che consente di miscelare, sommare tra loro o “intarsiare” più segnali, ovvero contributi provenienti da più fonti (audio e video) ricorrendo anche ad una serie di effetti di transizione in parte già programmati, in parte regolabili in base ad esigenze specifiche (tendine, mascherini, dissolvenze, alterazioni cromatiche ecc.). Modeling: (Solid Modeling), modellazione dei solidi, fase di costruzione dei modelli 3D che logicamente precede l’eventuale passaggio a quelle ulteriori fasi di coreografia o regia virtuale richieste dalla produzione di una sequenza animata tridimensionale. Morphing: Abbreviazione di “metamorphosing” adottata per indicare appunto un effetto di metamorfosi facilmente ottenibile con determinati programmi, in virtù del quale la forma di un oggetto si trasforma in quella di un altro mediante una serie di deformazioni topologiche 443 (ottenute per successive intercalazioni automatiche una volta impostati un certo numero di “punti di controllo” in comune tra le due immagini) seppure ricorrendo in genere anche ad una dissolvenza incrociata che consenta di ridurre il numero dei fotogrammi realmente modificati e dunque i tempi di trattamento. Montaggio: l'unione di porzioni di pellicola su cui sono state girate le sequenze, ma anche singole inquadrature, con lo scopo di ottenere un'insieme logico, organico e artistico. Motion Capture: Dispositivo che consente l’acquisizione degli schemi di movimento da modelli reali, ovvero d’importare le coordinate di un certo numero di punti di controllo posti in corrispondenza delle principali articolazioni di una figura (ad esempio, di un attore o di un mimo). Motion Control: Sistema che consente di coordinare in modo automatico e in tempo reale il movimento effettivo di una telecamera con le trasformazioni prospettiche di una scenografia virtuale generata dal computer. Motion Path: Traiettoria del movimento (vedi anche Action Line e Keyframe) Motion Tracking: Tecnica laboriosa che consiste nel sovrapporre inquadratura per inquadratura (frame by frame) le azioni riprese dal vivo con le animazioni generate dal computer. Oggi è tuttavia possibile ricorrere a sistemi totalmente automatizzati (vedi Motion Control). Moviola: apparecchiatura dedicata al montaggio. Nickelodeon: sala statunitense d'inizio secolo, dove si pagava un Nickel per entrare. Nomination: prima selezione per l'assegnazione del Premio Oscar. NURBS: Non Uniform Rational Beta Spline. Solido risultante dalla interpolazione di più Spline disposte nello spazio in modo non uniforme. Oggettiva: ripresa in cui la macchina da presa, esternamente all'inquadratura, vede tutto ciò che accade. Operatore: tecnico addetto al funzionamento della macchina da presa; è colui che materialmente esegue la ripresa. Oscar, Premio: Academy Award. Paint-Box: Alla lettera “scatola per dipingere”, termine anglosassone indicante la tipica valigetta dei colori abbinata al cavalletto portatile. Ma in realtà qui ci riferiamo al nome di un noto sistema grafico-pittorico digitale che rappresenta la base di una linea di prodotti della ditta inglese Quantel. Utilizzato a partire dagli anni ‘80 (e molto usato ancor oggi grazie anche alla sua ormai ben collaudata affidabilità) nella maggior parte degli apparati televisivi, nonché nei centri specializzati in computer animation e postproduzione digitale. Paint System: Sistema grafico-pittorico digitale (in genere di tipo Raster ovvero a matrice di punti, ma che può anche includere funzioni vettoriali) che simula, grazie ad una sorta di tavolozza elettronica, gli strumenti tradizionali del disegno e della pittura. 444 Pan: Inquadratura panoramica, ovvero rotazione della camera intorno all’asse verticale. Pan&Scan: formato schermo televisivo. Se il film in origine era in un formato panoramico, vengono tagliate cospique porzioni laterali dell'immagine per proiettarlo a tutto schermo senza bande nere. Artisticamente inaccettabile! Panaflex: tipo di macchina da presa costruita dalla Panavision. Panavision: marchio di fabbrica che costruisce diversi modelli di macchina da presa. Si identifica anche con un formato schermo. Panoramica: movimento rotatorio della macchina da presa attorno al proprio asse. Partecipazione straordinaria: breve parte recitata da un attore famoso. Particles: Effetti “particellari” inseribili in una animazione 3D che, seppure basati sull’uso di semplici particelle bidimensionali, consentono di rendere in modo verosimile anche fenomeni “caotici” molto complessi (fumo, vapore, disintegrazione di oggetti ecc.). Pasteup: Nei sistemi pittorici (vedi sopra Paint System) indica la funzione che consente la giustapposizione e l’incollaggio (collage) di ritagli o elementi grafici eterogenei. Pellicola: materiale fotosensibile su cui vengono fissati, in sequenza, i fotogrammi. Piano: insieme al campo, è una distanza cinematografica.Generalmente si parla di pianoquando la distanza è in rapporto con la persona, a differenza del campo dove la distanza cinematografica è in rapporto con l'ambiente. Piano americano: inquadratura della figura dalla coscia alla testa. Piano medio: inquadratura della figura dalla vita in sù. Piano sequenza: unica sequenza priva di stacchi. Picture: L’intera immagine che riempie lo schermo (contenuta in un singolo Frame). Nei sistemi digitali viene memorizzata e trattata sotto la forma numerica di una matrice di punti o Bitmap. Pilota: film, telefilm, sceneggiato campione, realizzato per il cliente al fine di decidere la realizzazione di un'intera serie. Pizza: rullo di pellicola. Pixel: La singola “tessera” luminosa che compone il “mosaico” dell’immagine sullo schermo del computer. Si tratta dunque dell’unità minima, del più piccolo “elemento pittorico” di ogni immagine video (il termine deriva infatti dall’abbreviazione di picture element). Playback: tecnica che prevede l'utilizzo di colonne sonore preregistrate in studio; si contrappone all'audio di presa diretta che non garantisce, però, l'uniformità del suono. Post-produzione: tutte le fasi della realizzazione di un film che seguono alla fine delle riprese. Preview: Visione anticipata, seppure in forma talora meno definita o comunque provvisoria e dunque reversibile, di come risulterà 445 un’animazione o il montaggio finale di una sequenza video (vedi Anteprima). Primo piano: inquadratura, nel caso di una figura umana, dalle spalle in sù. Primissimo piano: inquadratura, nel caso di una figura umana, solo del viso. Produttore: colui che investe i soldi e mette in cantiere il film. Spesso ne è anche l'autore, il responsabile sia artistico che tecnico, e alla regia viene delegata solo l'esecuzione. Produttore esecutivo: responsabile della produzione sul set. Approva le spese. Produzione: tutte le attività, sia economiche che tecniche, messe in atto per la realizzazione di un film. Profondità di campo: spazio nitido davanti e dietro il punto di messa a fuoco. Radiosity: Sofisticato sistema di Rendering che consente una resa fedele della luce radiante, riflessa, rifratta ecc.. Si tratta dunque di un particolare algoritmo più veloce del Ray Tracing e che rispetto a quest’ultimo consente migliori risultati qualitativi in senso fotorealistico. Rallenty: Nel cinema il rallentamento delle immagini si può ottenere elevando la cadenza di ripresa. In campo televisivo si ricorre ad apparati che utilizzano dischi magnetici o particolari sistemi di videoregistrazione definiti di tipo elicoidale. Ray Tracing: Algoritmo usato spesso per il rendering finale nelle animazioni 3D, basato sul calcolo dei riflessi e sul tracciamento dei raggi di luce in relazione alle caratteristiche delle superfici degli oggetti. Se usato abilmente a tale scopo, consente dunque un alto grado di verosimiglianza “fotorealistica”, ma richiede anche calcoli più complessi (nonché tempi di processamento più lunghi) rispetto ad altri tipi di rendering meno raffinati. Raster: Matrice di punti. Sistema “pittorico”, ovvero uno dei due metodi usati per costruire un’ immagine elettronica (vedi anche Bitmap); si distingue, infatti, dal sistema “grafico” vettoriale (Stoke). Reflection Map: Mappa di riflessione (vedi Environment Map). Reggetta: Barretta metallica artigianale con tre perni che, unita ad un’apposita foratrice, consente di mettere a registro i disegni nella tecnica di animazione tradizionale. Regista: responsabile artistico ma anche tecnico-professionale di un film; è l'unico che ha in mente tutto quello che si deve fare dalla preparazione e, attraverso le riprese, al montaggio; è l'autore del film salvo alcune rare eccezioni in cui la figura predominante, sia a livello artistico che tecnico, si identifica con quella del produttore. In questo caso si parlerà più che di regista-autore, di regista-esecutore. 446 Regia: direzione artistica di un film. La regia cinematografica, a differenza di quella teatrale che interpreta un'opera compiuta, è la creazione dell'opera stessa. RGB: Red, Green, Blue. I tre colori primari (Rosso, Verde e Blu) della sintesi additiva usati nella codifica elettronica dei segnali video. Rendering: Rendimento, resa in termini “esecutivi” delle qualità sensoriali dell’immagine previste dall’autore. Può indicare dunque quel trattamento finale che definisce (o, per così dire, “sviluppa in bella copia”) l’aspetto delle superfici, nonché la stessa evoluzione temporale degli oggetti quando si tratta di un’animazione. Si ottiene così il processamento dell’immagine, ovvero il compiuto svolgimento della serie di operazioni precedentemente impostate. Poiché tale procedura richiede in genere un certo tempo più o meno lungo di elaborazione, la fase di rendering presume dunque che siano concluse tutte le fasi preparatorie (le impostazioni generali, le verifiche in Preview), anche qualora si tratti di realizzare una singola immagine sintetica in 3D piuttosto che un’intera sequenza animata. Remake: un film già esistente, riproposto completamente in una nuova versione. Roll: Rotazione della camera intorno alla linea di mira. Rostrum Camera: Sistema di ripresa automatizzato consistente in una o più telecamere sospese su bracci meccanici semoventi in grado di muoversi in più direzioni, di ruotare, nonché di scorrere su apposite guide. Il movimento è controllabile mediante computer (essendo programmato a priori oppure registrato e riprodotto fedelmente dalla macchina): è possibile, ad esempio, una volta impostate le inquadrature chiave, ottenere per intercalazione automatica la curva risultante della traiettoria di ripresa. Si usa in genere per la ripresa in studio di modellini (o comunque di oggetti con dimensioni necessariamente limitate), ad esempio per le esigenze tipiche dei documentari scientifici o dei film di fantascienza. Rotoscope: apparecchiatura capace di proiettare i fotogrammi singolarmente. RVM: Registrazione Video Magnetica. Safe Area: Area di sicurezza che in un monitor indica lo spazio utile per le titolazioni. Occorre infatti tener conto che nei televisori domestici una scritta troppo vicina al bordo dello schermo potrebbe risultare “tagliata” (Cut-Off). Scanning: Scansionamento automatico di un oggetto per acquisirne la geometria (mediante uno Scanner 3D). Un procedimento analogo, ma basato sul rilievo manuale dei punti salienti dell’oggetto mediante un apposito puntatore, si definisce invece 3D Digitizing. Sceneggiatore: scrittore di un soggetto cinematografico ovvero della sceneggiatura. 447 Sceneggiatura: film su carta: scena per scena, dialogo per dialogo compresa la descrizione di tutti i luoghi e gli oggetti presenti nell'inquadratura. Scenografo: Art Director. SDDS: Sony Dynamic Digital Sound; sistema di riproduzione audio digitale a 7.1 canali della Sony. Seconda unità: è una seconda troupe di regia che realizza sequenze di massa, di difficile realizzazione o specialistiche. Sedici millimetri: pellicola a formato ridotto rispetto al classico trentacinque millimetri cinematografico. Segretaria di edizione: cura la stesura del diario di lavorazione nel quale viene annotato tutto ciò che accade sul set, dalle spese fino ai motivi delle perdite di tempo. Inoltre riporta tutte le varianti effettuate alla sceneggiatura durante le riprese. Set: luogo della ripresa. Sequenza: unità narrativa del film composta da una o più scene compiute. Sequencer: Sorta di righello o “pentagramma” composto da una serie di linee parallele che nei programmi d’animazione consente il controllo visivo e operativo, durante l’impostazione di una sequenza video o d’animazione, di tutti i parametri relativi ai cambiamenti di forma e posizione, ai sincronismi, agli oggetti e agli eventi ambientali che si sviluppano in una determinata linea del tempo. Sincrono: Coincidenza fra suono e immagine. Size: Dimensione. Skeleton: Scheletro. Schema semplificato di un corpo umano. Skycam: Camera telecomandata, in genere sospesa a tiranti metallici, usata per riprese dall’alto (utili ad esempio in uno stadio). Slow Motion: Movimento rallentato (Pseudo-Rallenty) ottenuto in fase di lettura RVM. Snorkel: Minuscolo obiettivo grandangolare inserito in una sottile asta periscopica che viene in genere usato per la ripresa di modellini (vedi anche Rostrum Camera). Soggettiva: ripresa in cui la macchina vede con gli occhi di un personaggio, animale ecc. Special Awards: premi assegnati dall'Accademy of Motion Picture Arts and Sciences. Spin: Rotazione della camera o dell’oggetto attorno ad un asse prestabilito. Spline: Nei sistemi grafici vettoriali indica la funzione che consente di generare curve mediante l’impostazione di punti di controllo. Steadycam: Camera stabilizzata mediante contrappesi per riprese professionali effettuate a mano, ovvero senza l’ausilio di cavalletti o carrelli 448 Steadicam: particolare e tecnologico sistema di contrappesi che permette alla telecamera a spalla una linearità di ripresa perfetta e senza tremolii. Steady Shot: Ripresa stabile. Obiettivo compensatore di shock, ovvero stabilizzato al fine di ridurre le eventuali vibrazioni prodotte in particolari situazioni di ripresa. Stencil: Mascherino, pellicola trasparente o sagoma disegnata che consente di scontornare o coprire una parte dell’immagine per proteggerla ad esempio dal colore debordante di un getto d’aerografo, o per ottenere un ritaglio, uno stampo da usare con la spugna ecc. I caratteri in versione stencil, com’è noto, sono infatti quelli che possono essere adottati anche per realizzare dei “normografi” di plastica o delle guide di lamierino con cui riprodurli facilmente su qualunque supporto. Nei moderni programmi di grafica digitale il termine ricopre significati analoghi. Stunt-man: controfigura oppure cascatore molto somigliante all'attore; la prima sostituisce l'attore anche durante le varie prove e il secondo solo durante le scene atletiche e pericolose. Story-board: sceneggiatura disegnata nei minimi particolari, è il fumetto del film. Superimpose: Sovrimpressione. Teatro di posa: grande ambiente attrezzato per le riprese. Technicolor: azienda specializzata nello sviluppo e nella stampa; inoltre è conosciuta anche come sistema di ripresa a colori. Texture mapping: Applicazione di rivestimenti bidimensionali a modelli 3D. THX: Tom Holman's Experiments; sistema qualità della Lucasfilm; copre tutti gli aspetti della produzione di un film, dalla pre-produzione alla visione in sala. Tilt: Panoramica verticale, ovvero rotazione della camera intorno all’asse X. Time Code: Codice di tempo. Numerazione progressiva dei fotogrammi. Si tratta appunto di un riferimento numerico associato a ciascun frame di una sequenza video mediante un apposito dispositivo automatico incluso nei sistemi di videoregistrazione. Consente dunque una precisa ricerca dei singoli elementi della sequenza e dunque facilita le operazioni di montaggio. Titoli di coda: elenco dei collaboratori secondari che non compaiono nei titoli di testa. Titoli di testa: elenco dei nomi della troupe. Todd Ao System: sistema su grande schermo, in cui l'immagine è impressa su pellicola da 65 mm a 5 perforazioni. Track: Traccia; si dice talora anche di una funzione che, in computer animation, consente lo scorrimento lineare del punto di vista lungo l’asse Z, ovvero un tipo di ripresa virtuale simile a quella ottenuta mediante carrello cinematografico (vedi Truck), la quale dunque implica 449 uno spostamento della camera nello spazio e un eventuale “inseguimento” (to track, inseguire) del soggetto che compie l’azione. Trackback: Carrellata all’indietro. Trentacinque millimetri: formato cinematografico (della pellicola) attualmente in uso. Troupe: staff tecnico completo del film. Truck: Carrello. Nel gergo cinematografico la carrellata è quel particolare tipo di ripresa in cui la MdP scorre appunto su una rotaia e dunque può spostarsi realmente in orizzontale nello spazio scenico (anche mantenendo la stessa focale), a differenza della “zoomata” che implica invece solo un cambiamento dell’angolo di campo. Trucka (in gergo Truka o Truca): Sistema ottico-meccanico che consente particolari trucchi ed effetti speciali cinematografici (dissolvenze, fermo immagine, accelerazioni, rallentamenti, mascherini, tendine, sovrimpressioni ecc.). Tumble: Ribaltamento verticale (inversione tra l’alto e il basso) di un Cutout. Turn: Funzione che consente di curvare un angolo dello schermo (effetto “voltapagina”). U.N.A.C.: Unione Nazionale Autori e Cinetecnici. Vistavision: sistema su grande schermo, in cui l'immagine impressa su pellicola da 70 mm a 8 perforazioni, scorre orizzontalmente nella macchina. Widescreen: formato schermo studiato espressamente per la televisore a schermo panoramico, con un rapporto tra base e altezza dell'immagine di 16:9. Wipe: Tendina, effetto di transizione che si può facilmente ottenere col Mixer Wireframe: Rappresentazione schematica di un oggetto tridimensionale mediante le sole linee dei contorni, ovvero della costruzione geometrica (come se questo fosse, insomma, realizzato “a fil di ferro”). Per evitare ben noti fenomeni di ambiguità percettiva è possibile in genere escludere le linee che in una visione prospettica reale di un oggetto opaco risulterebbero nascoste in quanto coperte dalle superfici dell’oggetto poste in primo piano rispetto al nostro punto d’osservazione (vedi Hidden Line Removal). Yaw: Rotazione dell’oggetto attorno all’asse Y. Zoom: Obiettivo a focale variabile con il quale è possibile appunto variare l’angolo di campo e dunque i rapporti dimensionali all’interno dell’inquadratura rispetto alla scena ripresa (pur restando fermi nella medesima posizione e mantenendo la stessa distanza dal soggetto). 450 BIBLIOGRAFIA IL CINEMA DELL'INGEGNO - E. Pasculli - Mazzotta - Milano - 1990 GLI EFFETTI SPECIALI DA COPPOLA A MÉLIÈS - S. Toni - Porretta - Bologna - 1983 STORIA DEL CINEMA DI FANTASCIENZA - Claudia e Giovanni Mongini - Fanucci Editore - Milano 2000 COMPUTER ANIMATION STORIES- NUOVI LINGUAGGI E TECNICHE DEL CINEMA DI ANIMAZIONE - a cura di Ferruccio Giromini e Maria Grazia Mattei - Ed. Mare Nero - Roma, 1998 GLI EFFETTI SPECIALI DA COPPOLA A MÉLIÈS - a cura di Sandro Toni- 1983. LA QUARTA ERA DELL’IMMAGINE IN MOVIMENTO - Carlo Lizzani IL DISCORSO DELLE IMMAGINI - Carlo Lizzani - Marsilio-1995 VITA DA PIXEL-Giulietta Fara - Andrea Romeo- Ed. Il Castoro-2000 FUTURE FILM FESTIVAL - a cura di Giulietta Fara e Andrea RomeoEd. AndKronos -2000 LA SIMULAZIONE VISIVA - Gianfranco Bettetini-Ed.Fabbri -1991 OMBRE SINTETICHE. SAGGIO DI TEORIA DELL’IMMAGINE ELETTRONICA - Fausto Colombo - Ed. Liguori -1995 NUOVE TECNOLOGIE DELLA COMUNICAZIONE -Bettetini Gianfranco - Colombo Fausto - Ed.Bompiani,1993 Siti Internet www.iht.it www.dimmi.it www.cinecitta.com www.ina.fr www.europa.eu.it www.fabbricaimmaginario.com www.asifaitalia.org www.awn.com www.cinema.it www.geosities.com www.cinestudio.it www.filmup.com www.anica.it www.italway.it www.intercity.it www.luce.it www.cinematografo.it www.tempimoderni.com www.visualfx.com www.lucasfilm.com 451 www.caltanet.com www.vfxh9.com www.2discreet.com www.videotecnica.it www.uk.imdb.com www.grafica.it www.cgi.resource.com www.digitale.it www.3dartist.com www.3dcafe.com www.fly.com www.3dmax.com www.3dtotal.com www.cinehall.it www.areacom.it www.newmedia.digitale.it www.microsoft.it www.3division.it www.d.2.com www.disney.com www.duboi.com www.pdi.com www.20thfox.com www.cecchigori.com www.tippet.com www.fxfaq.com www.35millimetri.com www.intercom.publinet.it www.fub.it/telema.it www.omeganet.it www.jackson.it www.cinefex.com www.vfxpro.com 452 INTRODUZIONE ................................................................................... 1 CINEMA, TECNICA E TECNOLOGIA: ........................................................ 2 DALLA MECCANICA ALL’ELETTRONICA ................................................ 5 IL CINEMA DIGITALE ................................................................................. 7 ELABORAZIONE DIGITALE DELLA PELLICOLA ................................... 10 IL DIGITALE COME LINGUAGGIO........................................................... 11 IMMAGINI SINTETICHE ............................................................................ 14 IL NUOVO CONTESTO TECNOLOGICO.................................................. 16 LA COMUNICAZIONE TELEVISIVA ......................................................... 19 Il linguaggio videografico nelle sigle istituzionali...................................... 19 Graphic Design e Storyboarding ............................................................. 19 MARCHIO E LOGO AL CENTRO DELL'IMMAGINE COORDINATA ....... 24 Committenza e strategie progettuali........................................................ 24 IL LINGUAGGIO VIDEOGRAFICO ........................................................... 26 Gli stilemi dominanti................................................................................ 26 DECALOGO OPERATIVO ........................................................................ 30 INTRODUZIONE ALLA COMPUTERGRAFICA TRIDIMENSIONALE ...... 35 Le basi della tecnica ............................................................................... 35 Verso il fotorealismo ............................................................................... 37 L’EVOLUZIONE DELL’IMMAGINE DIGITALE .......................................... 38 II PARTE: Making of ................................................................................. 40 2001: A SPACE ODISSEY ........................................................................ 41 STAR TREK 2: THE WRATH OF KHAN ................................................... 45 TRON ........................................................................................................ 48 STAR WARS ............................................................................................. 50 La saga di Guerre Stellari ....................................................................... 50 THE ABYSS .............................................................................................. 53 TERMINATOR 2:JUDGMENT DAY........................................................... 55 JURASSIC PARK...................................................................................... 60 L’evoluzione della specie ........................................................................ 60 La costruzione dei modelli ...................................................................... 61 Gli strumenti proprietari ........................................................................... 63 I dettagli delle texture map ...................................................................... 65 L’illuminazione e il compositing ............................................................... 66 APOLLO 13 ............................................................................................... 69 JOHNNY MNEMONIC E VIRTUOSITY...................................................... 72 Un approccio multipiattaforma ................................................................ 72 Il PC emerge da dietro le quinte.............................................................. 73 453 La visione di William Gibson ................................................................... 74 La creazione di mondi virtuali.................................................................. 75 Computer che simulano se stessi ........................................................... 76 Post-produzione in tempo reale .............................................................. 76 SPECIES ................................................................................................... 83 WATERWORLD ........................................................................................ 88 101: DALMATIANS ................................................................................... 92 DRAGONHEART....................................................................................... 95 INDEPENDENCE DAY ............................................................................ 101 MARS ATTACKS! ................................................................................... 105 TWISTER................................................................................................. 111 Analisi di una scena .............................................................................. 112 RELIC ...................................................................................................... 115 SPACE JAM ............................................................................................ 120 Inseguire i movimenti ............................................................................ 121 STARSHIP TROOPERS .......................................................................... 124 TITANIC .................................................................................................. 129 ALIEN RESURRECTION......................................................................... 137 AN AMERICAN WEREWOLF IN PARIS ................................................. 140 MIGHTY JOE YOUNG ............................................................................. 143 I peli digitali della Dream Quest ............................................................ 144 I peli digitali della ILM............................................................................ 145 ARMAGEDDON ...................................................................................... 148 DEEP IMPACT ........................................................................................ 151 LOST IN SPACE ..................................................................................... 154 PLEASANTVILLE ................................................................................... 157 Problemi d’integrazione ........................................................................ 160 GUSTI E TENDENZE NELLA CG ........................................................... 163 WILD WILD WEST .................................................................................. 164 FIGHT CLUB ........................................................................................... 167 LAKE PLACID......................................................................................... 170 INSPECTOR GADGET ............................................................................ 173 THE MUMMY ........................................................................................... 176 Muovere la mummia ............................................................................. 179 L’arte della decomposizione.................................................................. 179 MATRIX ................................................................................................... 183 STAR TREK: INSURRECTION ............................................................... 189 Scene spaziali....................................................................................... 190 454 Texture inusuali .................................................................................... 192 La computergrafica in Star Trek ............................................................ 192 La trama si infittisce .............................................................................. 193 Effetti Speciali ....................................................................................... 194 Star Trek: live action ............................................................................. 195 STAR WARS: EPISODE I THE PHANTOM MENACE ............................ 199 Ambientazione e personaggi digitali...................................................... 205 Il Motion Capture .................................................................................. 208 MISSION TO MARS ................................................................................ 212 Il contributo della NASA ........................................................................ 212 Contributi digitali ................................................................................... 214 Tempesta di sabbia rossa ..................................................................... 215 I marziani siamo noi .............................................................................. 217 PARTE 3: CARTOONS ..................................................................... 220 L’ANIMAZIONE 2D ................................................................................. 221 Le Tecniche .......................................................................................... 221 Disegni Animati ..................................................................................... 221 Go-Motion ............................................................................................. 223 Silhouettes ............................................................................................ 224 Mosaico ................................................................................................ 224 Stop – Motion ....................................................................................... 224 Le immagini della CGI........................................................................... 225 CARTONI ANIMATI ELETTRONICI ........................................................ 227 Cartoombria .......................................................................................... 228 PARTE 4: MAKING OF ..................................................................... 230 THE ADVENTURES OF ANDRÉ AND WALLY B ................................... 231 LUXO Jr. ................................................................................................. 232 RED’S DREAM........................................................................................ 233 TIN TOY .................................................................................................. 234 TOY STORY ............................................................................................ 235 La troupe .............................................................................................. 236 Trama e Personaggi ............................................................................. 237 I dettagli ................................................................................................ 238 Ombreggiatura e texture ....................................................................... 240 Illuminazione ......................................................................................... 241 Rendering ............................................................................................. 241 Il processo di produzione ...................................................................... 241 La fabbrica delle invenzioni ................................................................... 243 LA PRINCIPESSA MONONOKE ............................................................. 245 L’integrazione della CG......................................................................... 246 ANTZ ....................................................................................................... 248 L’animazione facciale............................................................................ 255 Piccole folle .......................................................................................... 256 Grandi folle ........................................................................................... 258 455 BUG,S LIFE............................................................................................. 260 Modellazione e animazione................................................................... 263 La gestione delle folle ........................................................................... 263 L'acqua e il vento .................................................................................. 265 Un nuovo modello d'illuminazione ......................................................... 266 Texture dettagliate ................................................................................ 267 IL PRINCIPE D’EGITTO .......................................................................... 269 Dinamica dei fluidi ................................................................................. 271 TIGHTROPE ............................................................................................ 274 BUNNY .................................................................................................... 277 TARZAN .................................................................................................. 280 TOY STORY 2 ......................................................................................... 284 Angosce da giocattolo........................................................................... 285 L’elemento umano ................................................................................ 287 Effetti speciali ....................................................................................... 289 DINOSAUR.............................................................................................. 291 Una follia diventata realtà ..................................................................... 291 La ripresa degli sfondi ........................................................................... 292 Primi passi ............................................................................................ 293 L’animazione dei personaggi ................................................................ 293 Muscoli, peli e Hoids ............................................................................. 296 Effetti per dinosauri ............................................................................... 296 MOVIE STILLS .................................................................................. 298 THE LOST WORLD: JURASSIC PARK ........................................... 299 DRAGONHEART..................................................................................... 300 JUMANJII ................................................................................................ 301 TITANIC .................................................................................................. 302 MIGHTY JOE YOUNG ............................................................................. 303 THE MUMMY ........................................................................................... 304 MATRIX ................................................................................................... 305 STAR WARS:THE PHANTOM MENACE ................................................ 306 MISSION TO MARS ................................................................................ 307 TOY STORY 2 ......................................................................................... 308 BUG’S LIFE............................................................................................. 309 ANTZ ....................................................................................................... 310 DINOSAUR.............................................................................................. 311 PARTE 5: CASE DI PRODUZIONE......................................................... 313 INDUSTRIAL LIGHT & MAGIC ............................................................... 314 FILMOGRAFIA ..................................................................................... 315 456 DIGITAL DOMAIN ................................................................................... 320 FILMOGRAFIA ..................................................................................... 335 DREAM QUEST IMAGES ....................................................................... 336 FILMOGRAFIA ..................................................................................... 338 BLUSKY/VIFX ......................................................................................... 340 FILMOGRAFIA ..................................................................................... 341 DUBOI ..................................................................................................... 342 FILMOGRAFIA ..................................................................................... 344 IMAGEWORKS ....................................................................................... 346 FILMOGRAFIA ..................................................................................... 348 PIXAR...................................................................................................... 349 Gli inizi .................................................................................................. 349 Disney Relationship .............................................................................. 349 La tecnologia ........................................................................................ 350 Awards ................................................................................................. 350 Questione di metodo ............................................................................. 351 Le sedi .................................................................................................. 351 FILMOGRAFIA ..................................................................................... 352 STAN WINSTON ..................................................................................... 353 FILMOGRAFIA ..................................................................................... 354 TIPPET STUDIO...................................................................................... 356 FILMOGRAFIA ..................................................................................... 358 WALT DISNEY ........................................................................................ 359 PACIFIC DATA IMAGES ......................................................................... 362 FILMOGRAFIA ..................................................................................... 363 PARTE 6: LA SITUAZIONE EUROPEA ........................................... 364 COME MIGLIORARE LA COMPETITIVITÁ DEL SETTORE AUDIOVISIVO EUROPEO ............................................................................................... 365 Il contesto generale: competere sul mercato globale ............................ 365 Il finanziamento della produzione ad opera della televisione ................. 367 Le misure di sostegno ........................................................................... 368 Fondi di finanziamento mediante titoli ................................................... 369 Una rete di scuole cinematografiche e televisive in Europa .................. 371 IL PROGRAMMA MEDIA ........................................................................ 373 RISULTATI DEL PROGRAMMA MEDIA II .............................................. 376 MEDIA PLUS........................................................................................... 377 Sostegno all’industria audiovisiva ......................................................... 378 IL DIGITALE IN ITALIA ........................................................................... 382 DIMMI ...................................................................................................... 385 LA FABBRICA DELL’IMMAGINARIO..................................................... 386 John Attard in Chinatown. ..................................................................... 387 FUTURE FILM FESTIVAL ....................................................................... 391 457 IL CINEMA ITALIANO SCOPRE GLI EFFETTI DIGITALI ....................... 395 NIRVANA ................................................................................................ 399 La storia ................................................................................................ 399 La lavorazione ...................................................................................... 401 Gli interventi di Digitalia ........................................................................ 401 Effetti speciali invisibili .......................................................................... 402 PARTE 7: LA RIVOLUZIONE DIGITALE ................................................ 404 DVB E LA COMPRESSIONE VIDEO DIGITALE ..................................... 405 L'immagine digitale ............................................................................... 405 Digital Video Broadcasting .................................................................... 405 Linee TV, pixel e campioni. ................................................................... 406 Dall’analogico al digitale 4.2.2............................................................... 407 Ridurre la quantità di dati ...................................................................... 407 MPEG-2, indispensabile per il DVB....................................................... 408 Il sistema MPEG-1 ................................................................................ 409 Il sistema MPEG-2 ................................................................................ 409 Livelli e profili dell’MPEG-2 ................................................................... 410 Transpoprt Stream (TS) ........................................................................ 410 PROIETTORI DIGITALI ........................................................................... 412 Proiettori DLP ....................................................................................... 414 LA TELEVISIONE STEREOSCOPICA .................................................... 415 La scena ha tre dimensioni ................................................................... 415 Lo schermo: un componente "passivo". ................................................ 416 Il display 3D diventa intelligente. ........................................................... 417 Verso la multimedialità. ......................................................................... 419 Realtà virtuale o virtualizzata? .............................................................. 419 Europa e Giappone: competizione o cooperazione? ............................. 420 Il contributo della Fub............................................................................ 421 TERZA DIMENSIONE DELL'IMMAGINE! ............................................... 424 Il suono digitale ..................................................................................... 424 Sistemi audio utilizzati nelle sale cinematografiche ............................... 424 Dolby Digital ......................................................................................... 425 SDDS – Sony Dynamic Digital Saund ................................................... 425 DTS –Digital Theater System:............................................................... 426 Cinema Dolby Digital EX....................................................................... 426 CERTIFICAZIONE DI IMPIANTI E QUALITÁ AUDIO NELLE SALE CINEMATOGRAFICHE ........................................................................... 427 Il sistema THX per le sale cinematografiche. ........................................ 427 CSS-Cinema Sound System................................................................. 428 UN PERCORSO IN CERCA DI EFFETTI SPECIALI FRA GLI STRUMENTI DELLA TECNOLOGIA DIGITALE ........................................................... 429 CONCLUSIONI ........................................................................................ 433 Il futuro del Cinema............................................................................... 433 IL CINEMA E IL SUO VOCABOLARIO ................................................... 435 BIBLIOGRAFIA ....................................................................................... 451 458 459