CONSERVATORIO STATALE DI MUSICA “SANTA CECILIA”, ROMA DIPLOMA SPERIMENTALE DI II LIVELLO IN COMPOSIZIONE PER LA MUSICA APPLICATA IL SONORO NEI VIDEOGIOCHI CARATTERISTICHE, TECNICHE COMPOSITIVE E UN ESEMPIO PRATICO Relatore: M˚ ANTONIO DI POFI Candidato: FRANCESCO DEL PIA Matricola 1769 BN ANNO ACCADEMICO 2013/2014 A Matilde, la mia famiglia, i miei Maestri INDICE i Indice I Perché studiare il sonoro dei videogiochi 1 Il videogioco come mezzo di espressione 2 1.1 Interattività e iteratività . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2 La sospensione dell’incredulità . . . . . . . . . . . . . . . . . . . . 4 1.3 Videogiochi come forma d’arte . . . . . . . . . . . . . . . . . . . . 6 1.3.1 8 L’esposizione al MoMA . . . . . . . . . . . . . . . . . . . . 2 Alcune difficoltà 13 2.1 La censura di alcuni titoli impegnati . . . . . . . . . . . . . . . . . 13 2.2 I titoli che presentano violenza . . . . . . . . . . . . . . . . . . . . 15 3 Il sonoro nei videogiochi 16 3.1 Il successo delle colonne sonore . . . . . . . . . . . . . . . . . . . . 17 3.2 Pubblicazioni, documentari, fiere e corsi . . . . . . . . . . . . . . . 20 3.3 La richiesta di compositori . . . . . . . . . . . . . . . . . . . . . . . 22 4 Conclusioni II 2 25 L’audio dinamico 27 5 Sonoro interattivo e adattativo 27 6 Alcune difficoltà dell’audio dinamico 30 6.1 La durata del gameplay . . . . . . . . . . . . . . . . . . . . . . . . 31 6.2 L’affaticamento uditivo . . . . . . . . . . . . . . . . . . . . . . . . . 31 6.3 I giochi multiplayer . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 7 Le categorie di interventi musicali 34 7.1 Interventi principali . . . . . . . . . . . . . . . . . . . . . . . . . . 34 7.2 Ambient tracks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 7.3 Stinger 35 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . INDICE ii 8 La non linearità nei videogiochi 35 8.1 La non linearità nell’audio . . . . . . . . . . . . . . . . . . . . . . . 37 8.2 Le transizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 8.2.1 I metodi tradizionali . . . . . . . . . . . . . . . . . . . . . . 39 8.2.2 L’utilizzo del MIDI nelle transizioni . . . . . . . . . . . . . 40 9 Dieci metodi di variazione nella musica dinamica 41 9.1 Variazioni di tempo . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 9.2 Variazioni di pitch e trasposizioni . . . . . . . . . . . . . . . . . . . 42 9.3 Variazioni di ritmo e metrica . . . . . . . . . . . . . . . . . . . . . 43 9.4 Variazioni di volume . . . . . . . . . . . . . . . . . . . . . . . . . . 43 9.5 Variazioni di DSP . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 9.6 Variazioni di temi (generazione algoritmica) . . . . . . . . . . . . . 44 9.7 Variazioni di armonie . . . . . . . . . . . . . . . . . . . . . . . . . . 45 9.8 Variazioni di mix (layering) . . . . . . . . . . . . . . . . . . . . . . 46 9.9 Variazioni della forma (forma aperta) . . . . . . . . . . . . . . . . 47 9.10 Variazioni della forma (matrici di transizioni) . . . . . . . . . . . . 49 9.11 Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 III Il team di sviluppo e i mezzi a disposizione 10 I ruoli nella divisione audio 53 53 10.1 Sound director . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 10.2 Compositore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 10.3 Sound designer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 10.4 Doppiatori e dialogue director . . . . . . . . . . . . . . . . . . . . . 54 10.5 Licensing directors . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 10.6 Audio programmers . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 11 Le funzionalità dell’audio engine 55 11.1 L’internal looping . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 11.2 Il sideways crossfade . . . . . . . . . . . . . . . . . . . . . . . . . . 56 11.3 Istruzioni beat-synchronous . . . . . . . . . . . . . . . . . . . . . . 56 11.4 L’effetto di ducking . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 11.5 Il permutation weighting . . . . . . . . . . . . . . . . . . . . . . . . 57 INDICE iii 12 La dipendenza dalla tecnologia 58 IV Il processo di produzione 59 13 Premessa 59 14 Pre-produzione 60 14.1 L’audio design document . . . . . . . . . . . . . . . . . . . . . . . . 60 14.2 La creazione di una temp track . . . . . . . . . . . . . . . . . . . . 60 14.3 Il sonoro nel gameplay . . . . . . . . . . . . . . . . . . . . . . . . . 61 14.4 Spotting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 14.5 La cue list e la emotion map . . . . . . . . . . . . . . . . . . . . . 61 14.6 La progettazione del sound design . . . . . . . . . . . . . . . . . . 63 14.7 La progettazione dei suoni d’ambiente . . . . . . . . . . . . . . . . 64 14.8 L’asset list finale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 14.9 Considerazioni tecniche . . . . . . . . . . . . . . . . . . . . . . . . 65 14.10Tabella di marcia e preventivo 66 . . . . . . . . . . . . . . . . . . . . 15 Produzione 66 15.1 Composizione e registrazione . . . . . . . . . . . . . . . . . . . . . 66 15.2 La realizzazione del sound design . . . . . . . . . . . . . . . . . . . 67 15.3 L’utilizzo di DSP in tempo reale . . . . . . . . . . . . . . . . . . . 67 15.4 Dialoghi e voce fuori campo . . . . . . . . . . . . . . . . . . . . . . 68 15.5 Localizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 15.6 L’integrazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 15.6.1 L’utilizzo di middleware per l’integrazione . . . . . . . . . . 74 15.7 Il posizionamento dei suoni nel panorama surround . . . . . . . . . 75 15.8 Il mastering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 16 Post-produzione 78 16.1 Il missaggio in tempo reale . . . . . . . . . . . . . . . . . . . . . . 79 16.2 La necessità di un audio engine intelligente . . . . . . . . . . . . . 81 17 Conclusioni 17.1 Una ridefinizione del concetto di “autore” . . . . . . . . . . . . . . 83 84 INDICE V Un esempio pratico: Drowning in Problems iv 85 18 L’approccio da executive producer 85 19 Il gioco 86 20 Il porting 87 21 L’organizzazione del sonoro 88 21.1 L’utilizzo di Wwise . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 21.2 Le musiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 21.2.1 Composizione . . . . . . . . . . . . . . . . . . . . . . . . . . 90 21.2.2 Il montaggio delle musiche in Wwise . . . . . . . . . . . . . 95 21.3 Gli effetti sonori . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 21.3.1 Il montaggio degli effetti sonori in Wwise . . . . . . . . . . 101 21.4 Missaggio e mastering . . . . . . . . . . . . . . . . . . . . . . . . . 102 21.4.1 Routing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 21.4.2 Effetti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 21.4.3 RTPC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 21.4.4 Missaggio dinamico . . . . . . . . . . . . . . . . . . . . . . . 104 21.4.5 Mastering . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 22 L’implementazione 106 23 Esportazione 107 24 Considerazioni finali 107 24.1 Considerazioni sullo sviluppo in Unity . . . . . . . . . . . . . . . . 107 24.2 Considerazioni sull’utilizzo di Wwise . . . . . . . . . . . . . . . . . 108 VI Conclusioni 109 VII Glossario 110 VIII Bibliografia e sitografia 114 Premessa: l’utilizzo di termini inglesi In questa analisi viene utilizzato un gran numero di termini in lingua inglese. L’autore ha scelto di mantenerli in questa lingua in quanto sono ormai di uso comune anche in Italia e spesso risultano difficilmente traducibili senza ricorrere ad approssimazioni. Ogni termine straniero è comunque corredato, alla sua prima comparsa, da una nota di traduzione e spiegazione del significato tecnico; in appendice è presente un glossario che elenca i termini di uso più frequente. 2 Parte I Perché studiare il sonoro dei videogiochi Questo elaborato si pone l’obiettivo di studiare il sonoro dei videogiochi sia dal punto di vista compositivo e realizzativo, sia da quello informatico e tecnologico. L’argomento può sembrare esotico, motivo per cui l’autore ha sentito la necessità di chiarire, in questa prima parte, le ragioni che lo hanno spinto ad affrontare una trattazione su tale soggetto. L’obiettivo di questa introduzione è anche quello di fornire al lettore meno informato una panoramica sullo stato dell’industria dei videogiochi, per sfatare (se ce ne fosse il bisogno) alcuni pregiudizi che, come vedremo, risultano radicati nella cultura di massa e talvolta rischiano di ostacolare le possibilità espressive dei video games. 1 Il videogioco come mezzo di espressione Non penso che mi crederete quando dico che volevo realizzare un film, e visto che il mio sogno non si è realizzato sono entrato nell’industria dei videogiochi. All’epoca c’era solo la pixel art 1 con 16 colori e suoni che facevano “bip”, i personaggi non avevano un volto e non esisteva una narrazione. Ma ero convinto che un giorno questo media sarebbe diventato simile al cinema, ed è per questo motivo che ho continuato, ma non mi sarei mai aspettato che il livello di espressione avrebbe raggiunto quello cinematografico cosı̀ in fretta. È stato un felice errore di valutazione per me. 1 La pixel art è una forma d’arte digitale che prevede la realizzazione di un’immagine attraverso l’inserimento manuale di ogni singolo pixel. A causa delle limitazioni imposte dai dispositivi elettronici più datati, era una pratica obbligata nel processo di realizzazione dei primi videogiochi. 1.1 Interattività e iteratività 3 Il primo e più importante argomento su cui è necessario richiamare l’attenzione è il fatto che il videogioco, come risulta chiaro dalle parole di Hideo Kojima2 , sia a tutti gli effetti un nuovo mezzo d’espressione, cosı̀ come lo sono il cinema, la letteratura, il teatro e via dicendo3 . A differenza però di quanto accade per i sistemi narrativi classici, nei videogiochi il giocatore può compiere attivamente delle scelte che lo fanno procedere secondo modalità di percorso spesso multilineari. 1.1 Interattività e iteratività L’interattività, intesa come la capacità dell’utente di modificare la propria esperienza di gioco utilizzando i controlli a disposizione, è la caratteristica principe di questo media, che lo rende differente e unico rispetto a tutti gli altri mezzi di espressione che conosciamo. Questo comporta che ogni esperienza di gioco risulti differente non solo da giocatore a giocatore, ma anche per il singolo utente che decide di giocare nuovamente un certo episodio per rivivere l’esperienza, scoprire dettagli che aveva inizialmente tralasciato, collezionare nuovi oggetti, oppure semplicemente migliorare i propri risultati. È questo il concetto di iteratività, ovvero di ripetizione con sperimentazione, che rende il gioco una sorta di “dispositivo didattico, una macchina per imparare”4 , citando Matteo Bittanti5 . Come vedremo più avanti nel corso della trattazione e in particolare nella sezione 17.1 a pagina 84, le caratteristiche di interattività e iteratività portano a riconsiderare il concetto di autore 2 Hideo Kojima (Tokyo, 1963) è un autore di videogiochi, scrittore e designer giapponese. Tra i videogiochi da lui realizzati spicca la saga di Metal Gear. È stato inoltre vicepresidente della software house Konami, prima di abbandonarla per fondare la Kojima Productions. 3 Si può riscontrare una speciale affinità con l’arte cinematografica in particolare: nel corso della trattazione avremo modo di indagare i punti di contatto, cosı̀ come le differenze, comparando gli aspetti storici, estetici, tecnici, narrativi, e ovviamente sonori. 4 Quest’ultima peculiarità è assimilabile allo studio di uno brano musicale, dove la ripetizione consente all’esecutore di comprendere meglio il pezzo e di affinare la tecnica necessaria per suonarlo correttamente. 5 Matteo Bittanti, anche noto come MBF (Milano, 1975), è uno scrittore, giornalista, docente e ricercatore universitario italiano. È conosciuto soprattutto per i suoi saggi riguardanti il mondo videoludico e per le sue rubriche in alcune riviste del settore e nei siti internet, dove è soprannominato Il Filosofo. 1.2 La sospensione dell’incredulità 4 comprendendo in esso anche il ruolo del giocatore, sia a livello del gioco in generale, sia a livello musicale, visto che anche il sonoro viene influenzato dalle sue scelte. Per ora limitiamoci comunque a introdurre i principi basilari, per poter affrontare una simile discussione quando avremo più elementi a nostra disposizione. 1.2 La sospensione dell’incredulità Come accade ad esempio nel teatro e nell’opera, durante il gioco si ha una sospensione dell’incredulità 6 . Nel teatro lo spettatore non ha alcun problema ad accettare comportamenti innaturali che spesso sono necessari per la fruizione dell’opera stessa (come ad esempio il fatto che i personaggi, entrando in scena, si dispongano in una fila orizzontale per essere visibili dal pubblico); allo stesso modo nei videogiochi il giocatore è consapevole di trovarsi di fronte ad uno schermo, e nonostante questo si immerge in un’esperienza ludica determinata dalle elaborazioni di una macchina elettronica. Figura 1: Una scena di Uncharted 4: A Thief ’s End, Naughty Dog, 2015 Questa sospensione è sempre più facilitata dal crescente realismo con cui gli elementi visivi e uditivi vengono rappresentati nei videogiochi. Le console 6 Il riferimento è alla suspension of disbelief di cui parla S.T. Coleridge nel 1817: si tratta della volontà, da parte del lettore o dello spettatore o in questo caso del giocatore, di sospendere le proprie facoltà critiche allo scopo di ignorare le incongruenze secondarie e godere di un’opera di fantasia. 1.2 La sospensione dell’incredulità 5 attuali consentono agli sviluppatori di ricreare nei dettagli sia le ambientazioni più realistiche, sia i tratti somatici, le espressioni facciali (vedi figura 1) e le movenze dei personaggi tramite tecniche come il motion capture 7 . L’esperienza di gioco diventerà ancora più immersiva negli anni a venire, con l’affermazione e la diffusione di dispositivi per la realtà virtuale come, tra gli altri, Oculus Rift8 (vedi figura 2). Se questo genere di dispositivi avrà il successo che ci si aspetta9 (la stessa Sony sta lavorando ad un visore dal nome in codice Project Morpheus che verrà distribuito come accessorio della sua attuale console domestica, la PlayStation 4), anche il comparto audio subirà profonde innovazioni e potrà godere di un maggiore grado di immersione grazie alle cuffie integrate nella periferica, che permetteranno l’utilizzo dell’audio binaurale e altri sistemi di diffusione per localizzare precisamente il sonoro nell’ambiente tridimensionale. Figura 2: Il secondo prototipo di Oculus Rift (DK2, 2014) 7 Il motion capture è la registrazione del movimento del corpo umano o di altri movimenti. L’attore indossa un vestito ricoperto da alcuni marcatori, le cui coordinate vengono costantemente inviate al computer grazie ad una serie di telecamere poste intorno a lui; sul computer viene quindi visualizzata un’immagine stilizzata dell’attore che riproduce digitalmente i suoi movimenti. 8 Oculus Rift è uno schermo da indossare sul viso (in inglese HMD, head-mounted display) per la realtà virtuale. Nel 2014 Oculus VR, la società che lo sviluppa, è stata acquistata da Facebook. 9 La tecnologia attuale dovrebbe essere quasi pronta per la produzione di un simile dispositivo. Non lo era di certo nel 1995, quando Nintendo produsse una console con visore stereoscopico, il Virtual Boy, con esiti disastrosi: fu un totale fallimento, anche perché l’uso prolungato poteva causare senso di fastidio e di nausea, convulsioni e disturbi visivi. 1.3 1.3 Videogiochi come forma d’arte 6 Videogiochi come forma d’arte Data anche la sua breve storia, definire il videogioco una nuova forma d’arte è forse prematuro10 : la questione è fonte di accesi dibattiti che in questa sede non verranno trattati in modo approfondito perché non inerenti all’argomento centrale11 . Certo è che questo dibattito ricorda quelle stesse discussioni che accompagnarono i primi anni di storia della fotografia e del cinema, attualmente riconosciute unanimemente come arti, e non è un caso che entrambe si basassero su innovazioni tecnologiche (rispettivamente la macchina fotografica e la cinepresa). Il riconoscimento del videogioco come espressione artistica sembra ripercorrere la stessa strada, disseminata di scetticismi e luoghi comuni su un mezzo che è sicuramente giovane ma che ha già saputo ampiamente dimostrare le sue potenzialità. Certo è che per capirle e apprezzarle bisogna sapere quali titoli prendere in considerazione: non dobbiamo dimenticare infatti che si tratta pur sempre di un’industria (cosı̀ ricca che nel 2007 ha superato come volume d’affari quella musicale), e che in quanto tale è molto interessata al profitto dei suoi prodotti, talvolta a scapito dell’originalità stilistica. Il paragone con il cinema si dimostra anche qui calzante: parallelamente ai titoli “commerciali” esiste anche un buon numero di videogiochi d’autore, dove si può facilmente riconoscere l’impronta della personalità del game designer. Sono questi in particolare i titoli più interessanti dal punto di vista stilistico, perché si spingono talvolta in territori inesplorati, portando innovazioni che ridefiniscono il concetto stesso di videogioco, allargandone gli orizzonti. Alle volte si tratta di titoli per i quali l’appellativo di “gioco” risulta riduttivo e fuorviante: spesso infatti fanno riflettere più di quanto facciano divertire, si basano sulla trama o sull’introspezione psicologica più di quanto diano spazio all’azione. Di recente, ad esempio, sono usciti alcuni titoli che aiutano il giocatore a gestire, riconoscere e combattere i propri problemi e 10 Alcuni rinomati siti statunitensi specializzati in tecnologia e video games come The Verge e Polygon non hanno invece alcun dubbio a riguardo e considerano i videogiochi una nuova forma d’arte a tutti gli effetti. 11 Per chi invece volesse approfondire, si rimanda alla documentata voce su Wikipedia inglese Video games as an art form (en.wikipedia.org/wiki/Video games as an art form). 1.3 Videogiochi come forma d’arte 7 paure: Actual Sunlight (Will O’Neill, 2014) esplora il tema della depressione e dell’istinto suicida, Neverending Nightmares (Infinitap Games, 2014) è un gioco horror psicologico che tratta del disturbo ossessivo-compulsivo, l’italiano Sym (Atrax Games, 2015) riguarda l’ansia sociale, e lo stesso Drowning in Problems (Markus Persson, 2014), di cui parleremo approfonditamente nella parte V a pagina 85, affronta il tema della vita, della crescita e delle delusioni. Figura 3: La copertina di Ico (2001) di Fumito Ueda con Team Ico Come nel cinema ci sono autori del calibro di Woody Allen, Alfred Hitchcock, Stanley Kubrick, Francis Ford Coppola, Wes Anderson, Ridley Scott (per citarne una minima parte), nei videogiochi troviamo dei nuovi pionieri di un tipo diverso di esperienza, che unisce agli aspetti grafici e sonori quelli dell’interazione, in Fumito Ueda (vedi figura 3), Jenova Chen, Hideo Kojima, Markus Persson, Peter Molyneux, Shigeru Miyamoto, Jonathan Blow, Phil Fish, Sid Meier, Yu Suzuki, Tim Schafer, Atsushi Inaba, Hironobu Sakaguchi12 e in una serie di autori minori e indipendenti, ancora poco 12 Hironobu Sakaguchi (Hitachi, Giappone, 1962) è un autore di videogiochi e regista giapponese. È famoso per aver creato la serie di videogiochi Final Fantasy, di cui ha curato i primi dieci capitoli. Nel 2004 ha fondato la compagnia di sviluppo Mistwalker. 1.3 Videogiochi come forma d’arte 8 conosciuti, che stanno rivoluzionando il mercato con le loro idee innovative e sperimentali. Non penso di essere bravo a creare giochi d’azione. Preferisco narrare storie. Hironobu Sakaguchi, da Beyond Final Fantasy, 2002 Alcune importanti istituzioni negli ultimi anni hanno preso consapevolezza del ruolo che possono ricoprire i video games nel campo dell’arte e del design, riconoscendo loro un forte valore culturale e sociale. L’esposizione al MoMA è sicuramente l’avvenimento che in tempi recenti ha fatto più parlare di sè, data l’importanza del museo e le controversie sull’argomento. 1.3.1 L’esposizione al MoMA Nel 2012 Paola Antonelli13 ha acquisito 14 videogiochi per esporli nell’ala dedicata ad Architettura e Design del MoMA. La sua decisione, nonostante non fosse la prima di questo tipo (già dalla fine degli anni ‘80 alcuni musei ospitavano retrospettive sui videogiochi14 ), ha causato, com’era prevedibile, una lunga serie di polemiche. Alcuni detrattori sostenevano che i giochi non avrebbero mai potuto essere arte perché erano qualcos’altro: righe di codice15 . Antonelli ha replicato alle accuse dicendo che le premesse erano sbagliate: C’è questo problema che riguarda il design, che viene spesso confuso con l’arte, o l’idea che i designer vorrebbero essere considerati artisti. No. I designer aspirano soltanto ad essere grandi designer. 13 Paola Antonelli (Sassari, 1963) è una designer e architetto italiana, curatrice del Dipartimento di Architettura e Design e direttrice di Ricerca e Sviluppo presso il Museum of Modern Art (MoMA) di New York. Secondo la rivista Art Review è una delle cento persone più potenti del mondo dell’arte. 14 Un esempio è l’esposizione del 1989 Hot Circuits: A Video Arcade presso il Museum of the Moving Image di New York. 15 Questa osservazione è senza dubbio profondamente ingenua, perché giudica il mezzo e non il risultato ottenuto: sarebbe come dire che il cinema non può essere arte perché si tratta soltanto di pellicola, o che la letteratura sia meramente inchiostro su carta. 1.3 Videogiochi come forma d’arte 9 La collezione comprende titoli molto conosciuti come Pac-Man (1980), Tetris (1984, vedi figura 4) e The Sims (2000) cosı̀ come giochi meno popolari tra i non addetti ai lavori16 . Questi titoli rappresentano il nucleo iniziale di una collezione che andrà espandendosi negli anni a venire. Sono stati scelti in quanto esempi eccezionali di interaction design, un campo che il MoMA ha già largamente esplorato, e una delle più importanti e discusse espressioni di creatività nel design di oggi. I criteri di scelta si basano non solo sull’esperienza visuale ed estetica del gioco, ma anche su altri aspetti - dall’eleganza del codice al design del comportamento del giocatore - che appartengono tipicamente al campo dell’interaction design. Cosı̀ come accade per tutti gli altri oggetti di design esposti al MoMA (dai poster alle sedie, dalle auto ai caratteri tipografici), i curatori cercano una combinazione di rilevanza storica e culturale, espressione estetica, validità funzionale e strutturale, un approccio innovativo alla tecnologia e al comportamento, e una sintesi riuscita di materiali e tecniche per raggiungere il risultato inizialmente preposto. Queste considerazioni sono valide sia che si stia parlando di uno sgabello o di un elicottero, sia che l’oggetto in questione sia invece un videogioco, in cui il linguaggio di programmazione prende il posto del materiale costruttivo, e la qualità dell’interazione rappresenta nel contesto digitale ciò che la sintesi di forma e funzione rappresenta in quello fisico. Nella scelta dei titoli da acquisire, Antonelli e il MoMA lavorano con video game designer e accademici su quattro criteri fondamentali: comportamento, spazio, estetica e tempo. • il comportamento. Le sceneggiature, le regole, gli stimoli, gli incentivi e la narrazione prendono vita nei comportamenti che questi incoraggiano e suggeriscono al giocatore, che può effettuare delle scelte attraverso l’uso di un controller17 . Un videogioco con un preciso sco16 Oltre ai tre titoli citati, gli altri attualmente acquisiti dal MoMA sono Another World (1991), Myst (1993), SimCity 2000 (1994), vib-ribbon (1999), Katamari Damacy (2004), EVE Online (2003), Dwarf Fortress (2006), Portal (2007), flOw (2006), Passage (2008), Canabalt (2009), Pong (1972), Space Invaders (1978), Asteroids (1979), Tempest (1981), Yar’s Revenge (1982) e Minecraft (2011). A questi si aggiunge la console Magnavox Odyssey (1972). 17 Il controller è un dispositivo plug-in per sistemi di intrattenimento, usato per fornire 1.3 Videogiochi come forma d’arte 10 Figura 4: Tetris (1984) di Aleksej Pažitnov po può servire ad istruire ed educare, indurre emozioni, provare nuove esperienze, immaginare un mondo alternativo. • l’estetica. L’intenzione visiva è un aspetto importante, specialmente quando si tratta di effettuare una selezione per la collezione di un museo. Come in altre forme di design, l’eleganza formale ha manifestazioni differenti che variano in base alla tecnologia a disposizione. La grazia asciutta e pixelata 18 di giochi datati come M.U.L.E. e Tempest può essere quindi posta sullo stesso livello e comparata con la fluidità dei più recenti flOw (vedi figura 5) e vib-ribbon. Proprio come nel mondo reale, i designer particolarmente inventivi e innovativi eccellono nell’utilizzare le limitazioni della tecnologia per accrescere l’identità di un gioco. l’input in un videogioco. È tipicamente connesso a una console o a un computer da un cavo o da una connessione senza fili. La funzione principale di un controller è di governare un movimento/azione di un corpo/oggetto giocabile o comunque influenzato da eventi in un videogioco. 18 Immagine digitale che assume un aspetto quadrettato. 1.3 Videogiochi come forma d’arte 11 Figura 5: flOw (2006) di thatgamecompany • lo spazio. Lo spazio in cui un gioco esiste e si evolve - costruito con righe di codice piuttosto che con mattoni e malta - è un’architettura pianificata e costruita in base a un programma preciso, che talvolta spinge la tecnologia ai suoi limiti per creare nuovi livelli di libertà espressiva e dimensionale. Cosı̀ come nella realtà, questo spazio può essere occupato individualmente o in gruppi. A differenza delle costruzioni fisiche, invece, i videogiochi possono definire nuove logiche spaziali e gravitazionali, fornendo inedite esperienze come il teletrasporto (ad esempio in Portal ) e l’ubiquità. • il tempo. L’interaction design è per sua natura dinamico, e il modo in cui la dimensione del tempo è espressa nel gioco è una scelta cruciale. L’esperienza di gioco può durare cinque minuti (come in Passage, vedi figura 6) o diversi anni, come in Dwarf Fortress. Il tempo nel gioco può scorrere come nella realtà oppure ad una velocità diversa (come in Animal Crossing). Figura 6: Passage (2007) di Jason Rohrer 1.3 Videogiochi come forma d’arte 12 Il primo passo per la conservazione di questi giochi è stato quello di ottenere delle copie nel loro supporto originale (cartucce o dischi) e l’hardware dove poterli eseguire (console o computer) quando possibile. Per poter preservare i giochi, il MoMA cerca anche di acquisire il codice sorgente nel linguaggio in cui era stato originariamente scritto, in modo che possa essere traducibile nel caso in cui la tecnologia originaria diventasse obsoleta. Oltre a questo, il MoMA richiede anche la documentazione tecnica e possibilmente gli appunti del programmatore sul codice. Programmare è infatti un processo creativo e personale: intervistare i designer e chiedere loro commenti e note sul loro lavoro rende la conservazione e la futura emulazione più semplici, fornendo al tempo stesso materiale per la mostra e per future ricerche sull’argomento. È piuttosto avvilente constatare come tra i parametri guida del MoMA nell’acquisizione dei titoli non venga preso in considerazione - anzi, non venga nemmeno citato - tutto ciò che ha a che fare con l’audio. Come dimostreremo in questa trattazione, non mancano di certo esempi di videogiochi in cui l’aspetto sonoro ricopre un ruolo fondamentale per la buona riuscita del prodotto, e spesso anzi influisce e determina il comportamento del giocatore diventando un elemento alla base del gameplay 19 . Questa “leggerezza” del MoMA è inaccettabile al punto da mettere in dubbio i criteri logici di scelta dei titoli e soprattutto l’onestà intellettuale alla base dell’operazione stessa, in quanto evidenzia una certa superficialità sull’argomento. Sicuramente il riconoscimento dei videogiochi da parte di un’istituzione del calibro del MoMA è un passo di fondamentale importanza, ma c’è da chiedersi quanto questa operazione sia effettivamente sincera e quanto sia invece motivata da fini sensazionalistici e pubblicitari. Come abbiamo riportato nell’introduzione al capitolo, infatti, l’apertura della mostra ha generato numerose polemiche facendo parlare molto di sè. Nonostante sia legittimo avere dei dubbi su questa operazione, si tratta comunque di un grosso passo in avanti verso una presa di coscienza collettiva sull’importanza e il valore che ricoprono i videogiochi nel panorama artistico contemporaneo. 19 Con il termine gameplay si intende, in senso generico, l’esperienza di gioco. 2 Alcune difficoltà 2 13 Alcune difficoltà Nonostante il riconoscimento del valore che possono avere i videogiochi da parte di un’istituzione cosı̀ importante e il crescente interesse del pubblico a guardare con occhio diverso il panorama videoludico, alcuni titoli non hanno sempre vita facile. 2.1 La censura di alcuni titoli impegnati È il caso della censura. Apple, una società che come vedremo approfonditamente nella sezione 3.3 ha avuto e sta avendo un’importanza cruciale nel mercato di un certo tipo di applicazioni e giochi, ha delle linee guida piuttosto restrittive e limitanti alle quali gli sviluppatori devono sottostare previa l’approvazione del loro prodotto per la distribuzione nel suo App Store: Guardiamo alle App in modo differente rispetto ai libri o alle canzoni, che non curiamo. Se hai intenzione di criticare una religione, scrivi un libro. Se vuoi parlare di sesso, scrivi un libro o una canzone, oppure crea una App medica. Può risultare complicato, ma abbiamo deciso di non consentire alcuni tipi di contenuti nell’App Store. da App Store Review Guidelines Dal punto di vista legale, Apple ha il diritto di escudere ciò che vuole dal suo negozio perché si tratta di una piattaforma privata, ma dicendo agli sviluppatori che non possono trattare certi argomenti limita fortemente la libertà di espressione di questo mezzo, negandogli le possibilità di cui invece godono, tra gli altri, libri e canzoni. A causa di queste imposizioni, alcuni titoli impegnati che trattano di soggetti controversi come la guerra civile in Siria20 o i suicidi alla Foxconn21 non sono stati approvati e hanno fatto sorgere importanti domande sul ruolo dei videogiochi, che in questi casi non era solo intrattenimento ma anche sensibilizzazione e informazione del pubblico in maniera diversa dal consueto. Gli 20 21 Endgame: Syria (GameTheNews, 2012). In a Permanent Save State (Benjamin Poynter, 2012). 2.1 La censura di alcuni titoli impegnati 14 sviluppatori dei due titoli in questione sostengono che questi rifiuti siano un modo per negare ai videogiochi lo status culturale di media capace di affrontare anche argomenti seri ed impegnati, e sono fortemente convinti che la situazione debba cambiare. Tomas Rawlings, il creatore di Syria: Endgame, sostiene che “Il tipo di media dovrebbe essere irrilevante, è il contenuto che conta”. Jonathan Blow22 sostiene che la colpa sia da imputare agli sviluppatori superficiali: “Se avessimo costruito un mondo dove i video games hanno a che fare costantemente con argomenti impegnati in un modo che interessa alla gente, Apple non potrebbe prendere questa posizione, perché non avrebbe alcun senso. [Apple tratta i videogiochi come] esperienze di intrattenimento commerciali e superficiali”. L’argomentazione di Blow punta implicitamente il dito anche contro i cosiddetti giochi AAA23 , che nonostante i budget stellari di cui possono usufruire si basano spesso su meccaniche di gioco già ampiamente collaudate e falliscono nel creare un prodotto innovativo o con aspirazioni artistiche. Anche se altri distributori agiscono con politiche differenti e ben più permissive (vedi ad esempio Google), Apple ha un enorme potere sul mercato, e la sua decisione di non consentire giochi controversi porta a delle conseguenze nelle scelte degli sviluppatori, visto che vengono loro negate di partenza importanti possibilità espressive. I piccoli sviluppatori in cerca di successo puntano spesso sul mercato mobile 24 , e la censura di Apple rischia di creare un ecosistema di applicazioni molto simili tra loro (se non proprio cloni) e frivole, dove la vera innovazione non è consentita. Da un certo punto di vista, Apple sta negando ai videogiochi la possibilità di evolversi e di essere riconosciuti, facendo diventare il mondo dei video games non quello che avrebbe potuto essere, ma quello che in molti si aspettano che sia. 22 Jonathan Blow (1971) è un video game designer indipendente americano. È conosciuto soprattutto per aver creato Braid nel 2008: il titolo è stato accolto con recensioni entusiastiche ed ha avuto molto successo, contribuendo a formare e definire la nuova corrente indie dei videogiochi. La sua storia personale è raccontata nel documentario Indie Game: The Movie (James Swirsky e Lisanne Pajot, 2012). 23 I giochi AAA (triple A in inglese) sono quelli con i budget più alti per lo sviluppo e la promozione. Si tratta quindi, nella maggior parte dei casi, di giochi molto curati sotto l’aspetto tecnico e con alte prospettive di vendita. 24 Per videogiochi mobile si intendono quei titoli destinati alle console portatili o, come in questo caso, agli smartphone. 2.2 2.2 I titoli che presentano violenza 15 I titoli che presentano violenza Questa analisi sarebbe però parziale se non considerassimo l’altro lato della medaglia, ovvero come deve comportarsi la censura di fronte a titoli espressamente violenti. Hatred (Destructive Creations, 2015) ad esempio è un videogioco che ha fatto molto parlare di sè negli ultimi mesi per la sua estrema brutalità. La meccanica di gioco è semplice: il giocatore controlla un assassino che odia l’umanità e deve uccidere quante più persone possibile. Il mio nome non è importante. Ciò che è importante è quello che sto per fare. . . Odio profondamente questo mondo. E gli uominivermi che banchettano sulla sua carcassa. Tutta la mia vita è soltanto odio, freddo e amaro. E ho sempre voluto morire in modo violento. Questo è il momento della vendetta e nessuna vita merita di essere risparmiata. Ucciderò quanta più gente possibile. È tempo di uccidere. Ed è tempo che io muoia. La mia crociata di genocidio comincia qui. Stando alle parole dei suoi sviluppatori, Hatred vuole porsi in controtendenza rispetto alle caratteristiche diffuse in molti giochi usciti negli ultimi anni, che spesso sono votati all’educazione, presentano colori sereni, sono politically correct o aspirano ad essere una forma d’arte. Su Steam Greenlight 25 il gioco era stato rimosso da Valve stessa, per essere reinserito poco dopo. Il 29 dicembre 2014 gli utenti, attraverso il loro voto, hanno acconsentito alla distribuzione del titolo nel negozio di Steam 26 (uscirà nel secondo quadrimestre del 2015). Il video game ha generato un acceso dibattito tra i giocatori: le due posizioni principali vedono opporsi chi è contrario a un gioco cosı̀ ingiustificatamente violento, che potrebbe turbare i giocatori o istigare all’emulazione (oltre a essere di cattivo gusto), e chi invece sostiene che titoli di questo tipo esistono da sempre (su Steam stesso, vedi ad esempio Postal 27 ) 25 Steam Greenlight è un sistema che permette agli utenti di Steam, una popolare piattaforma di distribuzione di videogiochi su computer sviluppata da Valve Corporation, di votare per decidere quali titoli meritino di essere aggiunti al catalogo. 26 Vedi nota 25. 27 In Postal (Running With Scissors, 1997) il giocatore impersona un normale cittadino improvvisamente impazzito che decide di uccidere chiunque gli capiti a tiro. 3 Il sonoro nei videogiochi 16 e che Hatred deve essere inteso come una forma di protesta degli sviluppatori e come un mezzo di sfogo per il videogiocatore. In questo caso Valve, dopo aver inizialmente respinto il gioco, ha deciso di lasciare agli utenti di Steam il compito di decidere se il titolo meriti di essere distribuito attraverso le votazioni su Greenlight, il servizio creato appositamente per promuovere o meno i giochi degli sviluppatori più piccoli. Questioni di questo genere sono all’ordine del giorno a causa di due principali fattori. In primo luogo, come abbiamo ampiamente discusso, i videogiochi hanno una caratteristica immersiva unica che permette al giocatore di immedesimarsi nel personaggio molto più di quanto accada con un libro o un film, in quanto sono le sue azioni a determinare ciò che succede nell’avventura. In secondo luogo, il pubblico dei videogiochi è mediamente molto giovane, e nonostante ogni gioco abbia un’indicazione del target di età a cui è rivolto (in Europa è diffuso il sistema PEGI28 ) nella maggior parte degli stati questo non è imponibile per legge29 . Le conseguenze dei videogiochi sul comportamento degli utenti sono un argomento di ricerca e discussione estremamente importante e sentito, oggetto di numerosi studi. Vista la complessità e la vastità dell’argomento si è scelto di non entrare nello specifico in questa trattazione30 . 3 Il sonoro nei videogiochi Dopo una necessaria panoramica sullo stato dei videogiochi, le loro caratteristiche, potenzialità e limiti, questa parte introduce l’argomento centrale 28 Il Pan European Game Information (PEGI) è il metodo di classificazione valido su tutto il territorio europeo usato per classificare i videogiochi attraverso cinque categorie di età (3, 7, 12, 16 e 18 anni) e otto descrizioni di contenuto (turpiloquio, sesso/nudità, discriminazione, violenza, droga, gioco d’azzardo, paura, gioco in rete). È in uso da aprile 2003. 29 In Europa fanno eccezione Finlandia, Norvegia, Paesi Bassi, Regno Unito e parzialmente l’Austria. 30 Per chi volesse approfondire l’argomento, si consiglia la lettura dell’articolo aneddotico su Wikipedia italiana Controversie nei videogiochi (it.wikipedia.org/wiki/Controversie nei videogiochi) e soprattutto di quello su Wikipedia inglese Video game controversies (en.wikipedia.org/wiki/Video game controversies), quest’ultimo molto dettagliato e con una ricca bibliografia. 3.1 Il successo delle colonne sonore 17 della trattazione, ovvero il sonoro dei videogiochi con particolare attenzione alla musica. 3.1 Il successo delle colonne sonore [. . . ] una cosa sembra essere chiara oggi: la musica per videogiochi è diventata popolare. Anche se ha soltanto eguagliato o, alle volte, superato - la qualità della musica offerta da altre industrie dell’intrattenimento, è difficile negare la crescita della popolarità della musica per videogiochi, la sua portata globale e la sua influenza culturale. Questo è stato dimostrato più volte dai dati di vendita delle colonne sonore, dai concerti che hanno registrato il tutto esaurito (come Video Games Live e di recente Symphonic Legends London con la London Symphony Orchestra al Barbican31 ) e [. . . ] dal recente ingresso delle colonne sonore per video games nella Hall of Fame di Classic FM. L’opinione di James Hannigan, espressa in James Hannigan on video game music: is it art? Part 1, è incontrovertibile. La musica per videogiochi è diventata cosı̀ popolare che un artista del calibro di Paul McCartney ha recentemente scritto a titolo gratuito la canzone Hope For The Future per i titoli di coda di Destiny (Bungie, 2014), successivamente rilasciata come singolo. Quando devi scrivere qualcosa come Hope For The Future, che è un brano fatto su misura, è come se facessi un ritratto per qualcuno. Devi usare la tua immaginazione e capire di cosa hanno bisogno, che cosa vorranno e cosa tu vuoi dar loro. A quel punto devi mettere insieme quelle tre cose in un prodotto che mantenga una sua integrità. Paul McCartney 31 Il Barbican Centre è il più grande centro teatrale d’Europa. Situato a nord della City of London, il complesso ospita concerti di musica classica e contemporanea, spettacoli teatrali, mostre d’arte e sale cinematografiche. La London Symphony Orchestra e la BBC Symphony Orchestra hanno la loro sede presso l’auditorium del Barbican Centre. 3.1 Il successo delle colonne sonore 18 L’ex dei Beatles non è l’unico grande compositore che ha scritto musica per videogiochi. Tra gli altri, troviamo Michael Giacchino32 (ha lavorato a quasi 30 videogiochi, e in particolare alle serie Medal of Honor e Call of Duty), Hans Zimmer33 (Call of Duty: Modern Warfare 2 e Crysis 2 ) e Gustavo Santaolalla34 (il pluripremiato The Last of Us di Naughty Dog, 2013). Uno degli esempi più significativi del successo che può avere la musica per videogiochi è l’evocativa colonna sonora scritta da Austin Wintory per Journey (thatgamecompany, 2012), che ha raggiunto la top 10 della classifica delle colonne sonore di iTunes in più di 20 paesi e la posizione 116 nelle vendite di Billboard. Oltre al successo di vendita delle colonne sonore, sono numerosissime le tournée di concerti orchestrali in tutto il mondo in cui vengono eseguite musiche tratte da diversi videogiochi, spesso raccogliendo un ottimo riscontro di pubblico. Tra queste le più importanti sono Video Games Live (dal 2005), PLAY! A Video Game Symphony (dal 2006) e Symphonic Game Music Concerts (dal 2003). Parallelamente a questi eventi, sono numerosi anche i concerti dedicati a serie di videogiochi specifici come ad esempio The Legend of Zelda (The Legend of Zelda: Symphony of the Goddesses, dal 2012) e soprattutto Final Fantasy (per nominarne solo alcuni, Tour de Japon: Music from Final Fantasy, Dear Friends - Music From Final Fantasy e More Friends: Music from Final Fantasy, Distant Worlds: Music from Final Fantasy, Final Symphony 35 ). 32 Michael Giacchino (Riverside, New Jersey, 1967) è un compositore statunitense conosciuto soprattutto per le sue colonne sonore cinematografiche e televisive. Tra i suoi lavori più importanti si ricordano le musiche della serie Lost (2004 - 2010) e di molti film della Pixar, tra cui Up (2009) grazie al quale si è aggiudicato il premio Oscar alla miglior colonna sonora. 33 Hans Zimmer (Francoforte sul Meno, 12 settembre 1957) è un musicista e compositore tedesco. Ha realizzato le musiche per oltre 150 film, tra cui Il gladiatore, il ciclo dei Pirati dei Caraibi, Batman Begins e Inception. Nel 1995 ha vinto l’Oscar per la colonna sonora de Il re leone. 34 Gustavo Alfredo Santaolalla (El Palomar, 19 agosto 1952) è un compositore argentino, due volte vincitore dell’Oscar alla migliore colonna sonora: nel 2006 per I segreti di Brokeback Mountain e nel 2007 per Babel. 35 Per una lista completa dei concerti dedicati alle musiche dei Final Fantasy, si consulti la pagina Wikipedia en.wikipedia.org/wiki/Final Fantasy concerts. 3.1 Il successo delle colonne sonore 19 Figura 7: La copertina della colonna sonora di Journey Dal punto di vista radiofonico, l’emittente inglese Classic FM, dedicata principalmente alla trasmissione di musica classica, da diverso tempo si interessa anche di musica per videogiochi, e oltre a trasmetterla sulle sue frequenze ha recentemente sponsorizzato l’evento Game Music Connect a Londra. Il riconoscimento dell’importanza della musica per videogiochi viene anche dai numerosi premi che vengono conferiti alle colonne sonore dei migliori titoli dell’anno. Oltre ai premi espressamente dedicati al mondo dell’intrattenimento videoludico come gli Spike Video Game Awards (organizzati a partire dal 2003), numerose manifestazioni originariamente dedite alla premiazione di prodotti cinematografici e televisivi o espressamente musicali si sono riadattate per includere anche i videogiochi più meritevoli. Tra queste citiamo i Grammy Awards, che dedicano quattro premi alle colonne sonore per video games, e i BAFTA (British Academy of Film and Television Arts) che dal 2003 hanno istituito la sezione BAFTA Games Awards. 3.2 3.2 Pubblicazioni, documentari, fiere e corsi 20 Pubblicazioni, documentari, fiere e corsi Dal punto di vista accademico, il sonoro dei videogiochi è sempre più studiato e le pubblicazioni a riguardo stanno considerevolmente aumentando (quantomeno quelle in lingua inglese). Alcune importanti pubblicazioni sono The Complete Guide to Game Audio di Aaron Marks (2009) e Creating Music and Sound for Games di G.W. Childs IV (2007). È di particolare importanza il lavoro svolto da una delle più importanti studiose dell’argomento, Karen Collins, titolare della cattedra di ricerca in Interactive Audio presso l’università di Waterloo, Canada. I suoi due libri, Game Sound del 2008 e Playing with Sound del 2013 sono dei capisaldi il cui studio è imprescindibile per poter capire e affrontare l’argomento. La ricercatrice è ora impegnata nella realizzazione di un ambizioso lungometraggio, corredato da dei video aggiuntivi su YouTube e da un libro, dal titolo Beep: A History of Game Sound. Il progetto è stato finanziato a settembre 2014 con circa 60.000 dollari canadesi raccolti attraverso una campagna su Kickstarter36 . Il documentario raccoglierà le testimonianze di un centinaio di compositori, sound designer e ingegneri del suono che hanno fatto la storia della musica dei videogiochi, a partire dai primi cabinati per arrivare alle orchestre di oggi. Beep non è l’unico progetto di questo tipo: Diggin’ In The Carts (Red Bull Music Academy, 2014) è un documentario in sei episodi distribuito su YouTube che racconta la storia poco conosciuta della “musica più influente mai scritta in Giappone”. Il Giappone è una nazione che ha influenzato il mondo in molti modi, dal cibo alla tecnologia ai contributi alla cultura pop, come ad esempio i videogiochi. Per molti di noi, la musica dei videogiochi suonava nelle nostre case mentre crescevamo più spesso di tutte le altre forme musicali dell’epoca. Ma per la maggior parte di noi i compositori dietro queste melodie senza tempo non hanno un volto. Diggin’ In The Carts vuole portare alla luce gli uomini 36 Kickstarter è un sito web di finanziamento collettivo per progetti creativi. Tramite esso sono stati finanziati diversi tipi di imprese, tra cui film indipendenti, musica, spettacoli teatrali, fumetti, giornalismo, videogame e imprese legate all’alimentazione. 3.2 Pubblicazioni, documentari, fiere e corsi 21 e le donne che hanno ispirato un’intera generazione creando probabilmente il più grande export musicale del Giappone verso il mondo. Oltre alle interviste ai protagonisti della musica per videogiochi giapponese come Hirokazu Tanaka e Nobuo Uematsu, i video raccolgono le testimonianze di artisti contemporanei come Flying Lotus, Dizzee Rascal e Fatima Al Qadiri, il cui percorso stilistico è stato fortemente influenzato dall’aver giocato a questi titoli durante la loro infanzia e adolescenza e aver quindi assorbito e fatto proprio quel genere compositivo. Un altro elemento che ben testimonia la crescente attenzione dedicata a questo settore è la presenza di fiere di richiamo internazionale sull’argomento. Le due più importanti sono GameSoundCon a Los Angeles (giunta ormai alla decima edizione) e Game Music Connect a Londra (più recente, nel 2014 si è svolta la seconda edizione raccogliendo il doppio dei partecipanti rispetto all’anno precedente); durante questi eventi vengono intervistati diversi protagonisti della scena contemporanea della musica per videogiochi (soprattutto compositori, ma anche sound directors e audio programmers37 ), si tengono dibattiti con il pubblico partecipante, vengono impartite lezioni teoriche sull’argomento e workshop sui software più utilizzati (tra gli altri, FMOD Studio e Wwise). Queste fiere testimoniano come la musica per videogiochi abbia esigenze molto specifiche e differenti rispetto agli altri media; è quindi necessario che il compositore abbia una conoscenza approfondita del funzionamento delle meccaniche da cui dipenderà la sua musica. A riprova di ciò, i corsi di laurea in composizione per film e televisione di molte università soprattutto negli Stati Uniti38 da qualche anno includono nei loro piani di studio corsi mirati alla realizzazione di colonne sonore per videogiochi. 37 Per un approfondimento sui ruoli nella divisione audio vedi sezione 10 a pagina 53. Il Berklee College of Music di Boston, la USC e la UCLA di Los Angeles, la NYU di New York, solo per citarne alcune. 38 3.3 3.3 La richiesta di compositori 22 La richiesta di compositori Secondo un articolo del 2 settembre 2013 pubblicato sul sito internet di USA Today39 , compositori e music directors occupano la terza posizione nella classifica delle dieci professioni il cui bisogno negli Stati Uniti è cresciuto maggiormente negli ultimi dieci anni40 . Questi vengono superati soltanto dagli ingegneri petroliferi (al secondo posto) e dagli operatori nei processi di estrazione delle risorse naturali (al primo). I dati riportati dall’articolo sono: • Crescita negli ultimi 10 anni: 178% (15.960 posti di lavoro in più) • Totale impiegati: 24.940 • Stipendio annuale medio: 47.350$ Sembra che la sete degli americani per la musica stia crescendo. Questo dovrebbe portare a un aumento dei posti di lavoro per music directors e compositori. Un altro fattore che determinerebbe la crescita dei posti di lavoro per questi incarichi è la sempre maggiore necessità di colonne sonore originali e trascrizioni per pubblicità e film. Oltre al talento musicale e alla capacità di suonare molteplici strumenti, gli impiegati in questo campo, soprattutti quelli che scrivono e dirigono musica classica, hanno solitamente una laurea triennale. Circa il 10% dei music directors e dei compositori guadagnano meno di 21.450$ all’anno, mentre il 10% più retribuito ha uno stipendio annuale che supera 86.110$, un dato comparabile con gli altri impieghi in questa lista. L’11 settembre successivo, il sito internet di GameSoundCon41 in un articolo titolato in modo esplicativo USA Today Reports Composers Third-fastest Growing Job in US: But they got the reason wrong 42 dimostra che i motivi 39 USA Today è un quotidiano nazionale americano. Insieme a The Wall Street Journal è il quotidiano più diffuso negli Stati Uniti. 40 L’articolo è reperibile all’indirizzo usat.ly/15OW4Wf. 41 GameSoundCon - The Art, Technology and Business of Game Audio è un ciclo di conferenze e incontri formativi sulla musica e il sound design per videogiochi (vedi sezione 3.2 a pagina 20). 42 L’articolo è reperibile all’indirizzo gamesoundcon.com/#!tumblr-feed/c1v03. 3.3 La richiesta di compositori 23 della crescita nella domanda di compositori e music directors è ben diversa da quella - piuttosto approssimativa - riportata da USA Today. Brian Schmidt43 , insospettito dalla notizia per cui colonne sonore di film e pubblicità sarebbero i maggiori responsabili nell’aumento della domanda di compositori e music directors, ha approfondito l’argomento studiando nel dettaglio i dati analizzati da USA Today e provenienti dal Bureau of Labor Statistics44 , e nello specifico da Occupational Employment and Wage Estimates45 . Schmidt non ha confrontato soltanto i dati del 2002 con quelli del 2012, ma ha analizzato le variazioni anno per anno in quell’arco di tempo (vedi figura 8). Figura 8: Richiesta di compositori e music directors negli anni 1999-2012 Dal grafico si evince chiaramente che la richiesta di compositori e music directors è stata piuttosto costante fino al 2008, quando è cominciato un fortissimo aumento nella domanda, passando dai 9.120 posti di lavoro di quell’anno ai circa 25.000 del 2012. Brian Schmidt non ha dubbi riguardo 43 Brian Schmidt è il presidente di G.A.N.G. (Game Audio Network Guild) e il direttore esecutivo di GameSoundCon. 44 Il Bureau of Labor Statistics (BLS) è un ufficio del United States Department of Labor, il Dipartimento del Lavoro degli USA. Si tratta della principale agenzia di indagine del governo statunitense nel campo dell’economia e della statistica. 45 I dati sono reperibili all’indirizzo bls.gov/oes/oes data.htm. 3.3 La richiesta di compositori 24 alle cause di questa crescita, imputabile a due eventi fondamentali: la nascita del programma di sviluppo di applicazioni per Facebook (maggio 2007), e soprattutto il lancio dell’App Store di Apple (10 luglio 2008, vedi figura 9). Figura 9: Lancio di Facebook Developer Program e App Store Questi due avvenimenti hanno decretato l’ascesa dei videogiochi mobile 46 , social 47 e casual 48 , espandendo nel giro di pochi anni il bacino dei videogiocatori, trasformando radicalmente il mercato e facendo nascere migliaia di team di sviluppo più o meno grandi. Si stima che ad oggi il 25% degli utenti di Facebook (quindi circa 250 milioni di persone) giochi con le applicazioni dedicate al social network. L’App Store conta quasi 300.000 videogiochi, ognuno dei quali ha bisogno di musica che il più delle volte viene composta ad hoc per il gioco stesso. Secondo AppDevelopersAlliance49 , il 40% dei gio46 Vedi nota 24. I videogiochi social sono quei videogiochi che prevedono l’associazione con l’account di un social network (in particolare Facebook) in modo tale che si possa giocare, condividere punteggi e statistiche con i propri contatti. 48 I videogiochi casual hanno solitamente un sistema di gioco molto semplice e richiedono poco impegno dal giocatore. I livelli sono di durata breve o brevissima (anche pochi secondi). 49 La Application Developers Alliance (AppDevelopersAlliance) è un’associazione industriale dedicata a soddisfare le necessità specifiche di sviluppatori e creativi, innovatori e 47 4 Conclusioni 25 chi su App Store (e analogamente su Play Store di Google) è realizzato da programmatori per hobby, quindi con scarse probabilità che questi assumano un compositore, ma il restante 60% delle applicazioni viene invece prodotto da sviluppatori a tempo pieno che hanno quindi bisogno di musica realizzata da professionisti. Comporre musica per videogiochi di questo tipo potrebbe sembrare meno remunerativo, ma i dati riportati da BLS ci dicono che negli anni 2008-2012 lo stipendio medio annuale del compositore è rimasto pressoché costante - passando da 54.840$ a 53.420$. Brian Schmidt è fermamente convinto quindi che la crescita improvvisa e consistente nella domanda di compositori e music directors sia da imputare ai fattori sopra descritti. Resta da capire se questa tendenza continuerà anche nei prossimi anni: la BLS è ottimista a riguardo e prevede che più di 32.000 nuovi posti saranno disponibili nei prossimi dieci anni a causa della crescita del mercato e del ricambio generazionale. Si tratta quindi di una concreta e non trascurabile possibilità di impiego per tutti i compositori giovani (e non) nel presente e negli anni a venire. 4 Conclusioni Dalle considerazioni su come possa essere un nuovo mezzo di espressione alle sue caratteristiche peculiari, dai dibattiti in corso sulla legittimità nel considerarlo un’arte al riconoscimento da parte di alcune importanti istituzioni, passando per alcune considerazioni sui contenuti più o meno legittimi per finire parlando dell’importanza e del successo delle loro colonne sonore e la richiesta di compositori, i capitoli di questa prima parte costituiscono una doverosa introduzione al media videogioco. L’influenza di questo recente mezzo d’espressione - anche come nuovo fenomeno culturale di massa - può essere associata a quella del cinema degli albori o della televisione al momenimprenditori. Alliance conta più di 25.000 sviluppatori individuali e più di 135 compagnie. Il loro scopo è quello di essere un orientamento per l’industria, fornire risorse essenziali, diventare una voce collettiva su questioni burocratiche ed essere un mezzo per collegare l’ecosistema delle applicazioni. 4 Conclusioni 26 to della sua massima espansione e trasformazione in mezzo di comunicazione di massa vero e proprio. Alcuni leggono libri che narrano di storie dolorose, tristi, tragiche, che li fanno piangere fino alla fine. Altri giocano ai video games per le stesse ragioni. Charlie Hall50 I prossimi capitoli saranno focalizzati sulle caratteristiche dell’audio dinamico e sulla realizzazione delle colonne sonore dai punti di vista compositivo e tecnico. 50 Charlie Hall è un giornalista presso Polygon, uno dei più autorevoli siti internet di informazione per il mondo dei video games. 27 Parte II L’audio dinamico N.B.: diversi passaggi qui riportati sono tradotti e adattati da Game Sound - An Introduction to the History, Theory, and Practice of Video Game Music and Sound Design di Karen Collins (The MIT Press, 2008), capitolo 8: Compositional Approaches to Dynamic Game Music. 5 Sonoro interattivo e adattativo Come abbiamo ribadito più volte nelle sezioni precedenti, la composizione per un videogioco ha diversi punti di contatto con quella per un film. Il compositore John Debney51 sostiene che: Il processo è simile. Ci sono scene per cui il compositore deve realizzare una musica specifica. Gran parte del gameplay, come ad esempio le battaglie, devono essere scritte in un certo stile predefinito. Quindi questo aspetto somiglia alla composizione per un film. . . Secondo me la più grande differenza nell’atto di comporre per un videogioco è che non hai un prodotto finito su cui lavorare. Il più delle volte compongo sulla descrizione di una battaglia. . . letteralmente una descrizione di una o due righe. Mi trovo anche a scrivere ad esempio venti secondi di gioco che in realtà diventeranno dieci o venti minuti. Questa è per me la differenza più grande. Si tratta si comporre sulla base di un concetto o di una descrizione piuttosto che su qualcosa di specifico. 51 John Debney (Glendale, California, 1956) è un compositore e direttore d’orchestra di colonne sonore per film e videogiochi. Tra i suoi molti lavori per il cinema sono da segnalare le musiche di Le follie dell’imperatore (Mark Dindal, 2000), Una settimana da Dio (Tom Shadyac, 2003), La passione di Cristo (Mel Gibson, 2004) per le quali ha ricevuto una candidatura all’Oscar, Sin City (Robert Rodriguez, Frank Miller e Quentin Tarantino, 2005), Iron Man 2 (Jon Favreau, 2010), Machete (Robert Rodriguez e Ethan Maniquis, 2010). Nel campo dei videogiochi ha lavorato, tra gli altri, a LAIR (Factor 5, 2007) e The Sims Medieval (Electronic Arts, 2011). 5 Sonoro interattivo e adattativo 28 Il compositore Richard Jacques52 sostiene che nel momento compositivo può essere utile pensare come un programmatore creando semplici condizioni if-then 53 . Viene qui riportato un esempio da Sonic 3D (Sega, 1996): Esempio 1, Livello 1, Atto 1: suona musica Green Grove IF Sonic prende le scarpe veloci THEN suona “musica scarpe veloci”; IF Sonic prende lo stemma dell’invincibilità THEN suona “musica dell’invincibilità”; IF Sonic ha collezionato 100 anelli THEN suona “jingle dei 100 anelli”; Mettere per iscritto una simile serie di istruzioni può aiutare il compositore ad avere ben chiaro il lavoro che deve svolgere. Ovviamente, visto che parliamo di musica interattiva, l’aspetto più complicato da gestire è proprio quello che la contraddistingue: il collegamento tra i vari interventi. L’esempio qui riportato fa riferimento a un gioco ormai piuttosto datato, e la tecnologia si è molto evoluta da allora, ma ragionare tramite condizioni if-then resta il metodo più immediato per fare chiarezza e, in seguito, per relazionarsi correttamente con il programmatore che (come vedremo approfonditamente in seguito) andrà ad implementare la musica nel videogioco. Come si può evincere dall’esempio riportato poco sopra, la caratteristica fondamentale della musica nei videogiochi è che questa deve adattarsi alle azioni del giocatore e alla situazione in cui egli si trova. Dovrà essere lenta e misteriosa quando il giocatore esplora un luogo in cui non è mai stato. Se il personaggio comincia a correre, la musica potrebbe accelerare. Quando il pericolo si avvicina, la musica dovrà sottolineare la tensione fino a raggiungere un apice nel momento in cui compare il nemico di turno. Dovrà quindi 52 Richard Jacques (Leamington Spa, Inghilterra, 1973) è un compositore noto principalmente per le sue colonne sonore di videogiochi prodotti da Sega. Oltre ad aver lavorato per numerosi titoli del franchise di Sonic, ha musicato Mass Effect (Electronic Arts, 2007), Super Smash Bros. Brawl (Nintendo, 2008), Forza Motorsport 4 (Microsoft Studios, 2011) e molti altri. 53 Ovvero se-allora. 5 Sonoro interattivo e adattativo 29 trasformarsi in una musica da battaglia per incitare il giocatore, e se questo subirà delle ferite il suo carattere potrebbe diventare allarmante, per fargli capire che la fine è vicina. Ma, se questi saprà contrattaccare adeguatamente, la musica si evolverà in un motivo trionfante nel momento in cui riuscirà a sconfiggere il nemico. Quello appena descritto può essere un buon esempio di dynamic audio, ovvero di una musica che si modifica a seconda degli eventi e diventa una colonna sonora adattativa che dà la sensazione di trovarsi in un film interattivo. Se guardassimo la ripresa di una sessione di gioco di un’altra persona, una colonna sonora dinamica avrà raggiunto il suo scopo nel caso in cui ci sembrerà di sentire una musica scritta specificamente per quella scena, in modo del tutto simile ad un film lineare. Il problema alla base della necessità della musica dinamica è che un giocatore non è prevedibile: non sappiamo infatti quali azioni compierà tra le centinaia a sua disposizione, non sappiamo in quale momento sceglierà di farle e per quanto tempo. La musica dinamica è preparata ad ogni possibilità: essa deve sempre poter mutare ed evolversi in modo naturale. L’audio cosiddetto dinamico è quindi quell’insieme di musica, effetti sonori e dialoghi che cambia in base alle azioni del giocatore e all’ambiente in cui gioca. Nel primo caso parliamo di audio interattivo: le azioni del giocatore, i suoi input, determinano dei cambiamenti a livello sonoro. Quando, ad esempio, il giocatore preme un tasto sul controller per far saltare il suo personaggio, il suono che sentiremo viene classificato come elemento dell’audio interattivo. Viceversa l’audio adattativo risponde a cambiamenti nei parametri di gioco come conti alla rovescia, cambi di ambientazione, comparsa di nemici, e cosı̀ via. In diversi titoli (Super Mario Bros. tra tutti), ad esempio, la velocità della musica cresce quando il tempo a disposizione del giocatore per completare un livello sta per finire. Koji Kondo54 ha elencato quattro capacità fondamentali che il team audio deve avere per realizzare una buona musica dinamica: 54 Koji Kondo (Nagoya, Giappone, 1961) è un compositore e musicista giapponese noto per aver realizzato le colonne sonore di alcuni tra i più celebri videogiochi prodotti da Nintendo, ed in particolare delle serie di Super Mario e The Legend of Zelda. 6 Alcune difficoltà dell’audio dinamico 30 1. l’abilità di creare una musica che cambi ad ogni partita; 2. l’abilità di creare una musica sfaccettata trasformando i temi in diversi modi; 3. l’abilità di aggiungere momenti di sorpresa e di aumentare in generale la piacevolezza nell’esperienza di gioco; 4. l’abilità di inserire elementi musicali come attrattive del gameplay. 6 Alcune difficoltà dell’audio dinamico La musica dinamica è ormai imprescindibile nei nuovi video games: i loop tipici dei giochi più datati sono superati e la tecnologia odierna mette a disposizione del compositore una vastissima gamma di possibilità per incrementare la varietà nel sonoro. L’utilizzo intensivo di semplici loop è ora sconsigliato per la maggior parte dei titoli, in quanto, come sostiene Scott B. Morton55 , si tratta di un modo inefficace per musicare un gioco: Non solo si elimina la componente emotiva della musica, generalizzandola e non applicandola al contesto, ma con l’utilizzo intensivo di loop ci si allontana dal giocatore, che ad un certo punto non la percepirà più. E quel che è peggio è che spesso dopo un po’ diventerà pure fastidiosa. [. . . ] Siamo onesti. Perché chiamare un compositore fin dall’inizio, se la musica non avrà un ruolo funzionale nell’esperienza di gioco? Stando a Koji Kondo, la musica dinamica dovrebbe enfatizzare la natura immersiva del gioco, attraverso cambi di tempo, aggiunta di layers 56 , variazioni e in generale tutti gli espedienti che studieremo nel dettaglio nella sezione dedicata (Dieci metodi di variazione nella musica dinamica, a pagina 41). Ci sono diverse difficoltà di cui bisogna tenere conto nella fase di produzione, tra cui la durata del gameplay, l’affaticamento nell’ascolto prolungato, 55 Scott B. Morton è un compositore di musiche per videogiochi, noto soprattutto per la colonna sonora di Titan Quest (THQ, 2006). 56 Vedi sottosezione 9.8 a pagina 46: Variazioni di mix (layering ). 6.1 La durata del gameplay 31 la gestione del sonoro nelle partite multiplayer, etc. Di seguito andremo ad esplorare queste difficoltà e come esse influenzano le scelte di composizione musicale. 6.1 La durata del gameplay La natura non lineare dei giochi implica che la durata del gameplay non sia determinata: un giocatore potrebbe bloccarsi e non completare mai un video game, oppure potrebbe cominciare a giocarci e interrompersi ripetutamente nell’arco di alcuni giorni, settimane o mesi. In una singola partita il giocatore potrebbe passare ore in una locazione oppure attraversarla in pochi secondi: le variabili sono infinite. Ad aumentare ulteriormente questa indeterminazione si aggiungono recenti software di intelligenza artificiale come la tecnologia euphoria 57 di LucasArts, dove quelli che un tempo erano eventi di gioco preprogrammati ora sono randomizzati, “fuori copione”. Il compositore, ovviamente, non può comporre un numero infinito di interventi per un gioco che ha infinite variabili. Perfettamente consapevoli che i giochi hanno la reputazione di avere un sonoro ripetitivo ma ostacolati dalle molte ore di musica richieste per un gioco, i compositori ora riutilizzano spesso le stesse tracce in diverse aree del gioco per ridurre la quantità di interventi musicali necessari, facendo in modo di creare al tempo stesso una colonna sonora che non risulti stancante. Questo richiede un’attenta pianificazione della composizione che spesso comporta la riduzione delle linee melodiche più significative in modo tale che la musica rimanga meno impressa nella memoria dell’ascoltatore. 6.2 L’affaticamento uditivo Un concetto affine a quello sopra descritto è quello di affaticamento uditivo: i giochi, per loro natura, sono realizzati in modo da essere giocati molte 57 Sviluppata da NaturalMotion Ltd., euphoria è un motore di simulazione comportamentale che replica l’imprevedibilità della vita reale, dove non si verificano mai due episodi perfettamente uguali. euphoria permette ai personaggi non giocanti di muoversi, agire e addirittura pensare come dei veri esseri umani, adattando il loro comportamento in tempo reale e causando ogni volta diverse situazioni di gioco. 6.3 I giochi multiplayer 32 volte, e ascolti ripetuti possono diventare noiosi soprattutto se un giocatore impiega molto tempo per superare un livello particolarmente impegnativo. Alcuni giochi ora includono dei timer che, nel caso in cui il giocatore dovesse rimanere bloccato in un livello, fanno in modo che la musica non vada in loop all’infinito ma termini con dolci fade-out. Il compositore Marty O’Donnell58 , a proposito della colonna sonora di Halo: Combat Evolved (Bungie, 2001), dice: Esiste questo interruttore “ora sono stanco”, che significa che se non hai raggiunto la parte dove dovrebbe cominciare un altro brano, e sono passati cinque minuti, allora abbiamo un bel fadeout. 6.3 I giochi multiplayer I giochi multiplayer rappresentano una grossa sfida per i compositori. Mentre nei giochi singleplayer una musica dinamica basata sui parametri di gioco funziona adeguatamente, quando i giocatori diventano due o più la situazione si complica. Se in un gioco singleplayer la musica è progettata per cambiare quando la salute del giocatore è prossima a terminare, come dovrà comportarsi invece in una partita multiplayer in cui un giocatore ha quasi terminato i suoi punti salute e l’altro invece li conserva ancora tutti? Oppure: se un particolare suono deve essere eseguito una volta raggiunto un punto specifico del gioco, questo evento si verificherà quando entrambi i giocatori sono entrati nell’area obiettivo oppure quando solo uno dei due l’ha raggiunta? Le partite multiplayer possono presentare anche alcune opportunità interessanti per i compositori: in Asheron’s Call 2: Fallen Kings (Turbine, 2002) l’interazione tra i giocatori crea delle “jam sessions” spontanee, in quanto a differenti specie di personaggi corrispondono diversi strumenti musicali nel58 Martin “Marty” O’Donnell (1955) è un compositore americano noto per aver lavorato su diversi videogiochi della Bungie tra cui Myth, Oni e soprattutto il franchise di Halo. Le musiche di quest’ultima trilogia gli hanno fatto vincere numerosi premi, e quelle di Halo 2 in particolare costituiscono la colonna sonora di un videogioco più venduta di sempre negli Stati Uniti. Di recente ha realizzato parte delle musiche di Destiny (Bungie, 2014). 6.3 I giochi multiplayer 33 la colonna sonora e la cooperazione tra i giocatori causa cambiamenti nella musica. In questo modo i giocatori sono incoraggiati a interagire. Questo tipo di giochi (chiamati MMO59 ) è decisamente più longevo rispetto a quelli offline, e in molti casi un giocatore ci gioca regolarmente per diversi mesi o anche anni. Ci sono molti più ambienti da esplorare e quello che è più importante è che non c’è il controllo sulla situazione del gioco, perché non esiste uno script 60 , una trama definita da seguire. La musica non può corrispondere a specifici avvenimenti o ambienti, quindi l’approccio del compositore deve essere molto diverso rispetto alla composizione per i giochi singleplayer. Nonostante le difficoltà nel comporre musica per giochi MMO, esistono diversi metodi che possono aiutare a risolvere questi problemi. Bjørn Ave Lagim, uno dei compositori del MMORPG61 Anarchy Online (Funcom, 2001), sostiene che uno dei metodi per non affaticare l’ascolto del giocatore è quello di far uscire e entrare la musica (attraverso fade-in e fade-out) ad intervalli regolari, in modo tale che questa non diventi troppo ripetitiva e prevedibile: La chiave è stata trovare un buon bilanciamento tra la durata dell’esecuzione della musica e il tempo di silenzio. Pause brevi rendono la musica fastidiosa, mentre pause troppo lunghe rendono la musica inefficace nel mantenere viva l’atmosfera del gioco. Effettuare fade-in molto lenti è di grande importanza, in quanto se cosı̀ non fosse il giocatore penserebbe che qualcosa di importante stia per succedere nel gioco. 59 I giochi Massively Multiplayer Online (MMO) sono quelli capaci di supportare centinaia o migliaia di giocatori collegati contemporaneamente a internet. Tipicamente l’ambientazione di questo tipo di giochi è un gigantesco mondo virtuale. 60 Letteralmente dall’inglese, sceneggiatura. 61 Massively Multiplayer Online Role-Playing Game, ovvero gioco di ruolo MMO. 7 Le categorie di interventi musicali 7 34 Le categorie di interventi musicali Di seguito andremo ad analizzare le tre categorie principali di cue 62 presenti nella musica per videogiochi. 7.1 Interventi principali Sono quegli interventi musicali che hanno maggiore importanza nel gioco e il loro alto volume li rende percepibili chiaramente dall’ascoltatore. I temi sono spesso in grande evidenza; questi cue accompagnano le scene più importanti del video game, le scene d’azione, quelle di esplorazione, quelle in generale in cui “succede qualcosa”. 7.2 Ambient tracks Per evitare silenzi non desiderati può essere utilizzata della musica d’ambiente in modo da mantenere attiva la componente sonora all’interno del gioco. Questo tipo di musica di sottofondo resta solitamente nello stile degli interventi principali, alleggerendone i temi tramite l’utilizzo di accordi lunghi, dinamiche tenui e melodie e armonie semplici in modo da passare quasi inosservata nel complesso del panorama sonoro. Un brano orchestrale, ad esempio, potrebbe utilizzare il legato della sezione degli archi, mentre una colonna sonora con strumenti elettronici si affiderebbe a dei pad ; gli elementi principali di cui tenere conto sono l’utilizzo di una scrittura facile e di un volume basso. Normalmente, la musica d’ambiente è ideale per gli scenari di lunga durata in cui il giocatore ha bisogno di concentrarsi (i giochi di sport e i simulatori di volo sono tipicamente devoti a questo tipo di composizioni). Se non fosse presente, il più delle volte si percepirebbe un vuoto ed altri rumori esterni al videogioco potrebbero disturbare l’esperienza del giocatore. 62 Cue è un termine che ricorre molto spesso nell’ambito delle sonorizzazioni cinematografiche e videoludiche: si tratta degli interventi musicali che vanno a formare la colonna sonora. 7.3 7.3 Stinger 35 Stinger Usati unitamente ad altra musica che è già in esecuzione, gli stinger 63 sono brevissimi interventi musicali eseguiti in punti specifici del gioco per richiamare l’attenzione su un improvviso evento significativo. La loro durata si aggira solitamente intorno ai 2 o 3 secondi; nonostante siano chiaramente udibili sopra la musica, essi vengono creati in modo da poter convivere con essa utilizzando caratteristiche compatibili (come ad esempio la scelta timbrica o la tonalità). Oltre ad evidenziare dei momenti del gameplay, gli stinger possono essere anche utilizzati per sottolineare la comparsa di loghi o scritte. Per lo stesso scopo possono essere creati anche degli effetti sonori: la scelta varia in base alle specifiche esigenze del gioco. 8 La non linearità nei videogiochi Il più grande problema da affrontare per un compositore di musica per videogiochi è la loro non linearità. Molti giochi infatti sono estremamente imprevedibili a causa delle possibilità di scelta del giocatore; la struttura ramificata in figura 10 ne raffigura un possibile esempio. Questo tipo di narrazione si poteva trovare in alcune collane di libri per bambini che ebbero un certo successo negli anni ‘80: in precisi punti della storia veniva chiesto al lettore di fare una decisione che lo rimandava a leggere un altro capitolo ad un’altra pagina. Anche la Nintendo pubblicò una serie di libri di questo tipo: “Sto arrivando, Principessa!” grida Mario. Poi comincia a correre lungo il corridoio ed apre la porta della stanza delle provviste. In quel momento scatta di nuovo l’allarme, più forte che mai. Mario dovrebbe cercare le provviste? Forse per prima cosa dovrebbe rintracciare Luigi. O forse dovrebbe dirigersi verso il Regno dei Funghi immediatamente. Deve decidersi, e deve farlo in fretta! 63 Letteralmente dall’inglese, pungiglione; talvolta viene indicato anche come stab, pugnalata. 8 La non linearità nei videogiochi 36 Figura 10: Una possibile struttura ramificata della narrazione • Se pensi che Mario debba cercare Luigi, vai a pagina 100. • Se pensi che Mario debba prendere le provviste, vai a pagina 34. • Se pensi che Mario debba recarsi immediatamente nel Regno dei Funghi, vai a pagina 68. Questo scenario porta a tre possibili ramificazioni: cercare Luigi, prendere le provviste, o andare nel Regno dei Funghi. Fornire all’utente scelte simili in un gioco è estremamente complesso per la narrazione. Andrew Glassner64 spiega: Se ci sono dieci punti di ramificazione nel corso della storia, e tre possibili scelte ad ogni punto, questo significa che l’autore deve scrivere più di 59.000 storie. 64 Andrew S. Glassner (1960) è un esperto in computer grafica statunitense. Tra i suoi interessi più recenti c’è la narrazione interattiva. 8.1 La non linearità nell’audio 37 Una soluzione è quella di creare un modello in cui i rami ritornano all’idea centrale e dove c’è un’unica soluzione finale (vedi figura 11). Figura 11: Una struttura ramificata con unica soluzione finale 8.1 La non linearità nell’audio Le conseguenze sul sonoro di una struttura di narrazione ramificata sono significative. Strutture di questo tipo, citando Glassner, “limitano il controllo dell’autore su ritmo, velocità, ripetizioni, tema e variazioni, anche sulla casualità”, rendendo la realizzazione di emotion maps 65 molto difficile (se non impossibile). Oltretutto, questi punti di transizione corrispondono solitamente a momenti estremamente importanti nella narrazione (il giocatore deve appunto fare una scelta sulla strada da intraprendere), quindi l’importanza del sonoro è cruciale. La pianificazione di questi momenti dal punto di vista dell’audio è complicata, ma anche estremamente importante. 65 Una emotion map è la rappresentazione grafica dell’evolversi della tensione nel tempo. Per approfondire vedi sottosezione 14.5 a pagina 61: La cue list e la emotion map. 8.1 La non linearità nell’audio 38 Parlando di composizione musicale, ci sono ulteriori combinazioni rispetto alla struttura ramificata sopra descritta. La musica infatti deve poter cambiare con molta più frequenza, in quanto deve rispondere alle azioni del giocatore, alle azioni dei NPC66 , ai parametri di gioco come ad esempio i punti vita, e ai parametri del luogo. Consideriamo ad esempio la struttura di un ipotetico magazzino industriale (figura 12). Dalla stanza A il giocatore può procedere in diverse direzioni, ognuna delle quali potrebbe richiedere una nuova traccia musicale: andando in avanti il giocatore potrebbe ritrovarsi in mezzo a nemici che gli sparano (stanza B), dietro di sè potrebbe trovare un ambiente che va a fuoco (C), sopra di sè il tetto (F), sotto invece una botola per accedere ai sotterranei (G), a sinistra un solo nemico (D), a destra la stanza delle comunicazioni (E). La musica che sentiamo nella stanza A de- Figura 12: La struttura del magazzino industriale dell’esempio ve essere in grado di mutare, in un momento qualsiasi, in almeno sei modi differenti. Il giocatore potrebbe aspettare nella stanza A per due minuti o per dieci secondi. Potrebbe correre nella stanza B, affrontare lo scontro ma poi tornare subito indietro, facendo ripartire la traccia della stanza A. Finora abbiamo parlato solo di tracce musicali dipendenti dal luogo, ma come 66 Non Playable Character, personaggio non giocante. 8.2 Le transizioni 39 abbiamo detto esistono numerosi altri parametri che potrebbero modificare la musica. 8.2 Le transizioni Il compositore deve tenere conto della moltitudine di situazioni possibili all’interno del gioco e cercare di creare una musica che possa rapidamente adattarsi alle decisioni del giocatore e al cambiamento dei parametri di gioco. Comporre per specifici avvenimenti o locazioni è solo una parte del suo compito, in quanto deve anche saper organizzare il modo in cui le diverse musiche possano essere collegate tra loro: transizioni morbide assicurano continuità nel gioco e l’immersione del giocatore. Paul Hoffert67 elenca sette elementi che devono essere considerati quando si affronta la composizione di un momento di transizione: volume, tempo, ritmo, tonalità, armonia, consistenza e stile. Esiste una grande varietà di approcci a questo problema; le colonne sonore dei videogiochi utilizzano spesso metodi differenti in base al genere e alle caratteristiche specifiche del titolo. 8.2.1 I metodi tradizionali I vecchi giochi, soprattutto nell’era degli 8 e 16 bit, tendevano a praticare tagli netti tra le musiche. Oggi il modo più semplice per effettuare una transizione è quello di far terminare con un rapido fade-out la prima musica per poi far cominciare subito la seconda; una soluzione simile è quella del crossfade. Anche in questi casi però la transizione potrebbe risultare brusca o innaturale. Un altro modo frequente per effettuare una transizione è quello di utilizzare uno stinger 68 , ad esempio un breve accordo sforzato. Soprattutto nelle situazioni in cui la transizione deve essere immediata, come quando passiamo da una situazione di calma ad un improvviso combattimento, lo stinger, spesso combinato con un effetto sonoro violento (uno sparo, spade 67 Paul Matthew Hoffert (New York, 1943) è un compositore e accademico statunitense. È sempre stata una figura di primo piano nello sviluppo e nella diffusione delle nuove tecnologie. 68 Vedi sottosezione 7.3 a pagina 35: Stinger . 8.2 Le transizioni 40 che cozzano, etc.) aiuta a camuffare in modo efficace il repentino cambio musicale. 8.2.2 L’utilizzo del MIDI nelle transizioni Nonostante le difficoltà che si incontrano nella musica dinamica, alcuni compositori, sound designers e programmatori hanno avuto idee particolarmente efficaci per risolvere i diversi problemi. Oltre alle soluzioni già discusse, nella prossima sezione andremo ad analizzare nel dettaglio le tecniche utilizzate per creare varietà musicale e affrontare il problema della struttura ramificata. Molte di queste tecniche sono basate sul MIDI69 . Nonostante la musica registrata su file possa offrire una qualità generale più alta di quella del MIDI, essa non è altrettanto adattabile a tecniche dinamiche. La tendenza sempre più diffusa è quella di utilizzare grosse orchestrazioni per creare un suono cinematografico, che richiede alti budget: anche se le orchestre potrebbero tecnicamente creare musiche dinamiche registrando un gran numero di brevi spezzoni, si tratta di una soluzione troppo complessa e dispendiosa per la maggior parte dei produttori. L’adattabilità è un potenziale proprio del formato MIDI ed esistono alcune sue funzioni che non sono implementabili nei file audio (una tra tutte la possibilità di modificare il tempo metronomico senza alterare le frequenze in modo sensibile). Con la crescita continua della qualità delle librerie di campionamenti, il protocollo MIDI potrebbe essere una soluzione a molti problemi nella musica per videogiochi. Alla Game Developers Conference 70 del 2007, Jason Page e Michael Kelly, rappresentanti di Sony, hanno sostenuto la tesi che il MIDI rappresentasse il futuro per la musica nei videogiochi. Della stessa opinione si è dimostrato Simon Ashby, cofondatore di Audiokinetic (la società che sviluppa il middleware Wwise71 ), 69 Con l’acronimo MIDI (Musical Instrument Digital Interface) si indica il protocollo standard per l’interazione degli strumenti musicali elettronici (anche tramite un computer). Nato agli inizi degli anni ‘80, è utilizzatissimo ancora oggi per la sua versatilità e facilità di utilizzo. 70 La Game Developers Conference (GDC) è il più grande raduno annuale degli sviluppatori di videogiochi professionisti. L’evento comprende un expo, eventi di networking, premi e conferenze di professionisti del settore che coprono argomenti legati a programmazione, progettazione, audio, produzione e arti visive dei video games. 71 Vedi sottosezione 15.6.1 a pagina 74: L’utilizzo di middleware per l’integrazione. 9 Dieci metodi di variazione nella musica dinamica 41 quando interpellato sull’argomento durante Game Music Connect 2014 72 . Ora che i campionamenti hanno raggiunto livelli di altissima fedeltà, l’utilizzo del MIDI ha grandi vantaggi rispetto alle registrazioni tradizionali per la sua adattabilità, per l’assenza dei costi legati alla registrazione e per le dimensioni ridotte dei file (che comportano tempi di caricamento più brevi). 9 Dieci metodi di variazione nella musica dinamica Esistono diversi approcci per ottenere una variabilità musicale che assicuri alla composizione una maggiore longevità senza annoiare il giocatore e al tempo stesso abbia anche una profonda aderenza alle azioni e alla narrazione. Un compositore potrebbe comporre centinaia di brani differenti oppure, risparmiando una considerevole quantità di tempo e fatica, potrebbe introdurre delle variazioni ai materiali musicali più importanti utilizzando uno dei dieci metodi sotto elencati: 1. Variazioni di tempo 2. Variazioni di pitch e trasposizioni 3. Variazioni di ritmo e metrica 4. Variazioni di volume 5. Variazioni di DSP 6. Variazioni di temi (generazione algoritmica) 7. Variazioni di armonie 8. Variazioni di mix (layering) 9. Variazioni della forma (forma aperta) 10. Variazioni della forma (matrici di transizioni) 72 Vedi sottosezione 3.2 a pagina 20: Pubblicazioni, documentari, fiere e corsi. 9.1 Variazioni di tempo 42 Discuteremo ognuna di queste possibilità nel dettaglio. Le funzionalità di programmazione necessarie alla loro implementazione sono spesso incluse in middleware 73 appositi come ad esempio FMOD Studio e Wwise. 9.1 Variazioni di tempo Questo tipo di variazioni è piuttosto frequente e si può ritrovare addirittura in alcuni dei primissimi esempi di videogiochi della fine degli anni ‘70 come Space Invaders (Midway Games, 1978) e Asteroids (Atari, 1979). Questo metodo viene particolarmente utilizzato in relazione al tempo di gioco: quando i secondi a disposizione per completare un livello in Super Mario Bros. (Nintendo, 1985) stanno per terminare e quando aumentano le righe sulla schermata di Tetris (1984) viene sfruttata questa tecnica. Il tempo metronomico di un brano più anche essere modificato in tempo reale per rispondere a diversi parametri come, ad esempio, il numero di giri al minuto del motore in un gioco di corse, il numero di nemici rimasti vivi, o il numero di HP74 rimasti al giocatore. Un rischio che si corre è che il tempo sia troppo sincronizzato con l’azione: in questo caso si può incorrere nel mickey mousing 75 con l’immagine, ottenendo cosı̀ un risultato vagamente comico e inappropriato. 9.2 Variazioni di pitch e trasposizioni In passato, trasportare intere sequenze era un metodo per superare le limitazioni tecniche delle console, in quanto l’istruzione per la trasposizione richiedeva una quantità di memoria irrilevante rispetto a quella richiesta da 73 Con il termine middleware si intendono quei software che fungono da intermediari tra diverse applicazioni (vedi sottosezione 15.6.1 a pagina 74: L’utilizzo di middleware per l’integrazione). 74 Health Points, punti vita. Nella maggior parte dei giochi quando questi si esauriscono il giocatore perde la partita. 75 Con l’espressione mickey mousing si indica una tecnica cinematografica ottenuta sincronizzando le azioni sullo schermo con gli effetti sonori e la musica di accompagnamento, che seguono punto per punto le immagini. Il sistema prende il nome dal personaggio di Topolino, Mickey Mouse. Questa tecnica era peraltro ricca di suoni onomatopeici che favorivano un effetto umoristico. 9.3 Variazioni di ritmo e metrica 43 una traccia completamente nuova. Funzioni di trasposizione venivano quindi inserite nel codice del gioco. In The Legend of Zelda: Twilight Princess (Nintendo, 2006) per Nintendo Wii e GameCube troviamo un interessante utilizzo della variazione di pitch: nel combattimento contro il boss finale, dopo ogni colpo di spada andato a segno, la musica viene trasportata. Questo tipo di utilizzo, cosı̀ come la variazione del tempo, può essere utile per incrementare la tensione di una scena. La variazione di pitch è anche un ottimo metodo per risparmiare spazio nel sound design: se utilizziamo un unico sample 76 e ne alteriamo di volta in volta il pitch in maniera casuale potremo usarlo molte volte senza che risulti ripetitivo. 9.3 Variazioni di ritmo e metrica Come la storia della musica ci insegna, variare un tema utilizzando ritmo e metrica differenti può essere un ottimo metodo per accompagnare situazioni sceniche differenti mantenendo comunque una coerenza generale. Anche i videogiochi non fanno eccezione e sfruttano ampiamente questa tecnica. 9.4 Variazioni di volume Le variazioni di volume sono molto frequenti nei videogiochi e sono particolarmente evidenti nelle schermate dei menu, dove il volume scende mentre il giocatore effettua la selezione per poi tornare a crescere quando si riprende a giocare. Come abbiamo già detto nella sottosezione 6.2 a pagina 31 dedicata all’affaticamento uditivo, anche lo “spegnimento” della musica può essere una soluzione quando il giocatore ha passato diversi minuti in uno stesso livello. Nel momento in cui il giocatore ritroverà la strada da seguire, il volume tornerà al livello consueto. Anche i parametri collegati alla tensione possono influenzare il volume, che passerà da un pianissimo nei momenti di calma a un fortissimo in quelli più concitati. 76 Letteralmente dall’inglese, campione. 9.5 9.5 Variazioni di DSP 44 Variazioni di DSP L’aggiunta di DSP77 in tempo reale, oltre ad essere fondamentale nel missaggio degli SFX7879 , può essere effettuata anche sulle tracce musicali ottenendo risultati creativi. Aggiungere un DSP di overdrive alle percussioni rende immediatamente la musica più aggressiva; l’aggiunta di riverbero, delay o di un filtro passa-basso attenuerà invece il suo impatto emotivo. In generale l’utilizzo di DSP in tempo reale sulle tracce musicali rappresenta una grande risorsa da tenere in considerazione per il compositore. 9.6 Variazioni di temi (generazione algoritmica) La generazione algoritmica, che utilizza il processore per creare nuova musica autonomamente, non è ancora molto diffusa. Il compositore Peter Langston creò per la colonna sonora di Ballblazer (Lucasfilm Games, 1984) l’algoritmo riffology, che sceglieva dinamicamente. . . [. . . ] quale riff eseguire da un repertorio di 32 frasi da otto note ciascuna, e con che velocità eseguirla, con quale dinamica, quando omettere alcune note, quando inserire uno stacco ritmico e altre variabili di questo tipo. Per determinare il riff da eseguire, il software sceglie alcune possibilità in modo randomico; tra queste sceglie il riff “più facile” da suonare, ovvero quello la cui nota iniziale è più vicina alla nota finale del precedente. La decisione di saltare una nota (sostituendola con una pausa oppure allungando la durata della nota precedente) è basata su un certo indice di probabilità. Questo indice comincia con un valore molto basso, cresce fino a raggiungere un picco vicino alla metà del solo per poi tornare a un valore basso verso la fine. L’effetto è che i solo cominciano con una serie di note confuse, per diventare più 77 I Digital Signal Processors (DSP) sono dei processori dedicati all’elaborazione di segnali audio digitali; in questo caso si fa riferimento a quegli effetti che modificano le caratteristiche sonore dell’audio. 78 SFX è l’abbreviazione di sound effects, effetti sonori. 79 Per approfondire vedi sottosezione 15.3 a pagina 67: L’utilizzo di DSP in tempo reale. 9.7 Variazioni di armonie 45 “pigri” nella parte centrale e avere più forza verso la fine. Il solo è accompagnato da una linea di basso, un ritmo di percussioni e degli accordi che variano in modo più controllato rispetto alla parte solistica. Il risultato è quello di un’improvvisazione infinita che non si ripete mai, sopra un accompagnamento che allo stesso modo non si ripete ma ci risulta presto familiare. Man mano che gli algoritmi raggiungono risultati sempre più prossimi alla composizione che un essere umano potrebbe realizzare, usare musica di questo tipo nei videogiochi sembra sempre più una strada da seguire. Non è detto che tutta la composizione debba essere generata da un algoritmo: questo potrebbe controllare soltanto alcuni strumenti o sezioni del brano. Come nel caso di Ballblazer, potrebbe improvvisare sopra una linea di basso e batteria, oppure potrebbe far evolvere nel tempo un ritmo di percussioni, o ancora gestire l’orchestrazione in base all’atmosfera di una particolare scena. Continuando a parlare di algoritmi, la sintesi granulare offre numerosissime possibilità creative utilizzabili in tempo reale nel sound design di un gioco. L’organizzazione dei grani di suono può essere facilmente regolata da qualsiasi variabile del gameplay. 9.7 Variazioni di armonie È possibile modificare il carattere di un pezzo alterandone le sequenze armoniche o i singoli accordi in tempo reale. Questa tecnica è stata utilizzata in Asheron’s Call 2: Fallen Kings (Turbine, 2002) da Jason Jorg Booth80 , che dice a riguardo: Volevamo mantenere le musica relativamente semplice, ambientale, evitando soluzioni d’impatto. Sapevamo anche che potenzialmente c’era un gran numero di parti melodiche che suonavano su una certa base armonica e che queste melodie erano il modo di aggiungere tensione e risoluzione alla composizione. 80 Jason Jorg Booth è un compositore, sound designer e sound editor nato a Huddersfield, Inghilterra. 9.8 Variazioni di mix (layering ) 46 Evitare di utilizzare specifiche cadenze armoniche è un modo per rendere la musica più adattabile, come descrive Booth: [La nostra soluzione era] simile a particolari strutture utilizzate nella musica indiana; decidevamo la tonalità come se fosse un Raga (la tonica ripetuta in continuazione per un pomeriggio intero), creando uno spazio meditativo senza la ripetizione e la direzionalità data da una serie ciclica di accordi. Cambi nei modi utilizzati corrispondono a cambi di situazioni nel gameplay: Un giocatore solo in un ambiente di gioco potrebbe sentire una musica di sottofondo nel modo lidio, ma nel momento in cui creature nemiche riempiono l’area il modo potrebbe diventare frigio, conferendo alla musica un carattere più oscuro. Variazioni nell’armonia possono riguardare non solo i modi ma anche differenti scelte di accordi: si potrà riarmonizzare uno stesso passaggio con gradi diversi appartenenti alla tonalità prescelta. 9.8 Variazioni di mix (layering ) Variazioni nella strumentazione possono offrire soluzioni interessanti nella musica dinamica. Regolando vari elementi nel mix - ad esempio alzando il livello delle percussioni per aggiungere tensione - una traccia può essere modificata in modo facile ed efficace. In un brano potrebbe esserci, ad esempio, una linea malinconica di sassofono molto bassa nel mix prima che il giocatore arrivi ad una svolta drammatica nella trama; a questo punto quella traccia potrebbe emergere attraverso un innalzamento del suo volume. Si possono mettere in muto intere tracce e inserirle nel mix come layers 81 con il preciso intento di farli comparire e scomparire dal mix in punti precisi della narrazione. Questo metodo di composizione dinamica funziona molto bene nelle transizioni dolci, ma potrebbe risultare difficile cambiare completamente atmosfera in modo rapido. 81 Letteralmente dall’inglese, strati. 9.9 Variazioni della forma (forma aperta) 47 Un esempio molto efficace dell’utilizzo di questa tecnica si può ascoltare in Super Mario World (Nintendo, 1990): un layer di percussioni si sovrappone al tema principale quando Maria cavalca Yoshi. La tecnica del layering può diventare più complessa e basarsi su parametri del gameplay come il numero di giocatori in un MMO. Nel già citato Asheron’s Call 2, ciascuno dei personaggi ha un tema differente che si aggiunge alla base musicale. La razza dei tumeroks ad esempio suona i tamburi, mentre ad altre razze corrispondono altri strumenti. Ogni personaggio sulla scena aggiunge un elemento musicale localizzato in 3D, mentre la locazione nel gioco determina la musica d’ambiente, il tempo di metronomo e la tonalità. 9.9 Variazioni della forma (forma aperta) Nella storia della musica si possono trovare diversi studi sull’ordinamento casuale di frasi o sequenze per creare composizioni sempre diverse; questi espedienti, tra cui ad esempio i dadi di Mozart 82 e la musica aleatoria, rappresentano delle grandi possibilità utilizzabili in modo creativo ed efficace nella musica per videogiochi. Esistono molti tipi diversi di ordinamento variabile, o “forma aperta”; l’apertura della struttura può riguardare qualsiasi livello (lunghe porzioni di un brano, sequenze, singole frasi o brevi incisi). L’idea risale almeno al XVIII secolo, quando troviamo la moda dei dadi musicali in Europa: il gioco era stato ideato per le persone a digiuno di composizione che attraverso il lancio dei dadi sceglievano l’ordine delle sequenze e potevano cosı̀ creare minuetti, marce, polacche, walzer, e via dicendo. Più recentemente troviamo degli interessanti esempi nella musica aleatoria di compositori come John Cage, Karlheinz Stockhausen e Pierre Boulez. Nella Sonata per pianoforte No. 3 83 di Boulez (1956-57) troviamo in particolare 82 Si fa qui riferimento al Musikalisches Würfelspiel (dal tedesco, gioco musicale con i dadi) datato 1792 e talvolta attribuito a Mozart, anche se questa informazione non è verificata. Il risultato del lancio dei dadi determina le battute musicali da eseguire che, eseguite in sequenza, creano un walzer completo. Si possono realizzare 1116 combinazioni (circa 45 milioni di miliardi). 83 La Sonata per pianoforte No. 3 di Pierre Boulez è in costante revisione sin dalla sua prima esecuzione nel 1957, e solo due dei suoi cinque movimenti sono stati pubblicati. 9.9 Variazioni della forma (forma aperta) 48 delle serie di if-then 84 e indicazioni di tempo che ricordano molto la sintassi di un linguaggio di programmazione. La forma aperta offre molte possibilità al compositore per video games in quanto mantiene vivo l’interesse introducendo variazioni e sfruttando delle transizioni pianificate in precedenza. Il compositore Henri Pousseur85 spiega: Le esecuzioni erano sempre molto diverse, in quanto l’inizio e la fine di ogni sequenza potevano diventare l’inizio o la fine dell’intero brano, con adattamenti dinamici specifici. Due sequenze potevano essere collegate se la fine della prima e l’inizio della seconda erano similari (ad esempio entrambe nel registro acuto, con ritmo veloce, omogenee); una continuità completa era quindi possibile senza il minimo segno di giunture. La forma aperta è stata utilizzata con successo in numerosi videogiochi. The Legend of Zelda: Ocarina of Time (Nintendo, 1998), ad esempio, utilizza una musica con struttura aleatoria quando ci si sposta tra i livelli nel mondo di Hyrule. Dato che il giocatore deve passare molto tempo in quelle aree per accedere ad altre zone, le sequenze musicali sono eseguite in ordine casuale per mantenere vivo il suo interesse. Ogni volta che ci si trova in quella zona di transizione, quindi, la musica è diversa. Nonostante gli indiscutibili vantaggi di una forma aperta, essa presenta anche diverse difficoltà per il compositore. La prima è che l’ascoltatore occidentale ha una naturale aspettativa che lo porta a pensare che la musica sia orientata verso una certa direzione: la maggior parte delle composizioni che ascoltiamo hanno infatti una chiara struttura organizzata e riconoscibile. Nella forma aperta invece incontriamo delle difficoltà nel riconoscere questa struttura, in quanto non esiste una curva emozionale, non c’è un climax, e questo rischia di trasformarla presto in una sorta di musica ambientale86 . Il 84 Vedi sezione 5 a pagina 27: Sonoro interattivo e adattativo. Henri Pousseur (Malmedy, Belgio, 1929 - Bruxelles, Belgio, 2009) è stato un compositore di musica contemporanea e didatta belga. Generalmente considerato come un esponente della scuola di Darmstadt, Pousseur ha utilizzato tecniche tipiche di quella scuola, quali lo strutturalismo e l’alea, contaminate frequentemente con altri stili. 86 Vedi sottosezione 7.2 a pagina 34: Ambient tracks. 85 9.10 Variazioni della forma (matrici di transizioni) 49 pezzo perde le sue funzioni comunicative e per questo è molto difficile relazionarlo all’immagine. Le difficoltà nel comporre e implementare musica di questo tipo in modo efficace sono evidenti; nonostante ciò, esistono diversi casi in cui utilizzare la forma aperta può rivelarsi una scelta opportuna. 9.10 Variazioni della forma (matrici di transizioni) Un metodo di composizione affine alla forma aperta è quello che prevede l’utilizzo di matrici di transizioni. Il motore di gioco analizza i due interventi musicali da collegare e seleziona una breve transizione appropriata da inserire tra loro. Le tracce musicali devono contenere markers 87 che contraddistinguono dei momenti in cui la transizione può avere luogo88 . iMUSE89 offriva una serie di comandi di questo tipo, e nonostante fosse un software proprietario queste idee sono state in seguito incorporate nella maggior parte dei middleware 90 e dei motori di gioco. In questi software le tracce contengono dei markers che identificano i punti in cui possono avvenire dei cambiamenti o delle ramificazioni in tempo reale in base a parametri di gioco. Quando viene raggiunto un marker il computer verifica se ci sono le condizioni per modificare la musica in quel punto; se queste non ci sono, essa continua cosı̀ com’era. Il compositore deve prevedere e mappare tutte le possibili congiunzioni tra musiche diverse ad un qualsiasi marker, e comporre un gran numero di transizioni compatibili - si tratta di un processo estremamente lungo. Il numero di transizioni da comporre può infatti salire molto rapidamente. Facendo riferimento all’esempio in figura 12 a pagina 38: dalla 87 I markers (o decision points) sono una sorta di “segnalibri” applicati a punti specifici dei file audio. 88 Vedi anche la sottosezione 11.3 a pagina 56: Istruzioni beat-synchronous. 89 iMUSE (interactive MUsic Streaming Engine) è un motore di gioco sviluppato nei primi anni ‘90 dai compositori Michael Land e Peter McConnell presso LucasArts. L’idea dietro ad iMUSE è di sincronizzare la musica con l’azione sullo schermo, cosı̀ che l’audio corrisponda agli eventi rappresentati e che le transizioni da un tema musicale ad un altro avvengano senza brusche interruzioni. iMUSE fu sviluppato a causa della frustrazione di Michael Land per il motore audio usato dalla LucasArts durante la realizzazione del popolare The Secret of Monkey Island (LucasArts, 1990). Il primo gioco ad usare il sistema iMUSE fu Monkey Island 2: LeChuck’s Revenge (LucasArts, 1991) ed esso fu da allora impiegato per tutte le avventure LucasArts. 90 Vedi nota 73 a pagina 42. 9.10 Variazioni della forma (matrici di transizioni) 50 stanza A il giocatore può dirigersi in sei differenti direzioni, quindi ci sono al minimo altrettanti trigger-points 91 di nuove musiche per i diversi ambienti raggiungibili. Consideriamo il caso in cui il giocatore vada dalla stanza A alla stanza B. Poniamo che la musica di A sia una sequenza di 16 battute e che il cambio di musica possa verificarsi soltanto sul primo movimento di una qualsiasi di queste battute: il compositore dovrà comporre 16 diverse transizioni per passare dalla musica di A alla musica di B, una per ogni battuta del tema di A. La transizione appropriata verrà eseguita nel momento in cui il giocatore entrerà nella stanza B. Lo stesso numero di transizioni dovrà essere realizzato per passare da A a C, da A a D, e cosı̀ via. . . e bisogna tener conto anche del ritorno da B ad A, da C ad A, e via dicendo. È facile capire che un metodo simile non sia praticabile in tutte le situazioni. Ad aggiungersi ai punti di innesco causati dai movimenti del giocatore (che determinano l’interattività della musica), potrebbero anche esserci dei triggers procurati da eventi (l’inizio di uno scontro a fuoco, ad esempio) o altri parametri a cui ci si riferisce con l’acronimo RPCs92 , ovvero quei parametri in continua evoluzione come conti alla rovescia, HP del giocatore, quantità di munizioni e cosı̀ via (che determinano invece l’adattatività della musica), e che potrebbero comportare modifiche nel sonoro e, quindi, altre transizioni. Alcune transizioni potrebbero essere riutilizzate in corrispondenza di diversi markers; alcuni di questi possono essere tolti, ma un numero basso di punti di innesco aumenterebbe il tempo necessario ad effettuare una transizione creando il cosiddetto lag 93 . Per ridurre la quantità di lavoro necessaria si potrebbero anche riutilizzare parti della musica in diverse sezioni del gioco, oppure ripetere gli stessi interventi con maggiore frequenza, ma questi accorgimenti limiterebbero molto la qualità complessiva della colonna sonora che probabilmente risulterebbe presto poco interessante e monotona. Per Anarchy Online la soluzione è stata creare un software dal nome SIM (Sample-based Interactive Music) che permette la combinazione di molte pic91 Letteralmente dall’inglese, punti di innesco. RPCs (o RTPCs), Run-time Parameter Controls. 93 Letteralmente dall’inglese, ritardo. La parola lag coincide anche con l’abbreviazione dei termini LAtency Gap, che indicano una differenza (gap) causata da latenza di informazioni (latency). 92 9.11 Conclusioni 51 cole sequenze in un’unica lunga traccia. Ad ogni sequenza musicale è associata una lista di altre sequenze che la possono continuare. Il compositore deve inserire il tempo e la metrica di ogni sequenza per consentire l’allineamento dei beat. Nel gioco ci sono più di 750 sequenze in totale, ognuna delle quali è stata catalogata e organizzata in relazione a tutte le altre e in relazione a vari layers. Le sequenze vengono scelte randomicamente quando il giocatore sta fermo in una locazione in modo tale che la musica non si ripeta mai e che si abbia la sensazione di ascoltare un brano infinito. Il compositore Bjørn Arve Lagim dice a proposito di questa sua colonna sonora: Ogni gruppo di sequenze può cambiare in qualsiasi altro gruppo in qualsiasi momento. Ad esempio: il giocatore si sposta dalla foresta in un’area deserta. È giorno. Sta suonando la sequenza “forest day”. Una volta che il giocatore entra nel deserto, SIM verifica se la musica in esecuzione è associata a qualche transizione per “desert day”. Se cosı̀ fosse, allora quella è la traccia che verrà eseguita successivamente, altrimenti il software troverà automaticamente il percorso più breve per arrivare a “desert day” attraverso altre musiche relative a “forest day”. Concludendo, le matrici di transizione possono essere molto efficaci nel gestire le transizioni in un gioco anche se richiedono un lungo tempo di pianificazione, composizione e programmazione. 9.11 Conclusioni La musica dinamica offre numerose sfide interessanti al compositore, dalla necessità di adattarsi alle diverse situazioni di gioco alle interazioni con dialoghi ed effetti sonori, al dover prevedere sempre una certa varietà. La colonna sonora può essere modificata tramite soluzioni relativamente semplici come cambiamenti di tempo, pitch, volume e DSP, o più complesse come algoritmi di generazione di melodie e armonie, layers, forme aperte, matrici. L’efficacia di queste soluzioni dipende il più delle volte dal genere di video- 9.11 Conclusioni 52 gioco: i puzzle game 94 ad esempio hanno necessità musicali estremamente differenti rispetto agli FPS95 . I giochi con livelli più lunghi e articolati, come quelli di avventura, possono fare un uso efficace della forma aperta. Questi approcci richiedono sia nuovi modi di pensare alla musica da parte del compositore, sia un costante sviluppo delle nuove tecnologie per implementarla nel gioco e forse, in un prossimo futuro, anche in altre tipologie di prodotti artistici e multimediali. 94 Un videogioco rompicapo (puzzle game in inglese) è il termine utilizzato per identificare quella particolare categoria di giochi dedicata alla soluzioni di enigmi sotto forma di puzzle logici, strategici o in cui, ad esempio, si deve completare una sequenza (numeri, parole, forme geometriche), etc. 95 Dall’inglese, First Person Shooter, sparatutto in prima persona. 53 Parte III Il team di sviluppo e i mezzi a disposizione N.B.: diversi passaggi qui riportati sono tradotti e adattati da Game Sound - An Introduction to the History, Theory, and Practice of Video Game Music and Sound Design di Karen Collins (The MIT Press, 2008), capitolo 5: “Game Audio Today: Technology, Process, and Aesthetic” e da Creating Music and Sound for Games di G.W. Childs IV (Thomson Course Technology, 2007), capitolo 10: “Composing: The Game Design”. 10 I ruoli nella divisione audio Il sonoro per i videogiochi si evolve di pari passo con gli strumenti a disposizione degli sviluppatori, ragion per cui i ruoli coinvolti diventano sempre più specifici e dedicati. Mentre un tempo (e tuttora, nei giochi a basso budget) un’unica persona era responsabile per tutti gli aspetti della produzione dell’audio e della sua implementazione, ora nei progetti che possono usufruire di risorse economiche cospicue ci sono interi team che coprono una varietà di abilità artistiche e tecniche. Il sonoro di un videogioco è infatti il risultato di un processo di collaborazione: il programmatore non può implementare il codice senza la musica, e la musica dipende molto da come verrà implementata. Il sound design deve tenere conto dei dialoghi, e cosı̀ via. La divisione degli incarichi che concernono il sonoro di un videogioco è simile a quella per la realizzazione di un film o di una serie televisiva, con l’aggiunta della figura fondamentale dell’audio programmer. 10.1 Sound director A capo della divisione audio troviamo il sound director. Egli è responsabile di tutto ciò che concerne l’audio in un videogioco. Supervisiona il design, 10.2 Compositore 54 definisce la direzione creativa e tecnica che il suo staff deve seguire e si occupa anche delle questioni riguardanti scadenze, budget, collaborazioni esterne e attrezzatura tecnica. È il responsabile del prodotto finale. 10.2 Compositore Si tratta, ovviamente, del musicista che compone le musiche per il videogioco. Nelle compagnie più piccole il compositore si occupa spesso anche del sound design ed eventualmente dell’orchestrazione, lavori delegati ad altri esperti se il team è particolarmente grande. Il compositore supervisiona anche le sessioni di registrazione dei brani della colonna sonora ove il budget permettesse di utilizzare strumenti reali e non virtuali. In passato il compositore era solitamente un dipendente del team di sviluppo, mentre al giorno d’oggi è sempre più diffusa la tendenza ad assumere un freelancer esterno. 10.3 Sound designer È il responsabile degli effetti sonori (SFX) del videogioco. Le librerie di effetti utilizzate possono essere acquistate (in commercio ce ne sono numerosissime) oppure, se il budget è alto e il gioco richiede effetti particolari, possono essere realizzate ad hoc dal sound designer stesso. 10.4 Doppiatori e dialogue director I doppiatori si occupano di dare la voce ai personaggi dei video games; solitamente non sono dipendenti del team di sviluppo ma collaboratori occasionali. Sono diretti dal dialogue director, che coordina e supervisiona il lavoro di doppiaggio. 10.5 Licensing directors Si occupano della gestione dei diritti necessari alla riproduzione dei brani all’interno di un videogioco. 10.6 10.6 Audio programmers 55 Audio programmers Detti anche audio engineers, sono gli sviluppatori dell’audio engine, ovvero dell’insieme degli strumenti informatici necessari all’integrazione di tutto il comparto sonoro nel gioco. L’audio engine è quella parte del codice che fa in modo che i vari eventi sonori (musica, SFX, dialoghi) vengano innescati dalle azioni del giocatore, dalle caratteristiche di stato del suo personaggio, dall’intelligenza artificiale del gioco, dal motore fisico, etc. Di particolare importanza è quindi il rapporto tra il compositore e l’audio programmer : il loro lavoro dà vita all’interattività e all’adattabilità proprie della natura della musica per videogiochi. 11 Le funzionalità dell’audio engine In questa sezione sono elencate e descritte le principali funzionalità che l’audio programmer mette a disposizione del compositore attraverso l’audio engine. È di fondamentale importanza che l’autore delle musiche sia ben consapevole delle potenzialità di questo strumento e al tempo stesso dei suoi limiti per poter realizzare una colonna sonora adeguata. L’audio engine può essere sviluppato dagli audio programmers in base alle esigenze specifiche del gioco da realizzare oppure si può scegliere di utilizzare un middleware già esistente96 . 11.1 L’internal looping L’internal looping è la possibilità dell’audio engine di far ricominciare un brano quando questo raggiunge la fine o un certo punto specifico. Invece di riprendere dall’inizio è possibile far ripartire la musica da un marker in un punto qualsiasi della traccia in modo tale che l’ascoltatore non percepisca che si tratta di una ripetizione. Con un uso appropriato di questo espediente la musica può sembrare molto più lunga di quanto in realtà non sia: il giocatore sente l’inizio del brano quando comincia un livello, e ne sente la fine quando lo completa (o quando muore). Per tutto il resto del tempo, ascolterà una 96 Vedi sottosezione 15.6.1 a pagina 74: L’utilizzo di middleware per l’integrazione. 11.2 Il sideways crossfade 56 musica che continua incessantemente a ripetersi. Per fare in modo che il giocatore non si accorga che si tratta di un loop, la parte del brano da ripetere non dovrebbe durare meno di 3 o 4 minuti. Loop dalla durata più breve (fra i 30 e i 60 secondi circa) sono usati spesso nelle schermate dei menu, in cui il giocatore trascorre generalmente poco tempo. 11.2 Il sideways crossfade Una feature 97 del motore sonoro di un videogioco è il cosiddetto sideways crossfade, ovvero la possibilità di effettuare un crossfade tra due differenti brani durante il gioco senza che ci siano interruzioni, per modificarne l’atmosfera. Ad esempio: il compositore crea all’interno del sequencer un brano dal carattere morbido e disteso; a questo aggiunge delle tracce di percussioni che rendano il pezzo più intenso e dinamico. Il compositore esporterà il brano con la sua variazione in due file diversi (solo le tracce morbide e il mix con anche le percussioni): in questo modo, all’interno di uno stesso livello, il primo pezzo accompagnerà le scene in cui non c’è azione (ad esempio, una passeggiata in un bosco) e il secondo, che andrà a sostituire il primo tramite un sideways crossfade, farà da sottofondo ai momenti di tensione (ad esempio, un combattimento nello stesso bosco dove si andava passeggiando). L’orecchio del giocatore percepirà un unico brano che si arricchisce di una traccia di percussioni nei momenti di maggiore tensione. Il sideways crossfade è quella funzionalità dell’audio engine alla base della tecnica di layering 98 . 11.3 Istruzioni beat-synchronous Un’altra feature spesso implementata nel motore audio è il beat-sync: questa permette al compositore, con l’aiuto del programmatore o del level designer, di introdurre dei markers all’interno di una traccia musicale. Queste istruzioni dicono all’audio engine di effettuare le transizioni in momenti musicalmente importanti, come ad esempio l’inizio di una specifica battuta. In 97 98 Dall’inglese, funzionalità. Vedi sottosezione 9.8 a pagina 46: Variazioni di mix (layering ). 11.4 L’effetto di ducking 57 questo modo le transizioni possono essere gestite da matrici ed effettuate a tempo per sembrare naturali evoluzioni musicali al giocatore99 . 11.4 L’effetto di ducking L’effetto di ducking consiste nel ridurre il segnale di una traccia quando ci si trova in presenza di un altro segnale. Questo effetto si ottiene abbassando il volume (facendo il ducking, appunto) di una traccia audio secondaria nel momento in cui viene eseguita una traccia più importante, e rialzandolo nuovamente una volta che questa è finita. Il ducking è di fondamentale importanza nel missaggio in tempo reale100 . 11.5 Il permutation weighting Il permutation weighting 101 si utilizza per fare in modo che alcuni passaggi musicali o SFX non si affidino troppo al looping ed in particolare per evitare che il giocatore riesca a distinguere con facilità i suoni fortemente caratterizzati che si ripetono. Questa soluzione è stata utilizzata nella colonna sonora di Halo (Bungie, 2001) e viene cosı̀ descritta da Marty O’Donnell e Jay Weinland: In molte situazioni avevamo diverse tracce che suonavano insieme (ad esempio una traccia d’ambiente esterno e una traccia di vento), ognuna con multiple permutazioni nel loop principale, e suoni isolati che venivano eseguiti in modo casuale e venivano collocati casualmente nello spazio tridimensionale. Una tecnica efficace in questo caso (che fu utilizzata estensivamente anche nel campo musicale) è il permutation weighting, ovvero l’abilità di assegnare probabilità differenti ad ogni permutazione in modo tale da controllare quanto spesso una certa permutazione viene eseguita. 99 Vedi sottosezione 9.10 a pagina 49: Variazioni della forma (matrici di transizioni). 100 Maggiori informazioni a riguardo nella sottosezione 16.1 a pagina 79: Il missaggio in tempo reale. 101 Letteralmente dall’inglese, attribuzione di peso alle permutazioni. 12 La dipendenza dalla tecnologia 58 Per esempio, poniamo che ci siano sei permutazioni di un loop in uno spazio esterno con lunghezze variabili da 2 a 8 secondi per un totale di 27 secondi di materiale. In uno di questi loop si può sentire chiaramente il verso di un gufo, che si ripeterebbe ogni 27 secondi in media, a volte un po’ di meno e a volte un po’ di più. Se quel verso distintivo si ripetesse comunque con troppa frequenza, possiamo utilizzare il permutation weighting per assegnargli un fattore di probabilità che istruisca il motore audio a saltare questa permutazione l’x % delle volte. Aggiustiamo questo valore fino a che potremo ascoltare quel verso cosı̀ distinto con una frequenza che possa sembrare naturale. 12 La dipendenza dalla tecnologia Gli audio engine non sono tutti uguali: alcuni sono molto completi, altri supportano soltanto le funzioni più basilari. Come avremo modo di approfondire anche nella prossima sezione riguardante il processo di produzione, tutto ciò che riguarda la realizzazione tecnica e artistica del sonoro di un videogioco è fortemente condizionato dalle potenzialità dell’audio engine e della piattaforma per cui il prodotto viene programmato. Le specifiche hardware della console, del PC o del dispositivo mobile e la programmazione del software forniscono al compositore e agli altri membri della divisione audio un punto di partenza imprescindibile per il loro lavoro, e parallelamente alle inevitabili limitazioni del mezzo (che possono condizionare, ad esempio, la dimensione dei file audio) offrono numerosi spunti per la realizzazione di un lavoro musicale creativo. Si può pensare alla tecnologia come ad un nuovo ensemble a disposizione del compositore, che deve tener conto delle caratteristiche dei suoi strumenti (tecnologici) nello stesso modo in cui si preoccuperebbe di arrangiare al meglio un brano per quartetto d’archi o per orchestra. 59 Parte IV Il processo di produzione N.B.: diversi passaggi qui riportati sono tradotti e adattati da Game Sound - An Introduction to the History, Theory, and Practice of Video Game Music and Sound Design di Karen Collins (The MIT Press, 2008), capitolo 5: Game Audio Today: Technology, Process, and Aesthetic. 13 Premessa Dopo aver studiato le caratteristiche dell’audio dinamico e i ruoli nel team di sviluppo, questa parte descriverà passo dopo passo lo svolgimento del lungo e complesso processo di produzione dell’audio di un video game. Il processo di produzione dell’audio cambia notevolmente da videogioco a videogioco. Generi differenti hanno bisogno di sonorizzazioni differenti: un semplice puzzle game 102 probabilmente non richiederà dialoghi, ad esempio. Inoltre, compagnie differenti hanno differenti budget e possono investire più o meno denaro nella produzione. Il team audio di God of War 2 (Sony, 2007), ad esempio, era composto da quattro compositori, tre orchestratori, tre ensembles (ottoni, archi e coro) e diversi musicisti esperti di strumenti etnici, che andavano ad aggiungersi al team di programmazione e implementazione. Le compagnie più piccole al contrario possono avere una o due persone che svolgono tutti questi lavori insieme. Anche la piattaforma di destinazione del gioco influenza il processo di produzione: i prodotti per le console domestiche di nuova generazione richiedono molti mesi o anche anni di lavoro, mentre l’intera realizzazione del sonoro di un gioco per smartphone avviene solitamente in qualche settimana. L’esempio qui riportato ha come riferimento un team abbastanza grande che comprende un compositore, un sound designer, un orchestratore, dei doppiatori e dei programmatori. Verranno analizzati i processi che portano 102 Vedi nota 94 a pagina 52. 14 Pre-produzione 60 alla creazione di tutte e tre le componenti del sonoro - musica, SFX e dialoghi - suddivisi nelle fasi di pre-produzione, produzione e post-produzione. 14 14.1 Pre-produzione L’audio design document Il primo passo verso la creazione dell’audio di un video game è la stesura dell’audio design document. Questo, supplementare al game design document, specifica dettagliatamente il design e l’implementazione dell’audio nel videogioco; ci possono essere documenti separati riguardanti musica, dialoghi e sound design. Non sempre si crea un audio design document (dipende molto dal genere di videogioco e dallo sviluppatore) e talvolta, anche se viene realizzato, lo sviluppo del gioco prende direzioni diverse e imprevedibili rispetto alla pianificazione iniziale. L’audio design document è progettato per aiutare la divisione audio, ed ha particolare importanza per i programmatori che lo utilizzano per implementare il suono nel videogioco. Un team audio che comincia con un certo anticipo il processo di produzione potrebbe avere come unico materiale su cui lavorare storyboards, concept art, un gameplay appena abbozzato, schizzi dei personaggi da cui sviluppare un audio design document. Ciononostante, ci sono molte decisioni che possono essere prese in questo stadio di lavorazione in modo tale che l’elaborazione del sonoro possa iniziare al più presto, assicurando cosı̀ un ruolo significativo per l’audio all’interno del gioco. 14.2 La creazione di una temp track Dapprima è necessario scegliere il tipo di gioco per determinare lo stile del sound design e il genere musicale appropriato. La creazione di una temp track è un modo piuttosto diffuso per individuare lo stile musicale da utilizzare. La temp track utilizza musica preesistente al posto della composizione finale, definendo i parametri di base a partire dai quali il compositore può lavorare per realizzare la colonna sonora originale. Compositori diversi, ovviamente, 14.3 Il sonoro nel gameplay 61 hanno diversi approcci alla composizione. Koji Kondo ad esempio preferisce vedere l’intero videogioco come un’unica composizione in cui ogni traccia fa parte di un progetto più grande e completo. Quando si tratta di serie di videogiochi, o di giochi in franchise, è anche importante considerare come il suono si relaziona ai titoli precedenti, ai film associati, e cosı̀ via. 14.3 Il sonoro nel gameplay Dopo aver determinato il carattere e lo stile, il secondo obiettivo fondamentale è quello di organizzare il comportamento dell’audio, ovvero come il suono interagisce con il gameplay. In questa fase si decide se la musica sarà soltanto sporadica o se si tratterà di una colonna sonora molto presente, si determina il ruolo che avrà il sound design, e viene pianificata l’interattività e l’adattabilità del sonoro103 . 14.4 Spotting Lo spotting è il passo successivo nello sviluppo del sonoro: in questa fase si determinano i suoni ambientali e la musica per le diverse parti del gioco. In modo specifico, questo comporta la definizione dei momenti di entrata e di uscita delle musiche e la scelta delle variabili del gioco (come la salute del giocatore, il terreno su cui si cammina e cosı̀ via) che influenzeranno i parametri sonori. Kondo suggerisce di tenere a mente il ritmo del gameplay quando si lavora allo spotting. È anche importante tenere conto dei controlli e di come questi possano influenzare l’estetica del suono: se i tasti sono premuti in rapida successione e il gameplay è caotico, il sonoro dovrebbe essere altrettanto frenetico. 14.5 La cue list e la emotion map Per quanto riguarda la musica, solitamente viene creata una cue list (o cue sheet) provvisoria che suddivide lo script in atti, capitoli e sezioni, definendo ciò che deve accadere dal punto di vista musicale in modo essenziale e 103 Vedi sezione 5 a pagina 27: Sonoro interattivo e adattativo. 14.5 La cue list e la emotion map 62 schematico. È importante anche creare delle emotion map del videogioco in generale e di ciascun livello in particolare che rappresentino graficamente l’evolversi della tensione nel tempo (vedi figura 13). Figura 13: Un esempio di emotion map per un livello di gioco Scott B. Morton scrive a proposito delle emotion map: Questo arco musicale è spesso più importante degli eventi in sè perché può suggerire significati più profondi, più di quanto possano fare delle semplici azioni sullo schermo. . . I compositori non dovrebbero pensare solo “Come suona questo livello?” ma pensare invece “Quale ruolo hanno questo livello e i suoi personaggi nel grande schema del gioco e della trama? Come posso raffigurarlo con la mia musica? Dove posso inserire la musica nel livello per far risaltare questo aspetto della narrazione nel modo più efficace?” . . . Devi creare un climax musicale nel tuo gioco. Non usare la tua musica più intensa fino a che non hai raggiunto il punto essenziale nell’arco emozionale del gioco. Lo scontro con il boss finale è più importante di quello precedente con il mini-boss? Fallo sentire nella musica. Un giocatore dovrebbe essere in grado di interpretare a livello subconscio l’importanza degli eventi in base alla musica che li accompagna. La cue list aiuta quindi il compositore ad organizzare e progettare la colonna sonora, e al tempo stesso aiuta il programmatore ad implementare i file 14.6 La progettazione del sound design 63 nel videogioco. Organizzare i momenti in cui il gioco ha bisogno di musica è un ottimo sistema per pianificare il tempo necessario alla composizione, all’orchestrazione, alle sessioni di registrazione e agli altri aspetti della creazione della colonna sonora. Il frammento di cue list riportato in tabella 1 appartiene al gioco di ruolo online Earth Eternal (Turnout Ventures, 2009) musicato da Jeff Simmons. N˚ Nome file Azione 01 02 dungeon01 Non loop caverna01 Loop 2:07 1:37 03 04 05 deserto01 mistica01 gotica01 1:57 1:49 2:00 Non loop Non loop Non loop Durata Note Leggermente drammatico, oscuro Più spaventosa, più presentimento del dungeon, meno oscura di tomba del re Egizia/vagamente araba Per i posti mistici Oscurità con elementi metallici Tabella 1: Esempio di cue list per le musiche di Earth Eternal 14.6 La progettazione del sound design Lo stile del sound design viene deciso durante la fase di pre-produzione. Cosı̀ come accade per la musica, fare lo spotting e creare una asset list 104 da utilizzare è il primo passo da compiere (la tabella 2 rappresenta una parte dell’asset list di Earth Eternal ). Partendo dalla lettura dello script e del design document, si ricercano i suoni per oggetti, azioni, ambienti, andature, momenti di tensione e di rilascio, personaggi, e cosı̀ via. Lo spotting di un gioco in termini di intensità emozionale del sound design è estremamente importante: come abbiamo visto, c’è ritmo e movimento all’interno di un singolo livello o di un intero gioco in termini di picchi e valli nelle sensazioni percepite dal giocatore. Come accade per la musica, una emotion map che rappresenti graficamente i punti di tensione e rilascio può aiutare il sound designer a decidere quali suoni hanno bisogno di enfasi, quali possono coesistere con altri e quali hanno un’importanza secondaria. Le asset lists sono 104 Letteralmente dall’inglese, lista di risorse. 14.7 La progettazione dei suoni d’ambiente 64 spesso basate sulla descrizione dei livelli e sono suddivise in tipi di suoni (di armi, d’ambiente, del menu, rumori e cosı̀ via). Colpi d’arma Spade N˚ Nome file 50 51 52 53 54 55 56 57 58 spada spada spada spada spada spada spada spada spada N˚ Nome file 59 60 61 62 63 64 65 66 67 bastone bastone bastone bastone bastone bastone bastone bastone bastone Durata carne impatto01 carne impatto02 carne impatto03 pelle impatto01 pelle impatto02 pelle impatto03 legno impatto01 legno impatto02 legno impatto03 0:01 0:01 0:01 0:01 0:01 0:01 0:01 0:01 0:01 Bastoni carne impatto01 carne impatto02 carne impatto03 pelle impatto01 pelle impatto02 pelle impatto03 legno impatto01 legno impatto02 legno impatto03 Durata 0:01 0:01 0:01 0:01 0:01 0:01 0:01 0:01 0:01 Tabella 2: Esempio di asset list per il sound design di Earth Eternal 14.7 La progettazione dei suoni d’ambiente I suoni d’ambiente hanno un’importanza cruciale nel creare l’atmosfera di un gioco. Questi solitamente includono dialoghi d’ambiente e suoni esterni. Creare un’atmosfera (di sicurezza, eccitazione, etc.) serve a preparare il giocatore per una situazione particolare, o per ingannarlo facendogli pensare 14.8 L’asset list finale 65 che un’area è sicura mentre in realtà non lo è (o viceversa). Steve Kutay, sound designer a Radius360105 , dice: L’impatto psicologico dei suoni d’ambiente può aggiungere moltissimo all’immagine sullo schermo anche se questi non sono fisicamente presenti sulla scena. Ad esempio, il pianto distante e continuo di un bambino può suggerire vulnerabilità o insicurezza. Un recinto rotto che sbatte a causa del vento in una città abbandonata suggerisce al giocatore che in passato è avvenuto qualcosa di drammatico. Questi sono dei casi in cui si accresce la consapevolezza nel giocatore. Suoni più scontati possono essere utilizzati per avvertire il giocatore della prossimità del pericolo. Droni oscuri e voci ovattate dei nemici prepareranno il giocatore a un violento combattimento. La paura, l’anticipazione e l’ansia possono essere facilmente evocate da un attento uso dei suoni d’ambiente. Per fare in modo che i SFX ambientali siano realistici, e per evitare soprattutto che il giocatore riconosca con facilità i suoni che si ripetono, si utilizza la tecnica del permutation weighting 106 . 14.8 L’asset list finale Terminata la progettazione, viene stilata la lista di tutto il materiale sonoro necessario alla produzione del video game. L’asset list finale è strutturata in diverse sotto-liste per il sound design, la musica, i dialoghi, e per tutti i contenuti audio aggiuntivi (per la promozione e il marketing, per i trailer, e cosı̀ via). 14.9 Considerazioni tecniche A questo punto è necessario considerare le caratteristiche e le limitazioni tecniche delle piattaforme di destinazione del gioco, tra cui quanti canali 105 Radius360 è un’azienda con base a Los Angeles specializzata nella creazione di effetti sonori per videogiochi. 106 Vedi sottosezione 11.5 a pagina 57: Il permutation weighting . 14.10 Tabella di marcia e preventivo 66 sonori ci sono a disposizione, se il suono sarà surround, quale frequenza di campionamento e quale algoritmo di compressione devono essere adottati, etc. Sulla base di tutti questi dati vengono elencati gli strumenti necessari all’implementazione del sonoro nel gioco, la tecnologia già disponibile nello studio e quella invece da sviluppare o comprare. Molte volte l’utilizzo di un middleware si rivela la soluzione più semplice, in quanto permette di risparmiare tempo e di avere a disposizione uno strumento potente, affidabile e ottimizzato per ogni piattaforma. 14.10 Tabella di marcia e preventivo Infine vengono realizzati una tabella di marcia e il preventivo dei costi di produzione dei materiali sonori (varie sessioni di registrazione, implementazione e tutti i processi che vedremo nella sezione seguente) e di post-produzione (testing 107 , controllo della qualità, etc.). 15 15.1 Produzione Composizione e registrazione Se lo spotting della musica non era stato fatto nella fase di pre-produzione, questo avverrà su una versione stabile e giocabile del video game (quando disponibile). Se cosı̀ non fosse, i compositori possono creare una serie di scratch tracks, ovvero delle bozze di interventi. Ogni compositore ha tipicamente il suo modo di lavorare in questa fase, ma il processo di creazione può dipendere anche dalla grandezza del team di sviluppo: le compagnie più piccole non utilizzano orchestre ma campionatori e sintetizzatori, più abbordabili economicamente e le cui tracce possono essere rielaborate più facilmente nel caso ci fossero modifiche da fare. Nelle compagnie più grandi, una volta che le scratch tracks sono state approvate queste vengono affidate agli orchestrato107 Il collaudo del software (detto anche testing) è un procedimento utilizzato per individuare le carenze di correttezza, completezza e affidabilità delle componenti software in corso di sviluppo. Consiste nell’eseguire il software da collaudare e nel valutare se il suo comportamento rispetta i requisiti. 15.2 La realizzazione del sound design 67 ri. Le partiture definitive vengono poi consegnate agli ensemble unitamente a dei pre-records realizzati con l’ausilio degli strumenti virtuali, che fungono da riferimento. Si effettuano infine le sessioni di registrazione, il missaggio e il mastering delle tracce. 15.2 La realizzazione del sound design La produzione del sound design di un videogioco ha tipicamente luogo nell’arco di diverse sessioni. Nello studio di registrazione vengono spesso utilizzati effetti sonori provenienti da librerie, che vengono manipolati fino a raggiungere il risultato voluto. Nello studio è talvolta possibile registrare suoni completamente nuovi: alcune compagnie dispongono di spazi attrezzati dedicati ai rumoristi. Si realizzano spesso dei field recordings, ovvero registrazioni di ambienti. Una volta che tutti i materiali sonori sono stati raccolti, questi vengono alterati e perfezionati in studio utilizzando diversi effetti e tecniche per raggiungere il suono più adatto al gioco e per distinguere certi sample da quelli presenti in altri video games che utilizzano di partenza le stesse librerie. Questo solitamente comporta l’utilizzo di tecniche quali il layering 108 , l’equalizzazione, la compressione, o altri DSP109 . 15.3 L’utilizzo di DSP in tempo reale Una delle nuove tecnologie che ha consentito passi avanti importanti nella qualità del sound design è stata l’introduzione di DSP più potenti che riescono a processare i suoni in tempo reale (ovvero mentre si sta giocando). Questa possibilità fa risparmiare molto tempo in fase di registrazione, consente di economizzare lo spazio richiesto dai campioni e al tempo stesso è una soluzione versatile che aumenta il realismo dell’esperienza di gioco. In passato, per far cambiare il suono dei passi da un terreno roccioso a quello dell’interno di una grotta i campioni venivano registrati separatamente: a ogni luogo del gioco erano attribuiti i suoi specifici sample. Ora invece si 108 Si parla di layering quando si ottiene un nuovo suono a partire dalla sovrapposizione di due o più sample. 109 Vedi nota 77 a pagina 44. 15.4 Dialoghi e voce fuori campo 68 possono aggiungere DSP diversi a seconda del luogo in cui il giocatore si trova, mentre i campioni di base restano gli stessi. In questo modo è necessaria una sola registrazione di passi per creare potenzialmente infinite variabili a seconda del luogo. In altre parole, l’utilizzo di DSP in tempo reale permette di creare effetti sonori più realistici e dinamici nel gioco risparmiando spazio nella memoria. Ecco cosa ne pensa Sotaro Tojima, sound director di Metal Gear Solid 4: Guns of the Patriots (Kojima Productions, 2008): Ad esempio, se una bottiglia cade da un tavolo, colpisce una pala di metallo e poi rotola su un tappeto, il sound processing convenzionale affibbierebbe un unico suono ai diversi eventi indipendentemente dall’ambiente e dall’oggetto urtato. Sulla PlayStation 3 in questo stesso scenario la bottiglia farebbe un rumore metallico quando colpisce la pala, e poi un suono attutito e continuo mentre rotola sul tappeto. Nel caso la stanza avesse delle peculiarità sonore il rumore della bottiglia genererebbe un’eco se ci si trova in un bagno, mentre sarebbe più attenuato se l’ambiente è una camera da letto. Bisogna poi calcolare in tempo reale il posizionamento nel panorama surround, che modificherà il panning mentre la bottiglia scivolerà verso il fondo della stanza, o da una parete all’altra, in funzione della direzione in cui rotolerà. 15.4 Dialoghi e voce fuori campo Il team audio supervisiona solitamente anche la produzione dei dialoghi e della voce fuori campo, dato che questi devono essere mixati con il resto dell’audio nel gioco. Agli albori dei dialoghi nei videogiochi, per registrare le voci venivano spesso ingaggiati gli amici degli sviluppatori; oggi vengono chiamati solitamente attori professionisti e il processo in generale è molto più curato. Il dialogo è una parte importante del suono complessivo di un videogioco, come i già citati Marty O’Donnell e Jay Weinland sostengono parlando di Halo: I dialoghi in Halo furono uno degli elementi che aiutarono a dare al gioco una caratterizzazione unica. Ci sono due tipi di dialogo: 15.4 Dialoghi e voce fuori campo 69 il dialogo cinematografico, che segue un tradizionale script lineare, e il dialogo dinamico. Mentre stai giocando ad Halo, i tuoi Marines ti allerteranno dinamicamente su cosa sta succedendo intorno a te, avvisando il tuo personaggio e i compagni del pericolo, si sgrideranno tra loro, si scuseranno per aver sparato o ucciso degli alleati, ti loderanno. Questo aspetto del sonoro di Halo non avrebbe potuto esistere senza il duro lavoro del programmatore di AI110 Chris Butcher, che ci mise a disposizione diversi possibili parametri dell’AI in base a cui un personaggio potrebbe dire qualcosa; è inoltre possibile controllare quante frasi vengono dette per far sembrare la conversazione naturale. . . Anche il dialogo cinematografico funziona bene, sia per l’ottima trama scritta dal team Bungie, sia per l’eccellente sceneggiatura di Joseph Staten. Gli script per le cut scenes e altre scene interne al gameplay furono scritte e strutturate in modo tale da far capire chiaramente la trama al giocatore. Ci sono circa un’ora e quindici minuti di cut scenes nel nostro gioco, che pongono questa parte della produzione di Halo alla pari di un breve lungometraggio. I dialoghi possono essere cosı̀ categorizzati: • eventi presenti nello script (ovvero scene facenti parte del gioco, in cui il giocatore può anche andare via e non ascoltare i dialoghi ma cosı̀ facendo perderebbe informazioni importanti); • cinematografici (ovvero presenti nelle FMV111 ); • dialoghi ambientali (chiamati anche walla, costituiscono il sottofondo dei luoghi dove ci sono altre persone che parlano, come ad esempio una città, un negozio, etc.); 110 Artificial Intelligence, intelligenza artificiale. Un Full Motion Video (FMV) è una tecnica di narrazione propria dei videogiochi. Invece di fare uso di sprite, vettori o modelli 3D, questi filmati raffigurano azioni nel gioco attraverso sequenze prerenderizzate. Molti videogiochi sfruttano questa tecnica per presentare informazioni nelle cut scenes. 111 15.4 Dialoghi e voce fuori campo 70 • suoni generati dall’AI (conosciuti anche come barks, latrati, sono esclamazioni non verbali come ad esempio le urla); • la narrazione della voce fuori campo; Tutti insieme, questi dialoghi contano migliaia di righe nello script: quello di Halo 2 (Bungie, 2004), ad esempio, arriva a più di sedicimila. I dialoghi devono essere attentamente catalogati, cosı̀ come succede per i suoni e le musiche. Uno script può essere organizzato in un cue sheet in base al personaggio o alla scena (vedi tabella 3). Nome file Pers. Luogo Dialogo Sh001 Sharon Lv.3 grotta “Aiuto!” Kev001 Kevin Lv.3 grotta “Tieni duro! Arrivo!” Mostro001 Mostro1 Lv.3 grotta (esterno) “Grrrauh!” Kev002 “Cos’è stato?” Kevin Lv.3 grotta Reg. orig. DSP FX Note Riverbero grotta03 Tieni duro! Riverbero grotta03 DSP da inserire Riverbero grotta03 Tabella 3: Esempio di cue sheet per i dialoghi Generalmente, gli studi sfruttano singoli attori per doppiare diversi ruoli. È importante, per questo motivo, che la cue sheet sia organizzata attentamente in modo tale che all’attore non capiti di “parlare con se stesso” all’interno del gioco. Negli studi le voci vengono registrate personaggio per personaggio piuttosto che in ordine sequenziale, e per questo vengono creati dei recording sheets per ogni attore. I dettagli riguardanti il cosiddetto asrecorded script 112 devono essere annotati. I dialoghi sono spesso registrati negli studi ADR113 , che risultano funzionali anche al lavoro sul parlato nei 112 L’ARS (As-Recorded Script) è letteralmente dall’inglese lo script come è stato registrato, ovvero quella versione della sceneggiatura che comprende le modifiche - solitamente lievi - che vengono introdotte durante le sessioni di registrazione. 113 L’Automated Dialogue Replacement o ADR è, anche nel cinema e nella televisione, il processo di registrazione dei dialoghi in studio dopo che la scena è stata girata. Originariamente nel cinema si utilizzava questa tecnica per sostituire un suono in presa diretta scadente. 15.5 Localizzazione 71 videogiochi oltre che nel cinema. La qualità dei file dry 114 viene accertata; questi vengono poi tagliati in modo che ognuno comprenda una singola frase per favorire il processo di integrazione nel gioco. I file risultanti vengono infine modificati con l’aggiunta di effetti quando necessario. Sessioni di registrazione addizionali e nuovi take vengono spesso richiesti nel caso in cui i risultati non soddisfino la produzione o lo script subisca modifiche o ampliamenti. 15.5 Localizzazione Un aspetto della produzione del sonoro che negli anni è diventato sempre più complesso è la localizzazione, ovvero il processo per cui un videogioco viene adattato ad un territorio o ad un mercato specifico. La localizzazione, quando viene effettuata, include tipicamente le lingue europee più diffuse (francese, tedesco, spagnolo e italiano) e può anche comprendere i mercati asiatici. Tutto il processo di produzione dei dialoghi deve essere rifatto per ognuna delle lingue scelte. A volte, per questioni di tempo e soprattutto di budget, questo non succede e vengono invece introdotti i sottotitoli. Le versioni localizzate possono essere finalizzate insieme alla versione originale (processo noto come sim-ship 115 ), o post-gold, in cui gli adattamenti vengono invece effettuati una volta che il prodotto originale è già stato completato. Assicurarsi un mercato vasto in termini di distribuzione aiuta a minimizzare alcuni dei rischi economici della produzione di un gioco. La localizzazione dipende spesso dal genere, come sostiene la Game Localization Network116 : Distribuire un gioco con il manuale cartaceo tradotto potrebbe essere sufficiente per un gioco di corse, ma non servirà a coinvolgere e aiutare i giocatori di un RPG117 . Un RPG indirizzato a un 114 Letteralmente dall’inglese, asciutto. Si tratta di quei suoni che non sono stati modificati attraverso l’aggiunta di effetti. Il suo contrario è wet, umido. 115 L’abbreviazione sim-ship deriva da simultaneous shipping, ovvero distribuzione simultanea per un lancio mondiale. 116 La Game Localization Network è una compagnia con sede a Dublino specializzata nella localizzazione di videogiochi. 117 RPG è l’acronimo di Role Playing Game, ovvero Gioco Di Ruolo (GDR). 15.5 Localizzazione 72 largo mercato può trarre beneficio da una localizzazione “completa” (interfaccia utente, testi nel gioco, audio parlato, manuale e documenti di supporto); un gioco simile per un mercato più piccolo potrebbe invece essere distribuito in una versione con i sottotitoli, e in questo modo [il produttore] risparmierebbe sui costi delle registrazioni audio. La localizzazione è necessaria per creare un ambiente di gioco realistico indipendentemente dalla lingua del giocatore. Si tratta infatti di qualcosa di più di una semplice traduzione: l’interfaccia utente deve mantenersi intuitiva, la storia deve risultare fine e ricercata come nell’originale e l’audio deve essere altrettanto realistico e avvincente. La localizzazione può includere anche differenze nei controlli e nelle animazioni, e molto spesso anche differenti frame-rate a seconda degli standard del paese di destinazione, che richiedono quindi adattamenti nell’audio. È importante tener conto che potrebbero esserci differenze culturali significative nei vari paesi, che possono richiedere cambiamenti anche significativi nelle versioni localizzate del gioco. Musiche differenti possono essere selezionate per differenti mercati. Problemi legali o culturali possono sorgere da differenti sistemi di rating 118 nei vari territori, dovuti alla censura e all’opinione pubblica. La Germania, ad esempio, ha leggi molto restrittive riguardanti la violenza: per la localizzazione tedesca quindi è possibile che gli sviluppatori siano costretti ad abbassare il volume degli effetti sonori relativi alle azioni di questo tipo. Nei casi in cui la narrazione di un gioco venga significativamente rivisitata per una cultura differente si parla di blending. Questo può comportare la scrittura di nuove narrazioni indirizzate a una cultura specifica e a questo scopo possono diventare necessari anche nuovi elementi grafici e sonori. Esempi di giochi sottoposti a blending sono i celebri Crash Bandicoot (Naughty Dog, 1996), in cui l’aspetto del protagonista fu modificato per il mercato giapponese, e Half-Life (Valve, 118 Dall’inglese, classificazioni. Si tratta di sistemi utilizzati per garantire che forme di intrattenimento quali film, video, DVD e videogiochi siano chiaramente etichettate per gruppi di età a seconda del loro contenuto. Queste classificazioni forniscono indicazioni ai consumatori (in particolare ai genitori) e li aiutano a decidere se acquistare o meno un particolare prodotto. Vedi anche sottosezione 2.2 a pagina 15: I titoli che presentano violenza. 15.6 L’integrazione 73 1998), in cui gli sviluppatori dovettero sostituire i personaggi umani con dei robot per soddisfare diversi standard di rating della violenza. Ovviamente, il cambio di personaggi da umani a macchine comporta significative modifiche nel campo dell’audio. 15.6 L’integrazione Lo stage finale nel processo di produzione dell’audio è l’integrazione di musica, effetti sonori e dialoghi nel videogioco. Questo richiede ben più della scrittura di qualche riga di codice. Come descrive Marty O’Donnell: Il processo di implementazione è un grosso lavoro. . . non si tratta soltanto di “Abbiamo bisogno di un suono”. Si tratta di “Qui c’è questo veicolo, o qui c’è quest’arma, che ha molte componenti diverse e molti differenti modi di comportarsi in un ambiente audio 3D”. Secondo O’Donnell l’implementazione è responsabile per almeno il 50% del risultato sonoro finale: il modo in cui l’audio è integrato in un gioco avrà un impatto decisivo sulla sua efficacia. Tipicamente l’integrazione determina come il sonoro viene richiamato (attraverso i cosiddetti triggers) e quali aspetti dell’audio devono essere modificati dai parametri di gioco. Ad esempio, certe musiche o certi loop ambientali possono essere innescati dal luogo, da variabili come la salute del giocatore o quella del nemico, da conti alla rovescia, da un’azione del giocatore stesso e cosı̀ via. I file con le registrazioni delle musiche devono poter essere integrati nel video game in modo da permettere numerose combinazioni. Integrare la musica comporta infatti la sua suddivisione in split 119 , loop o chunk 120 in modo da creare una traccia complessiva dinamica attraverso l’uso delle tecniche che abbiamo precedentemente descritto121 . Come descrive John Debney: 119 Dall’inglese, porzioni. Dall’inglese, grossi pezzi. 121 Vedi sezione 8 a pagina 35: La non linearità nei videogiochi e sezione 9 a pagina 41: Dieci metodi di variazione nella musica dinamica. 120 15.6 L’integrazione 74 C’erano quasi due ore di musica, che per un gioco non è molto. [I programmatori] Prendono quelle due ore e le ritagliano trasformandole in ore e ore di musica. . . il processo di scrivere musica che fossero in grado di tagliare facilmente è importante. Molti dei pezzi per le scene d’azione sono piuttosto ritmici, in modo che potessero essere tagliati molto facilmente. 15.6.1 L’utilizzo di middleware per l’integrazione Diversi altri elementi musicali possono essere modificati in tempo reale dal motore di gioco, come gli effetti DSP, il tempo metronomico e la strumentazione. Middleware 122 come Wwise, FMOD Studio, ISACT e altri vengono utilizzati sempre più spesso per ridurre i tempi e i costi di produzione e per integrare un sonoro più dinamico nel gioco. Il software Wwise della compagnia canadese Audiokinetic, ad esempio, consente agli audio developers di realizzare un prototipo di integrazione dell’audio in una simulazione del gioco prima che questo sia completato. Suoni d’ambiente possono essere sintetizzati in tempo reale, e effetti di ostruzione123 e occlusione124 sono gestiti dal software. È inclusa anche l’organizzazione del suono in base alle priorità per un missaggio in tempo reale125 , cosı̀ come la randomizzazione126 di elementi quali pitch e volume per aumentare il realismo degli SFX127 . I parametri di gioco possono essere simulati in modo da implementare l’adattabilità e l’interattività del sonoro. Un altro aspetto importante è che i middleware consentono di adattare la programmazione dell’audio a molte possibili piat122 Vedi nota 73 di pagina 42. L’ostruzione è il fenomeno per cui la percezione di un suono viene ostacolata dalla presenza di oggetti posizionati tra la sorgente sonora e l’ascoltatore. Gli ostacoli non bloccano completamente il suono, cosı̀ come succederebbe con la luce: il suono infatti viene riflesso e arriva all’ascoltatore da diverse direzioni, ognuna delle quali è attutita in modo differente. 124 A differenza dell’ostruzione, nell’occlusione c’è una parete tra il suono e l’ascoltatore. Il suono risulterà quindi attutito o del tutto inudibile in base al materiale del muro e alla vicinanza della fonte e dell’ascoltatore ad esso. 125 Vedi sottosezione 11.5 a pagina 57: Il permutation weighting . 126 La randomizzazione è il processo di assegnazione di valori casuali ad una variabile. 127 Vedi sottosezione 9.2 a pagina 42: Variazioni di pitch. 123 15.7 Il posizionamento dei suoni nel panorama surround 75 taforme di destinazione e di gestire le performance in termini di utilizzo di CPU e memoria per ottimizzare le prestazioni. 15.7 Il posizionamento dei suoni nel panorama surround Una fase importante della produzione è il posizionamento dei suoni nello spazio tridimensionale. L’utilizzo del formato ad alta definizione (HD) nei televisori e nei monitor e l’adozione dei sistemi di diffusione 5.1 hanno portato a una crescita della domanda nei consumatori di un suono surround nei videogiochi. Ormai tutte le console sono compatibili con il surround Dolby Digital 5.1; alcuni sistemi di gioco permettono anche la diffusione del sonoro in 7.1. Il suono surround è diventato lo standard e quindi sarà sempre più richiesto mano a mano che gli utenti aggiorneranno i loro impianti hometheater. La posizione spaziale del suono sta diventando un aspetto sempre più importante del gameplay. Il suono surround viene utilizzato per aiutare a creare un ambiente realistico ed immersivo, come spiega Richard Dekkard (fondatore e audio director di Orphic Media) a proposito dell’uso di questa tecnica in Auto Assault (NetDevil, 2006): Tutto ciò che si muove nel gioco viene pannato dinamicamente nel panorama surround. Questo include tutti i veicoli, i nemici, le esplosioni, etc. Anche i suoni emessi da oggetti stazionari vengono pannati in questo modo. [. . . ] Ad aggiungersi a questi elementi interattivi, abbiamo sei livelli di suoni surround “preconfezionati”: i suoni di armi, la musica, il tempo atmosferico, l’audio d’ambiente, i suoni dell’interfaccia utente e l’esplosione del tuo stesso veicolo. Sono tutti pannati nel panorama surround. Abbiamo sviluppato questo aspetto al massimo. La tecnologia surround può essere utile non soltanto per la sua caratteristica immersiva ma anche per dare al giocatore degli indizi sonori. Un esempio è l’uso del surround per Shadow Mario in Super Mario Sunshine per Nintendo Game Cube (Nintendo, 2002), dove il posizionamento dell’audio 15.7 Il posizionamento dei suoni nel panorama surround 76 suggerisce al giocatore il luogo in cui questo personaggio invisibile comparirà. Un altro utilizzo interessante del suono surround si trova in Onimusha 3: Demon Siege (Capcom, 2004), dove il giocatore può scegliere la sua posizione di ascolto scegliendo tra la prospettiva sonora percepita dal protagonista del gioco o dal punto di vista della “telecamera”. Il suono surround può quindi giocare una molteplicità di ruoli importanti all’interno dei videogiochi, come confermano Marty O’Donnell e Jay Weinland parlando di Halo: Sapere che un Marine ti “copre le spalle” e sentire la sua voce provenire da sopra la tua spalla destra ti dà sicurezza, cosı̀ come sentire l’armatura metallica di un hunter 128 dietro di te ti trasmette un senso di pericolo incombente. Molti degli elementi sonori nel gioco sono posizionati tridimensionalmente, come gli effetti sonori delle armi, gli impatti dei proiettili, i dialoghi, gli oggetti meccanici, le particelle come il fango o le scintille e i dettagli ambientali come gli animali selvatici, i fiumi e le cascate. Fondamentalmente, tutto ciò che si può ascoltare in Halo che non sia la musica o un tappeto ambientale è posizionato in 3D. . . Tutto l’audio 3D è soggetto a occlusione129 , ostruzione130 , effetto Doppler131 e HRTF132 . Ogni volta che un elemento solido si trova tra il giocatore e una sorgente sonora, questa viene occlusa o ostruita. Un buon esempio di questo si può riscontrare nell’hangar della nave aliena, dove si trova una navicella con il motore acceso. Nel momento in cui Master Chief 133 si muove dietro a una colonna, il suono del motore viene occluso, ovvero viene 128 Si tratta di uno dei nemici più pericolosi del gioco. Vedi nota 124 a pagina 74. 130 Vedi nota 123 a pagina 74. 131 L’effetto Doppler è un fenomeno fisico che consiste nel cambiamento, rispetto al valore originario, della frequenza percepita da un osservatore raggiunto da un’onda emessa da una sorgente che si trovi in movimento rispetto all’osservatore stesso. Nel caso in cui la sorgente e l’osservatore si muovano entrambi rispetto al mezzo di propagazione delle onde, l’effetto Doppler totale deriva dalla combinazione dei due movimenti. 132 L’HRTF (Head-Related Transfer Function, ovvero “funzione di trasferimento relativa alla testa”) è il modo in cui l’orecchio percepisce un suono da un particolare punto nello spazio. 133 Il protagonista del gioco, che viene controllato dal giocatore. 129 15.8 Il mastering 77 abbassato il suo volume e le sue frequenze più acute. . . L’HRTF contribuisce all’esperienza sonora filtrando i suoni in base alla direzione puntata dalla testa del protagonista. Lo si può percepire nei dialoghi delle sequenze FMV cosı̀ come nei suoni durante i combattimenti. Probabilmente il miglior modo per sentire questo effetto è però ascoltare i propri stessi passi. Quando in Halo muovi Master Chief in giro, ascolta i suoni dei suoi passi su diverse superfici. Poi, corri attraverso le stesse aree guardando giù verso i suoi piedi piuttosto che in avanti, e ascolta quegli stessi passi: la differenza è incredibile. 15.8 Il mastering Il processo di mastering viene effettuato sui singoli suoni (dialoghi, effetti, etc.): questo consente di regolare al meglio la loro escursione dinamica. Attualmente, il range dinamico nei videogiochi è ancora molto piccolo. Con il mastering in tempo reale le informazioni sonore non volute possono essere rimosse per ottenere una gamma dinamica più realistica e cinematografica. Come sostiene Alexander Brandon134 : Una fissazione di molta gente che lavora sull’audio aggrappandosi ai BBE Sonic Maximizer135 è che tutti i suoni abbiano bisogno di essere normalizzati136 a livelli super-alti, creando in alcuni casi file WAV che in Sound Forge 137 assomigliano a mattoni massicci. . . un bilanciamento adeguato dei range dinamico e frequenziale è vitale per evitare di macellare le orecchie dell’ascoltatore medio. 134 Alexander Brandon è un musicista e compositore statunitense. Ha composto musica principalmente per videogiochi prodotti da Epic Games e altri titoli che si basano sulla loro tecnologia: Unreal (Epic Games, 1998), Unreal Tournament (Epic Games, 1999), Deus Ex (Ion Storm, 2000), Tyrian (Eclipse Productions, 1995), Jazz Jackrabbit 2 (Epic MegaGames, 1998). 135 Il BBE Sonic Maximizer è un effetto in un’unità rack che permette di massimizzare il volume di un segnale sonoro fino a 0 dB. 136 La normalizzazione consiste nel rendere massimo il livello di un segnale audio senza introdurre distorsione. 137 Sound Forge è un software di audio editing digitale creato da Sony Creative Software. 16 Post-produzione 78 Rob Bridgett138 sostiene che una ragione alla base di questa carenza di range dinamico è forse da imputare al fatto che. . . [. . . ] i videogiochi nacquero nelle sale giochi, dove dovevano competere con i suoni delle console vicine. L’audio quindi doveva essere molto forte per attirare l’attenzione. Procede sostenendo che la “cinematizzazione” dei giochi sta cambiando il loro posizionamento culturale e quindi li sta portando verso un’estetica più vicina al cinema, dove tutto il materiale audio richiede una certa “etichetta di ascolto”, dove. . . [. . . ] ci si aspetta che venga ascoltato in un ambiente silenzioso e che l’ascoltatore gli presti totale attenzione, visto che non deve competere simultaneamente con altri suoni. 16 Post-produzione La post-produzione nei videogiochi riguarda tipicamente il missaggio, ovvero l’aggiustamento di volume e contenuto frequenziale di musica, dialoghi ed SFX per fare in modo che non si disturbino tra loro; nel mix si decidono inoltre quali di questi elementi enfatizzare e a quali invece dare minore importanza. Il missaggio deve evitare quelli che Charles Deenen139 chiama believability gaps 140 : silenzi fastidiosi, troppe ripetizioni, bilanciamenti innaturali (nell’equalizzazione, nel range dinamico, e cosı̀ via), o dialoghi poco realistici. Il missaggio è un processo di cui bisognerebbe idealmente tenere conto durante tutta la fase di progettazione del sonoro. Ed Lima, audio director presso Gearbox Software, dice a riguardo: 138 Rob Bridgett è un sound designer, sound mixer e audio director per i videogiochi canadese. Ha lavorato, tra gli altri, a Sudeki (Climax, 2004), Scarface: The World Is Yours (Radical Entertainment, 2006), Prototype (Radical Entertainment, 2009) e Prototype 2 (Radical Entertainment, 2012). 139 Charles Deenen (Holthees, Olanda, 1970) è un compositore, audio director, sound designer e addetto al mix per i videogiochi. È anche conosciuto per il suo lavoro sulla musica e il sonoro in generale nei videogiochi dell’era di Commodore 64 e Amiga. 140 Letteralmente dall’inglese, lacune di credibilità. 16.1 Il missaggio in tempo reale 79 Penso al missaggio durante tutto il processo di design. Generalmente tento di organizzare i suoni in famiglie a seconda delle loro caratteristiche frequenziali. Ad esempio, le esplosioni tendono ad avere molte frequenze basse, la voce fuori campo occupa una banda più alta, e la musica può essere composta con specifici strumenti e, di conseguenza, frequenze. I suoni nei video games sono, in un certo senso, in competizione tra di loro - dialoghi, effetti, ambiente e musica occupano tutti lo stesso spazio sonoro. In particolar modo, visto che i dialoghi e gli SFX di, ad esempio, un combattimento sono spesso nel range centrale di frequenze, c’è un costante rischio di creare ciò che il sound designer del cinema Walter Murch chiama una logjam 141 . Se il personaggio si trova in uno spazio aperto e mentre sta parlando con un NPC sente uno sparo in lontananza, se il compositore ha scelto di includere molte frequenze centrali in quel passaggio (ad esempio un rullante e una chitarra), lo sparo, la conversazione, e/o la musica verranno coperti. Considerando che questo è sempre stato un problema nel sonoro cinematografico e di altri media lineari, nei giochi l’aggiunta dell’imprevedibilità dettata dal non sapere il momento in cui questi eventi si presenteranno fa sı̀ che il missaggio diventi un compito ancora più impegnativo. 16.1 Il missaggio in tempo reale Il missaggio in tempo reale permette di dare una priorità ad ogni evento sonoro: in questo modo, se il giocatore deve ascoltare il dialogo per sapere quale sarà il suo obiettivo successivo, la musica di un ipotetico suono esplosivo in lontananza verrà abbassata nel mix. Si tratta del già descritto effetto di ducking 142 . Come descrive Bridgett: Effettuare il ducking su musica e SFX durante i dialoghi è un modo molto semplice di raggiungere un risultato più cinematografico nei videogiochi e anche di assicurare che le informazioni essenziali 141 Letteralmente dall’inglese, “ingorgo di tronchi in un fiume” (la metafora è calzante). In senso figurato, ingorgo, caos. 142 Vedi sottosezione 11.4 a pagina 57: L’effetto di ducking . 16.1 Il missaggio in tempo reale 80 vengano veicolate e siano chiaramente udibili. Il processo di missaggio interattivo coinvolge un gran numero di effetti sonori con le relative priorità che devono essere sentiti in momenti designati del gameplay e a volte abbassare completamente il volume di un suono è l’opzione migliore. Fare il ducking permette di sottrarre suoni secondari in modo tale che tu non debba alzare il volume di tutto per riuscire a sentire. . . Sottrarre dinamicamente frequenze da una traccia musicale è, ad esempio, un ottimo modo di lasciare spazio a disposizione quando ci sono dialoghi. Come sostiene Bridgett, i precedenti tentativi di missaggio nei giochi consistevano nell’inserire limiter e comprimere all’estremo i suoni e la musica perché potessero coesistere. Nei casi in cui era presente un sistema elementare di missaggio, l’implementazione (via righe di codice) era problematica e poco efficace. In un certo modo, dice Bridgett, era quasi un bene che questi vecchi sistemi non potessero gestire un grosso ammontare di informazioni sonore in contemporanea: Le console di nuova generazione, con memorie espanse, un numero maggiore di voci disponibili e codec di compressione audio più sofisticati come XNA di Microsoft e ATRAC di Sony che permettono una qualità di sample rate ragionevole con una compressione di circa 10:1, fanno sı̀ che l’ammontare di suoni che possono essere eseguiti sia incrementata di almeno dieci volte. Questo comporta che il missaggio in tempo reale nel gioco abbia un ruolo molto più importante, perché deve prevenire una cacofonia di effetti sonori. Assegnare un numero finito di voci a disposizione è un modo rozzo di aggirare il problema, ma poi possono sorgere complicazioni perché suoni davvero importanti possono non essere eseguiti in quanto altri più importanti stanno suonando. Il missaggio nei video games, cosı̀ come nel cinema, si basa sulla sottrazione piuttosto che sullo spingere in alto i volumi. Nel missaggio, si richiede spesso un leggero ducking per garantire a un gruppo più importante di suoni di emergere sopra agli altri. 16.2 16.2 La necessità di un audio engine intelligente 81 La necessità di un audio engine intelligente Ci sono ancora diversi passaggi procedurali necessari e aspetti tecnici che devono essere esplorati dagli audio designers di videogiochi. In particolare, gli aspetti psicologici del missaggio possono essere una sfida, perché il mix più efficace può non essere il più realistico: se ad esempio consideriamo un film qualsiasi dove il protagonista cammina per un’affollata strada di città, il pubblico sentirà principalmente il monologo interiore dei pensieri del personaggio e non i suoni del traffico. Ciò di cui si ha bisogno è un motore audio intelligente che possa prendere diversi materiali audio, filtrarli con i DSP in base ai vari parametri di gioco, a volte sintetizzando i suoni stessi, missare e pannare in tempo reale, fare il mastering e quindi far uscire il suono perché venga ascoltato dal giocatore (vedi figura 14). Figura 14: Un esempio di motore audio intelligente Esistono differenti modelli per il missaggio dell’audio in un videogioco, tra cui quello delineato da Bridgett. Tipicamente, il mix in post-produzione si trova soltanto nelle FMV, ovvero dove il reparto visivo è stato precedentemente renderizzato. Bridgett comunque, lavorando su Scarface: The World Is Yours, ha creato un modello di snapshot mixing 143 che permette di raggruppare livelli di gioco con caratteristiche simili (in base ad azioni generiche 143 Letteralmente dall’inglese, missaggio per scene. 16.2 La necessità di un audio engine intelligente 82 di gameplay, locazioni, eventi specifici, etc.) e di missarne suono, musica e dialoghi allo stesso modo secondo una serie di mix preprogrammati. Un mix ben riuscito è quello in cui sentiamo con nitidezza le informazioni sonore che ci sono utili all’avanzamento nel gioco senza compromettere troppo il resto del materiale audio. Come descrive Jay Weinland riguardo al lavoro su Halo: Una delle cose interessanti che riguardano il nostro codice è che possiamo fare il ducking in tempo reale nel nostro gioco cosicché riusciamo a gestire ogni suono indipendentemente, possiamo controllare come effettuiamo il ducking durante le sequenze cinematografiche o altri tipi di dialogo, che era la nostra sfida più grande. Se un personaggio ti sta dando delle informazioni molto importanti, e all’improvviso tre granate atterrano ai tuoi piedi ed esplodono, tu non vuoi che quelle parole non vengano comprese. Abbiamo dei parametri modificabili in tempo reale a cui possiamo dire “dobbiamo effettuare un ducking a questo suono di 9 dB per due secondi e lasciare che risalga in 1,5 secondi a 0 dB una volta che il dialogo è finito”. Questo ci permette il controllo in tempo reale dei volumi nel gioco, e ci aiuta ad essere certi che possiamo sempre sentire il dialogo fondamentale ed altri elementi importanti. Questo ordinamento dei suoni per priorità, sebbene necessario, può voler dire che il mixer prende delle decisioni che influenzano il modo in cui il giocatore sente e interpreta i suoni. Il compositore può credere che la musica in un certo punto del gioco particolarmente importante debba avere la priorità, per introdurre emozionalmente il giocatore nella scena, ma il dialogo può includere una rivelazione che guiderà il giocatore in quel punto della storia; mentre il sound designer può aver speso molto tempo non necessario nel creare il suono di una chiave che cade da un tavolo sulla destra del panorama sonoro, ad esempio. Ognuno di questi materiali può meritare una certa priorità secondo i suoi creatori (o anche secondo il giocatore). Il mixer intelligente, a questo punto, deve compiere decisioni difficili riguardo quali suoni l’ascoltatore deve 17 Conclusioni 83 sentire, alterando potenzialmente l’impatto che si voleva dare all’audio, e i modi in cui l’informazione sonora viene ricevuta dal giocatore. 17 Conclusioni Come abbiamo visto, esistono differenze specifiche tra i processi di produzione di film e videogiochi. Nel cinema, ad esempio, l’ambiente viene spesso registrato nel luogo di produzione, se non durante le riprese stesse, tipicamente nello stesso giorno. Nel suo libro Film Production Theory, Jean-Pierre Geuens144 sostiene che “l’ambiente è il cemento che tiene insieme l’intera costruzione sonora”. Ovviamente, cosı̀ come accade per i film di animazione e per quelli in CG145 , non esistono luoghi di produzione nei videogiochi. Non c’è un ambiente in cui recitano gli attori: per questo tutti i suoni devono essere doppiati. Il doppiaggio era l’ultima risorsa per i filmmakers, dato che un buon tecnico con una strumentazione adeguata riusciva a tenere fino al 70% delle tracce originali nel film finito. Geuens sostiene che nel doppiaggio noi “falsifichiamo lo spazio” visto che il contesto del luogo originale viene perso e questo causa un suono innaturale. Si tratta di “una procedura da evitare perché le tracce ridoppiate suonano invariabilmente piatte e morte se paragonate alle registrazioni sul luogo”. Nei videogiochi, tutti i suoni devono essere creati in studio o in ambienti selezionati, per poi essere editati in modo da suonare reali. In assenza di un punto di riferimento reale per lo spazio che si sta creando sullo schermo, questi suoni risultano inevitabilmente “poco reali”, e per rimediare a questo i sound designer si adoperano per creare un ambiente credibile in studio. Allo stesso tempo, il problema del missaggio è molto più complicato nei giochi, che devono tenere conto non solo dei cambiamenti in tempo reale nel gameplay, ma anche del posizionamento del giocatore. Il missaggio per i film è basato sul presupposto che gli spettatori siano statici, ovvero dei ricettori passivi e immobili del suono. Il missaggio per i giochi deve essere invece 144 Jean-Pierre Victor Geuens insegna cinema e televisione alla USC - University of Southern California. 145 CG è l’acronimo di Computer Graphics, computer grafica. 17.1 Una ridefinizione del concetto di “autore” 84 basato sul presupposto che - nonostante la posizione del giocatore possa restare sempre la stessa - il personaggio sullo schermo (e, per estensione, il giocatore stesso) cambia continuamente posizione. Pianificare il missaggio di un gioco in surround, quindi, richiede un insieme di capacità che necessitano di sempre maggiori specializzazioni. 17.1 Una ridefinizione del concetto di “autore” Il lavoro del team che crea il sonoro per i giochi suggerisce un’importante ridefinizione del concetto di “autore”. Come abbiamo dimostrato, il sound design, i dialoghi e la musica dipendono tanto dall’integrazione quanto dalla composizione, e i modi in cui il suono viene implementato influenzano notevolmente la sua ricezione. In un certo modo questa stessa relazione esiste nei film, ma nei giochi viene portata all’estremo. Oltretutto, quando gli split e i chunk musicali non esistono come una singola traccia lineare, non esiste nemmeno una singola partitura, e gli autori diventano in qualche modo il giocatore/ascoltatore (le cui azioni influenzano la loro riproduzione), il compositore (responsabile della loro creazione) e il programmatore (che li taglia e li integra nel gioco). Negli ultimi decenni si è ragionato spesso sul fatto che l’audience stessa possa costruire dei significati propri a partire dai testi, e la nozione stessa di testo è diventata sempre più indefinita. Nei giochi questi concetti sono ancora più indistinti perché il giocatore diventa un agente di cambiamento attivo e il “testo” è malleabile e mutevole, condizionato dalle sue scelte e azioni. Questo aspetto viene ulteriormente sviluppato nei giochi online, in cui non esistono nemmeno uno script o un finale vero e proprio. La localizzazione disintegra ancor più la relazione tra giochi e “testo” definitivo. Non soltanto ogni gioco sarà diverso a causa della sua natura interattiva e partecipativa, ma i giochi possono anche essere modificati significativamente per mercati differenti, facendo sorgere la questione di quale sia la versione “autentica” del prodotto. 85 Parte V Un esempio pratico: Drowning in Problems I concetti riguardanti le tecniche di realizzazione di musiche ed effetti sonori esposti nelle sezioni precedenti sono serviti all’autore come punto di partenza per la creazione dell’audio di un videogioco. Titolo originale Drowning in Problems Sviluppo Francesco Del Pia Pubblicazione Indipendente (Francesco Del Pia) Ideazione Markus “Notch” Persson Versione attuale v0.9.5 Data di pubblicazione 5 marzo 2015 Genere Avventura testuale Modalità di gioco Giocatore singolo Piattaforma Microsoft Windows, Apple OSX Supporto Download (65 MB circa) Periferiche di input Mouse Tabella 4: Scheda tecnica di Drowning in Problems 18 L’approccio da executive producer L’autore ha lavorato da solo in tutte le fasi di produzione del titolo (eccetto, ovviamente, quella di testing 146 ). Questo ha consentito una completa gestione dello sviluppo e la totale libertà di scelta in ogni campo. Nonostante le musiche ricoprano un ruolo estremamente importante nel bilanciamento degli elementi nel video game, queste devono comunque sottostare alle esigenze espressive del gioco. L’approccio intrapreso nel lavorare a questo titolo è stato infatti quello di executive producer, prima che di compositore. Le musiche, 146 Vedi nota 107 a pagina 66. 19 Il gioco 86 dunque, nonostante occupino gran parte dello spazio sonoro, hanno dovuto convivere con gli effetti sonori, talvolta subendone l’importanza in favore del più importante equilibrio generale. 19 Il gioco Figura 15: La schermata iniziale del gioco originale Il gioco realizzato non è originale: si tratta di Drowning in Problems di Markus “Notch” Persson147 , realizzato all’interno della 29esima edizione della competizione Ludum Dare148 , tenutasi dal 25 al 28 aprile 2014 e il cui tema era Beneath the Surface 149 . Ho cominciato con un’idea piuttosto semplice, e ho continuato a semplificarla mentre ci lavoravo. Ho finito molto presto. 147 Markus Persson, noto anche come Notch (Ystad, Svezia, 1979), è un autore di videogiochi. È noto soprattutto per Minecraft (Mojang, 2009), tramite il quale ha guadagnato fama nell’industria dei videogiochi, ha vinto diversi premi e intrapreso relazioni con le industrie più importanti. Nel 2014 Persson lascia Mojang in seguito all’acquisizione di Microsoft per 2,5 miliardi di dollari. 148 Ludum Dare è un concorso di sviluppo di videogiochi accelerato. Fondato da Geoff Howland, si svolse per la prima volta nell’aprile del 2002. I partecipanti sono tenuti a creare un videogioco in due giorni sulla base di un tema determinato in precedenza. 149 Letteralmente dall’inglese, al di sotto della superficie. 20 Il porting 87 Il gioco è un’avventura testuale150 che ripercorre le fasi della vita di un uomo, da prima della nascita a dopo la morte, con un approccio esistenziale e pessimistico. Nonostante la semplicità del progetto, il gioco ha avuto una certa diffusione e diverse critiche molto positive. 20 Il porting Figura 16: Una schermata del porting realizzato in Unity Il gioco originale è stato sviluppato da Notch per il web utilizzando il linguaggio di programmazione Dart151 . Nonostante il codice sorgente del gioco sia stato messo a disposizione online dall’autore per essere consultato ed eventualmente modificato, si è preferito effettuare un porting 152 del gioco 150 Le avventure testuali sono software in cui la situazione di gioco è descritta all’utente tramite frasi di testo. Possono essere considerate sia come lavori letterari che come videogiochi. Come prodotto commerciale, raggiunsero un picco di popolarità negli anni ‘80. 151 Dart è un linguaggio di programmazione per il web sviluppato da Google. Si propone come alternativa a JavaScript come lingua franca per lo sviluppo web sulla piattaforma web aperto. 152 La portabilità, (in lingua inglese porting) indica il processo di trasposizione, a volte anche con modifiche, di un software, volto a consentirne l’uso in un ambiente di esecuzione diverso da quello originale. 21 L’organizzazione del sonoro 88 utilizzando Unity153 per poter usufruire di maggiori potenzialità per quanto riguarda la gestione dell’audio. L’intero software è stato quindi riscritto da zero per la nuova piattaforma di sviluppo. 21 L’organizzazione del sonoro Per la gestione del sonoro nel video game si è deciso di non utilizzare il motore audio integrato in Unity (le cui funzioni, nella versione attuale del software ovvero la 4.6, sono piuttosto limitate154 ) e di utilizzare invece un middleware 155 . 21.1 L’utilizzo di Wwise La decisione di utilizzare il middleware Wwise di Audiokinetic è dovuta a tre fattori fondamentali: le potenzialità nella gestione della musica interattiva e degli effetti sonori, la grande quantità di documentazione disponibile online e la stabilità e affidabilità del software. Il secondo e il terzo fattore potrebbero sembrare di poca importanza se comparati alle effettive funzionalità del software, ma si rivelano estremamente necessari per la realizzazione di un prodotto professionale in un periodo di tempo limitato, ed esente da qualsivoglia problema. Prima di procedere alla fase di composizione delle musiche e di realizzazione degli effetti sonori, è stato necessario studiare approfonditamente tutte le potenzialità di Wwise, per poter poi procedere alla pianificazione del panorama sonoro del gioco avendo una chiara idea delle possibilità - cosı̀ come delle limitazioni - del mezzo a disposizione. La realizzazione dell’audio è stata quindi fortemente condizionata dal software utilizzato. 153 Unity è uno strumento di authoring integrato multipiattaforma per la creazione di videogiochi (2D o 3D) o altri contenuti interattivi. L’ambiente di sviluppo Unity gira sia su Microsoft Windows sia su Mac OSX, ed i giochi che produce possono essere eseguiti su Windows, Mac, Linux, Xbox 360 e One, PlayStation 3 e 4, PlayStation Vita, Wii e Wii U, iPad, iPhone e Android. Si possono anche sviluppare giochi per browser web che utilizzano il plugin Unity web player, supportato su Mac e Windows. 154 In Unity 5, in uscita nel 2015, ci saranno molte nuove feature riguardanti la gestione dell’audio. 155 Vedi sottosezione 15.6.1 a pagina 74: L’utilizzo di middleware per l’integrazione. 21.2 Le musiche 89 La stesura del progetto sonoro ha richiesto molto tempo e diverse correzioni sono state eseguite in corso d’opera, mano a mano che l’autore prendeva confidenza con lo strumento Wwise e imparava a sfruttarne le funzioni caratteristiche. Inoltre, alcune soluzioni potevano sembrare azzeccate durante le fasi di composizione e di montaggio in Wwise, ma quando venivano poi applicate al gioco vero e proprio risultavano inadatte. Figura 17: La schermata del progetto in Wwise 21.2 Le musiche L’idea di partenza, su cui si è basato l’intero lavoro compositivo, era quella di realizzare una colonna sonora in cui le transizioni da un brano all’altro avvenissero senza soluzione di continuità. I diversi frammenti musicali che vengono richiamati durante i vari livelli di gioco e che vengono influenzati dalle azioni del giocatore vanno quindi a formare un unico lungo brano, diverso ogni volta che viene eseguito, ma che mantiene un senso musicale anche se ascoltato al di fuori del contesto del video game. 21.2 Le musiche 21.2.1 90 Composizione Figura 18: L’emotion map delle musiche in Drowning in Problems Nel gioco le varie età si susseguono in modo lineare, e le musiche sottolineano pedissequamente questa successione. Sono state quindi realizzate diverse tracce per ogni età, e le concatenazioni tra di esse sono state accuratamente pianificate. La composizione nel suo complesso gode di un equilibrio che si può schematizzare attraverso la emotion map 156 in figura 18. Dal punto di vista della strumentazione, c’è una forte differenziazione tra le fasi di gioco in cui il personaggio è “vivo” e quelle in cui il personaggio non lo è ancora o non lo è più. Nella prima gli strumenti utilizzati comprendono pianoforte (talvolta effettato), arpa, flauto, due corni, archi e varie percussioni, mentre nella seconda si è preferito utilizzare suoni di sintesi. Di seguito verranno elencate le caratteristiche degli interventi musicali associati alle diverse età. Age 0: There is nothing prima fase di gioco. 156 Un drone scuro e cupo accompagna questa Vedi sottosezione 14.5 a pagina 61: La cue list e la emotion map. 21.2 Le musiche 91 Age 1: You are not Al drone precedente si ne sovrappone un altro, dal carattere più metallico157 . Age 2: You are starting to become Ai precedenti due si aggiunge un terzo drone, il cui timbro vuole ricordare un ambiente “amniotico”. Age 3: You are Il suono di un cuore pulsante, ottenuto anch’esso tramite l’utilizzo di strumenti di sintesi, va ad aggiungersi ai precedenti. Age 4: You are born Una transizione percussiva termina in un improvviso silenzio, da cui emerge qualche secondo dopo il pianoforte. Non si tratta di un tema o di un materiale preregistrato, ma di una serie di 13 brevissimi incisi - di due o tre note ciascuno, talvolta un’unica nota - appartenenti ad uno stesso ambito tonale, che vengono riprodotti in una sequenza casuale dal motore audio in modo che uno stesso segmento non venga ripetuto prima che altri 5 siano stati suonati dopo di lui158 (vedi figura 19 per la partitura dei primi sei). L’effetto che si vuole raggiungere è quello di un’etereo stupore, aiutato dall’effetto di delay, che si può provare di fronte ad un mondo in cui si è appena messo piede. Figura 19: I primi sei incisi di Age 4: You are born 157 L’aggiunta di layers è una delle tecniche compositive più utilizzate nella musica per videogiochi. Si veda in proposito la sottosezione 9.8 a pagina 46: Variazioni di mix (layering ). 158 Si tratta di una semplice applicazione dei concetti espressi nella sottosezione 9.6 a pagina 44: Variazioni di temi (generazione algoritmica). 21.2 Le musiche 92 Age 5: You are a toddler La struttura è simile alla precedente; qui però invece di utilizzare note singole vengono introdotti degli accordi, sempre appartenenti alla tonalità prescelta. Age 6: You are a child In questa età comincia a formarsi la personalità dell’individuo, ed è per questo motivo che si è scelto di abbandonare la struttura precedentemente utilizzata in favore della riproduzione di un più classico tema. Al pianoforte si aggiungono qui gli archi e un flauto. Una volta terminata l’esposizione, se il giocatore è ancora impegnato in questa sezione di gioco la musica calerà di tensione riproducendo dei loop di pianoforte con un leggero accompagnamento scelti randomicamente tra tre differenti possibilità. Age 7: You are a teenager La transizione aggiunge dolcemente, attraverso un fade-in, un accompagnamento orchestrale al precedente loop di pianoforte, preparando il giocatore all’ingresso del tema dell’adolescenza. Questo vuole dare l’idea di crescita, serena ma con delle ombre di incertezza dovute alle difficoltà tipiche di questa età di transizione. Dopo che il tema è stato eseguito nella sua interezza, la musica abbandona i materiali fortemente caratterizzanti per eseguire accordi lenti e pressoché statici, in cui l’arrangiamento viene scelto randomicamente - ci sono in tutto 144 possibilità differenti: il motore audio sceglie tra due possibili tracce di flauto, due di arpa, tre dei corni, quattro del pianoforte e tre degli archi. Una volta terminata questa sezione torneremo a sentire il tema dell’adolescenza arricchito da un layer con leggere percussioni e corni, a cui seguirà un altro passaggio più calmo dall’orchestrazione randomizzata, e cosı̀ via. Age 8: You are a human Qui la musica raggiunge il suo picco emozionale, che coincide con la maggiore imponenza dell’orchestrazione e la dinamica ff (le prime due battute del tema sono visibili in figura 20). Un tema solenne ci fa capire che abbiamo finalmente raggiunto la maturità dell’essere umano. Dopo una prima esposizione affidata agli archi e al flauto, il tema viene riarmonizzato e ripreso dai corni. Successivamente gli archi lo rieseguono 21.2 Le musiche 93 con qualche variazione, per poi lasciare spazio alle percussioni che fanno da transizione per giungere infine al nuovo inizio del loop 159 . Figura 20: Le prime due battute del tema di Age 8: You are a human Age 9: You are troubled La transizione radicale dall’età precedente a questa, affidata a piatti e tam-tam, è stata curata nel dettaglio per garantire un cambio musicale veloce e naturale - il motore audio seleziona la transi159 Per capire meglio la struttura di questa sezione, si faccia riferimento alla figura 23 a pagina 97. 21.2 Le musiche 94 zione più adatta tra tre possibilità160 . L’atmosfera cambia profondamente: l’armonia si stabilizza, un leggero ritmo di rullante accompagna il giocatore tra frasi spezzate affidate agli archi con tremolo, citazioni del tema dell’età precedente e passaggi esitanti di arpa e pianoforte. Il protagonista è preoccupato e insoddisfatto; la musica seleziona in ordine casuale cinque brevi interventi da quattro battute ciascuno (uno di questi è visibile in figura 21). Una volta che sono stati tutti eseguiti, se il giocatore si attarda in questa età, la tensione della colonna sonora verrà momentaneamente stemperata da un intervento più lungo di rullante (quasi) solo, alla fine del quale torneranno i cinque segmenti precedenti, riprodotti in ordine diverso161 . Figura 21: Un segmento di Age 9: You are troubled 160 È stata qui utilizzata la tecnica descritta nella sottosezione 9.10 a pagina 49: Variazioni della forma (matrici di transizioni). 161 La tecnica è quella spiegata nella sottosezione 9.9 a pagina 47: Variazioni della forma (forma aperta). Si faccia anche riferimento alla figura 24 a pagina 98. 21.2 Le musiche 95 Age 10: You are bitter I materiali proposti nella sezione precedente vengono riadattati per questa parte, assottigliando l’arrangiamento e al tempo stesso incrementando la tensione. La rassegnazione del giocatore, amareggiato dai continui fallimenti, è materializzata dal ribattuto ostinato del pianoforte, mentre l’arpa, nel suo registro più grave, introduce dissonanze. Age 11: You are starting to accept Il processo di svuotamento dell’arrangiamento continua anche in questa parte, in cui rimane soltanto il ribattuto del pianoforte, dal ritmo incostante. Viene reintrodotto l’effetto di delay che avevamo ascoltato nelle prime età dopo la nascita, come se lo spaesamento di quel periodo tornasse, con accezione negativa, anche prima delle fine della vita. Age 12: You are dead Il ribattuto del pianoforte si cristallizza in una coda perpetua che, come a simboleggiare il segnale di un elettroencefalogramma, rappresenta la fine dell’esperienza. Age 13: You are forgotten Il suono precedente si mescola in un lento cross-fade con un distante drone sintetico. Age 14: There is nothing A questo drone si sostituisce, attraverso un altrettanto lento cross-fade, il suono che avevamo già ascoltato in Age 0, anch’essa nominata There is nothing. Nonostante la similitudine tra questa due fasi, ormai la vita è alle spalle, e il drone, nell’arco dei dieci minuti successivi, calerà di frequenza fino a diventare un grave suono sommesso, in corrispondenza dello schermo nero162 . 21.2.2 Il montaggio delle musiche in Wwise Verrà ora descritta l’organizzazione delle diverse tracce in Wwise. 162 È questo un semplice esempio della tecnica illustrata nella sottosezione 9.2 a pagina 42: Variazioni di pitch e trasposizioni. 21.2 Le musiche 96 Definizione di entry ed exit cue Nell’ambiente di produzione delle tracce musicali - in questo caso Cubase 8163 - erano già stati stabiliti i punti in cui inserire successivamente in Wwise gli entry cue e gli exit cue, ovvero quei locatori che dividono il file in tre parti: quella centrale corrisponde al contenuto musicale vero e proprio, quella iniziale e quella finale invece vengono eseguite rispettivamente prima dell’inizio (pre-entry) e dopo la fine (post-exit) di questo, in sovrapposizione alla sezione in esecuzione in quel momento (può essere il loop della stessa traccia o di una differente). Questo accorgimento consente di preservare le anacrusi, gli attacchi e le code dei segmenti musicali, cosı̀ come gli eventuali effetti d’ambiente o i delay, gli echi e via dicendo, ed è di fondamentale importanza per garantire che la ripetizione e l’alternarsi delle varie tracce avvenga senza soluzione di continuità e che il loop non venga chiaramente percepito dall’ascoltatore come tale. Figura 22: Entry cue ed exit cue di una traccia In figura 22 possiamo vedere la finestra di Wwise che ci consente di effettuare il posizionamento di entry cue (verde) ed exit cue (rosso): le battute 1 e 2 costituiscono la parte musicale, il quarto precedente alla battuta 1 è la (breve) sezione pre-entry che contiene gli attacchi più lenti e l’intera battuta 3 rappresenta la parte post-exit che, come si può chiaramente evincere dalla forma d’onda, include le code dei suoni. Creazione delle playlist Ad ogni età corrisponde una specifica playlist che impone i criteri di successione nell’esecuzione dei file musicali al suo inter163 Steinberg Cubase è uno dei sequencer più comunemente usati per le applicazioni audio su piattaforma Microsoft Windows e Mac OSX. 21.2 Le musiche 97 no. In Wwise si possono creare strutture ramificate anche molto complesse, determinate da semplici regole logiche imposte dall’utente. In figura 23, ad esempio, possiamo analizzare la playlist corrispondente a Age 8 (You are a human). Il motore audio riproduce, nell’ordine: • i file da Age8 loop01a a Age8 loop02b (il tema vero e proprio); • i file da Age8 loop03a a Age8 loop04b (una variazione del tema); • nuovamente i file da Age8 loop01a a Age8 loop02b (ritorno del tema, con una piccola variazione); • i file Age8 loop05a e Age8 loop05b (segmenti di transizione). Questa struttura viene ripetuta potenzialmente infinite volte, a meno che il giocatore non proceda nel gioco. Figura 23: La playlist per Age 8 Un altro esempio è quello in figura 24, relativo a Age 9 (You are troubled ): • i file da Age9 segment01 a Age9 segment05 vengono eseguiti tutti, in ordine casuale; • viene eseguito Age9 lowIntensity, un intervento musicale più calmo che dà respiro prima di ricominciare il loop. 21.2 Le musiche 98 Figura 24: La playlist per Age 9 Gestione delle transizioni Se ci troviamo in una specifica età e clicchiamo sul bottone Solve per avanzare allo stadio successivo, Wwise deve realizzare una transizione dal file musicale in esecuzione ad un altro file contenuto nella playlist relativa al nuovo stadio di gioco. Queste transizioni sono state accuratamente pianificate, una ad una, considerando tutte le possibilità. Tipicamente, in questo progetto una transizione ha luogo nell’arco di (al massimo) 4 secondi dall’istante in cui viene dato l’input. Figura 25: Un esempio di transizione in Wwise In figura 25 possiamo vedere un esempio di transizione: riguarda, in particolare, il caso in cui il giocatore clicchi su Solve mentre si trova in Age 21.3 Gli effetti sonori 99 8 (You are a human) e siano in esecuzione le prime due battute del tema principale (contenute nel segmento Age8 loop01a, vedi figura 20 a pagina 93 per la partitura). Queste sono le azioni che il motore audio compierà: • riquadro “Source”: il file in esecuzione continuerà a suonare ritardando l’effettiva transizione fino all’arrivo del suo exit cue (si tratta infatti di una transizione beat-synchronous 164 ). Verrà eseguita anche la sezione post-exit; • riquadro “Transition Segment”: verrà utilizzato un segmento di transizione, nello specifico Age9 transition03, di cui verranno anche eseguite anche le sezioni pre-entry e post-exit; • riquadro “Destination”: la nuova playlist verrà eseguita cominciando dall’entry cue del file Age9 segment01 (vedi partitura in figura 21 a pagina 94), comprendendo la sua sezione pre-entry. Schematicamente, la transizione precedente può essere rappresentata come in figura 26. In questo caso la transizione non ha una sezione intermedia tra le parti pre-entry e post-exit. Figura 26: Schematizzazione della transizione in figura 25 21.3 Gli effetti sonori Gli SFX presenti nel videogioco sono stati realizzati a partire da suoni registrati dall’autore stesso o da librerie presenti online. È stata molto utilizzata la tecnica del layering per riuscire a condensare in un tempo breve tutte le informazioni sonore che facessero capire inequivocabilmente l’evento rappresentato. Gli effetti hanno una durata variabile tra i 2 e i 10 secondi, in base 164 Vedi sottosezione 11.3 a pagina 56: Istruzioni beat-synchronous. 21.3 Gli effetti sonori 100 Nome file Eventi Condizioni Canali Durata Note learn learn learn learn 01.wav 02.wav 03.wav 04.wav Learn mono 0:02 mono 0:02 mono 0:02 mono 0:02 Tre pagine sfogliate Due pagine sfogliate Due pagine sfogliate Tante pagine sfogliate playToddler 01.wav playToddler 02.wav playToddler 03.wav Play if Toddler mono 0:02 mono 0:02 mono 0:02 Carillon Caduta giocattolo Sonaglio playChild playChild playChild playChild playChild if Child mono 0:02 mono 0:02 mono 0:02 mono 0:02 mono 0:02 Musica Tetris Intro film Disney Scala glockenspiel EA Sports Tuffo in piscina if Teenager e oltre mono 0:02 mono 0:02 mono 0:02 mono 0:02 mono 0:02 Partita di calcio Suoni di Halo Partita di tennis Motocicletta Jogging play play play play play 01.wav 02.wav 03.wav 04.wav 05.wav 01.wav 02.wav 03.wav 04.wav 05.wav meetFriend 01.wav MeetFriend mono 0:08 Composizione SMS e invio seeChild 01.wav seeChild 02.wav seeChild 03.wav SeeFriend if Child mono 0:04 mono 0:04 mono 0:04 Schiamazzi di bambini Schiamazzi di bambini Schiamazzi di bambini seeFriend seeFriend seeFriend seeFriend 01.wav 02.wav 03.wav 04.wav if Teenager e oltre mono 0:04 mono 0:04 mono 0:04 mono 0:04 Atmosfera Atmosfera Atmosfera Atmosfera bar bar bar, musica live bar, brindisi [. . . ] Tabella 5: Parte dell’asset list per gli effetti sonori 21.3 Gli effetti sonori 101 al tempo impiegato nel gioco per completare l’azione relativa. Sono stati inseriti negli SFX diversi punti di sincrono per far coincidere il completamento della percentuale relativa all’evento nel gioco con suoni specifici. Spesso gli effetti sonori non terminano esattamente in corrispondenza di quel momento, ma conservano una coda per evitare tagli bruschi e sembrare quindi più naturali all’ascoltatore. Nella tabella 5 si può vedere parte dell’asset list stilata per l’organizzazione e la gestione degli SFX. 21.3.1 Il montaggio degli effetti sonori in Wwise Per ogni azione sono stati realizzati da 1 a 5 effetti sonori differenti. Quando Wwise riceve il comando per eseguire uno specifico SFX, il software seleziona randomicamente uno tra i possibili suoni associati a quell’azione, senza mai ripetere l’ultimo (o gli ultimi) eseguito. Figura 27: La gestione degli SFX per un evento In figura 27 possiamo analizzare il comportamento di Wwise in relazione all’evento You need to play, circoscritto alla fase dell’infanzia (Age 6: You are a child ). I cinque diversi file hanno probabilità differenti di essere eseguiti, a seconda del parametro weight 165 . I volumi dei singoli suoni sono stati aggiustati per ottenere un equilibrio complessivo, mentre i parametri pitch e low pass filter non sono stati alterati o automatizzati. L’utile sezione notes consente di appuntarsi informazioni relative ai file. 165 Vedi sottosezione 11.5 a pagina 57: Il permutation weighting . 21.4 21.4 Missaggio e mastering 102 Missaggio e mastering Di seguito verranno descritte le impostazioni di routing, gli effetti utilizzati, i parametri di gioco che influenzano l’audio e le soluzioni adottate per quanto riguarda il missaggio dinamico del sonoro di Drowning in Problems. 21.4.1 Routing Il grafico in figura 28, letto da destra verso sinistra, consente di capire il routing166 dell’audio in Drowning in Problems. Le musiche, contenute nell’oggetto Age switch, confluiscono nel Music Bus 167 , mentre gli effetti sonori (nell’oggetto InGameSFX ) sfociano in SFX Bus. I due differenti bus si uniscono nel bus MusicAndSFX (più tardi verrà spiegato il motivo di questo passaggio intermedio), che finalmente raggiunge il Master Audio Bus. Gli effetti di selezione (contenuti nell’oggetto Selection random), ovvero i suoni che sentiamo quando apriamo i link presenti nel menu di pausa (accessibile nel gioco premendo il tasto Esc), hanno come destinazione il Master Audio Bus. Figura 28: La schematic view di parte del progetto 166 167 Il routing è il percorso seguito dai segnali audio. Un bus è un canale audio. 21.4 21.4.2 Missaggio e mastering 103 Effetti Dalla stessa figura 28 possiamo vedere che sul Music Bus è presente l’effetto Wwise RoomVerb. Inserire un simile DSP in questo punto della catena di routing attribuisce in tempo reale un effetto d’ambiente uniforme a tutte le tracce che si susseguono. Se il riverbero fosse stato introdotto nella fase di produzione delle musiche il risultato finale sarebbe stato meno omogeneo. Un leggero delay (non visibile dal grafico) è stato utilizzato per aiutare ad “incollare” i brevi segmenti musicali che si alternano nelle età 3 (You are born) e 4 (You are a toddler )168 . 21.4.3 RTPC Gli RTPC169 introdotti riguardano sia l’aspetto musicale sia quello relativo a funzioni di gioco come il menu di pausa e la chiusura dell’applicazione. Per quanto riguarda la prima categoria, nei dieci minuti che servono a completare l’ultima età (Age 14: There is nothing) viene diminuito progressivamente il parametro pitch del loop. Questo comporta che il segmento audio venga riprodotto a velocità sempre più lenta, abbassando di conseguenza la frequenza del drone. Della seconda categoria invece fa parte l’RTPC riguardante l’animazione che porta alla comparsa e alla scomparsa del menu di pausa (vedi figura 29). Quando il giocatore preme il tasto Esc, i crediti del gioco compaiono a schermo con una dolce dissolvenza; il sonoro vuole simulare lo stesso comportamento introducendo gradualmente un filtro passa-basso. Nel codice del video game è presente una variabile float 170 che passa linearmente da 0 a 1 nell’arco di un secondo, ovvero il tempo che impiega la schermata a comparire; in Wwise la funzione matematica visibile in figura 29 associa a questa variabile un valore che sposta la frequenza di taglio del filtro applicato al bus 168 Per maggiori informazioni si rimanda alla sottosezione 21.2.1 a pagina 90: Composizione. 169 Run-time Parameter Controls. 170 Il numero in virgola mobile (in inglese floating point) indica il metodo di rappresentazione approssimata dei numeri reali e di elaborazione dei dati usati dai processori per compiere operazioni matematiche. 21.4 Missaggio e mastering 104 Figura 29: L’RTPC che agisce sul Low Pass Filter MusicAndSFX 171 , andando ad attenuare le frequenze più acute di musica ed effetti sonori172 . Una funzione simile è stata introdotta per creare un rapido fade-out del volume nel momento in cui il giocatore clicca sul tasto Quit. Il volume di tutti i file audio in esecuzione si riduce fino a 0 un istante prima che l’applicazione si chiuda. 21.4.4 Missaggio dinamico Come abbiamo già ampiamente descritto nella relativa sezione teorica173 , un accurato missaggio dell’audio in un videogioco è di fondamentale importanza perché all’ascoltatore giungano tutte le informazioni sonore necessarie. Nell’esempio qui trattato, in particolare, la vasta gamma dinamica coperta dalla 171 È questo il motivo per cui è stato creato il bus MusicAndSFX : se il LPF fosse stato associato al Master Audio Bus, infatti, anche i suoni di selezione innescati dai clic sui link presenti nel menu di pausa sarebbero stati filtrati. 172 Si tratta di un’applicazione della tecnica descritta nella sottosezione 9.5 a pagina 44: Variazioni di DSP. 173 Sezione 16 a pagina 78: Post-produzione. 21.4 Missaggio e mastering 105 musica nel corso del gioco (ben rappresentata dalla emotion map in figura 18 a pagina 90) corre il rischio di ostacolare, in certe situazioni, la percezione ad un volume adeguato degli effetti sonori. Il giocatore potrebbe sentirli chiaramente nei momenti in cui la dinamica della musica è debole, mentre quando questa raggiunge picchi di intensità come in You are a human gli SFX potrebbero diventare impercettibili e anzi dare fastidio all’esperienza di gioco. Viceversa, se dovessimo calibrare il loro volume in base alla dinamica più forte della musica, nei momenti in cui questa suona in pianissimo gli effetti sonori risulterebbero ad una intensità sgradevolmente alta. Figura 30: Il missaggio dinamico degli SFX La soluzione sta nell’utilizzo di un sistema di missaggio dinamico che tenga conto della fase di gioco per agire sul fader del volume del SFX Bus. In figura 30 vediamo come il parametro bus volume di questo canale dipenda dalla variabile Age, che identifica il nostro avanzamento nel gioco. Nel momento in cui questa variabile cambia, l’aggiustamento del volume non è istantaneo, ma avviene nell’arco di tre secondi per evitare bruschi e innaturali sbalzi. I valori attribuiti al volume assomigliano necessariamente alla curva emozionale della musica, in quanto devono compensare le differenze dinamiche tra un’età e l’altra di quest’ultima. 22 L’implementazione 21.4.5 106 Mastering In Wwise non viene effettuato un processo di mastering in tempo reale. L’unica precauzione presa è quella di introdurre un effetto di limiter sul Master Audio Bus, per evitare distorsioni digitali del sonoro. 22 L’implementazione Per utilizzare Wwise in un progetto di Unity - che, come precedentemente detto, è l’ambiente di sviluppo utilizzato per ricreare Drowning in Problems - c’è bisogno della licenza Pro di quest’ultimo. Una volta ottenuta, si deve installare un apposito plugin e configurare una serie di impostazioni necessarie alla corretta comunicazione tra i due software, tra cui la definizione della posizione della soundbank, ovvero di quel file che raccoglie in sè tutti i segmenti audio da utilizzare e le regole che l’utente ha stabilito nel middleware per gestirli. Compiuti i processi di inizializzazione, si può programmare il codice che richiami gli eventi di Wwise dall’ambiente Unity. La seguente funzione, definita dall’autore e scritta in linguaggio C#174 , consente di far partire un qualsiasi evento audio: public void PlayEvent (string eventName) { AkSoundEngine.PostEvent (eventName, gameObject); } Ogniqualvolta il giocatore clicchi su un bottone nel gioco, il corrispondente evento audio viene richiamato attraverso un semplice comando. La riga di codice che segue è associata al bottone Solve relativo alla condizione You need to learn, e viene richiamata ogni volta che questo viene premuto: PlayEvent (Learn); 174 Il C# è un linguaggio di programmazione orientato agli oggetti sviluppato da Microsoft nel 2000. 23 Esportazione 107 Altri semplici comandi comunicano a Wwise il cambiamento dell’età nel gioco, le eventuali interruzioni dei file in esecuzione e i RTPC di cui abbiamo parlato nella sezione 21.4.3. 23 Esportazione A progetto completato, l’ultima procedura è quella che riguarda la creazione dei file eseguibili per la distribuzione. Le piattaforme di destinazione scelte sono Microsoft Windows e Mac OSX, per le quali sono state selezionate specifiche impostazioni riguardanti prestazioni e risoluzione. L’applicazione per Windows ha estensione .exe, quella per OSX .app. 24 Considerazioni finali La realizzazione del progetto ha richiesto una lunga gestazione e molto lavoro. Le difficoltà tecniche e informatiche incontrate sono state numerose e hanno rallentato in più occasioni lo sviluppo del software. 24.1 Considerazioni sullo sviluppo in Unity L’autore non è un programmatore professionista, quindi la realizzazione del progetto in Unity ha richiesto molto più tempo del dovuto. Il codice del gioco, inoltre, potrebbe essere sicuramente ottimizzato da un addetto ai lavori. L’autore aveva già esperienza di programmazione in questo ambiente, ed era consapevole dei suoi limiti: realizzare un porting di Drowning in Problems sembrava un’idea realizzabile, anche se con qualche difficoltà, e cosı̀ è stato. Il gioco inoltre si prestava molto bene a dimostrare le diverse tecniche di composizione illustrate nella sezione 9 a pagina 41 (Dieci metodi di variazione nella musica dinamica), le transizioni e la gestione degli SFX, e in generale tutti gli argomenti di cui si parla in questa trattazione. 24.2 24.2 Considerazioni sull’utilizzo di Wwise 108 Considerazioni sull’utilizzo di Wwise Wwise si è dimostrato un programma completo, versatile e soprattutto molto musicale: diverse funzioni del software sono state pensate specificamente per soddisfare le esigenze del compositore. Questo è il motivo per cui la gestione delle musiche e delle transizioni in Wwise dovrebbe essere realizzata dal compositore stesso, in quanto solo lui conosce esattamente la sua musica e sa quello che dovrebbe accadere a seconda degli input del giocatore e delle situazioni di gioco, anche se questo aspetto potrebbe costituire una barriera per i musicisti meno avvezzi all’utilizzo della tecnologia. Una volta che questo ostacolo viene valicato - attraverso un approfondito studio e la sperimentazione del software - gli si possono aprire un’infinità di soluzioni che, forse, non avrebbe neppure considerato. C’è da dire che l’interfaccia utente di Wwise non è intuitiva come quella di altri software e che talvolta implementare certe funzioni sia complicato, frustrante e dispendioso in termini di tempo, ma una volta che si prende confidenza con il programma gli sforzi iniziali vengono ampiamente ripagati. 109 Parte VI Conclusioni La peculiarità della composizione per videogiochi sta, come abbiamo dimostrato, nella sua dinamicità, ovvero nella capacità di mutare in relazione alle azioni del giocatore ed ai parametri di gioco. A differenza di ciò che accade quando il compositore lavora per dei media lineari, in questo ambito egli deve relazionarsi in modo molto stretto con l’audio programmer e basare il suo lavoro sulle funzionalità di integrazione che questo gli mette a disposizione. Le possibilità espressive sono innumerevoli ed in continua evoluzione, e la scelta del loro utilizzo dipende strettamente dal genere del gioco. Esiste un profondo aspetto di ricerca nell’ambito dei video game, ed è per questo che alcuni giochi sviluppano delle tecnologie ad hoc che vengono utilizzate per le necessità di quel prodotto specifico. Il compositore deve quindi essere creativo non solo nella scrittura della musica, ma anche nel realizzare quale sia il miglior modo per farla funzionare a dovere nel videogioco. Se questo modo non esiste, potrebbe essere che non sia stato ancora inventato. La bellezza della composizione interattiva sta nel matrimonio perfetto tra il compositore, che scrive la musica, e il computer e la tecnologia che ci permettono di realizzare cose molto complesse che non è possibile fare nel cinema o nella televisione. Parafrasando Richard Jacques possiamo concludere che il computer, in questo tipo di media, rappresenta un ulteriore strumento musicale a disposizione del compositore, il quale deve imparare a conoscerlo e a sfruttarlo secondo le sue esigenze espressive. 110 Parte VII Glossario • AAA: i giochi AAA (triple A in inglese) sono quelli con i budget più alti per lo sviluppo e la promozione. Si tratta quindi, nella maggior parte dei casi, di giochi di alta qualità e con alte prospettive di vendita. • AI : Artificial Intelligence, intelligenza artificiale. • ARS o As-Recorded Script: la versione della sceneggiatura che comprende le modifiche che vengono introdotte durante le sessioni di registrazione. • asset list: lista di risorse (vedi sottosezione 14.6 a pagina 63). • beat-synchronous: a tempo rispetto alla metrica della traccia musicale (vedi sottosezione 11.3 a pagina 56). • believability gaps: lacune di credibilità (vedi sezione 16 a pagina 78). • bus: canale audio. • CG: Computer Graphics, computer grafica. • chunk : sezioni piuttosto lunghe di tracce musicali. • controller : dispositivo plug-in per sistemi di intrattenimento, usato per fornire l’input in un videogioco. È tipicamente connesso a una console o a un computer da un cavo o da una connessione senza fili. La funzione principale di un controller è di governare un movimento/azione di un corpo/oggetto giocabile o comunque influenzato da eventi in un videogioco. • cue: intervento musicale della colonna sonora. • decision points: vedi markers. • ducking: riduzione del segnale di una traccia quando ci si trova in presenza di un altro segnale (vedi sottosezione 11.4 a pagina 57; per il suo utilizzo nel mix in tempo reale, vedi sottosezione 16.1 a pagina 79). 111 • dry: caratteristica di quei suoni non modificati attraverso l’aggiunta di effetti. Il suo contrario è wet. • feature: funzionalità. • FMV : Full Motion Video, filmati che raffigurano azioni nel gioco attraverso sequenze prerenderizzate. Sono molto utilizzati nelle cut scenes. • FPS o First Person Shooter : sparatutto in prima persona. • gameplay: l’esperienza di gioco. • GDR: vedi RPG. • HP o Health Points: punti vita. Nella maggior parte dei giochi quando si esauriscono il giocatore perde la partita. • lag: ritardo. La parola lag coincide anche con l’abbreviazione dei termini LAtency Gap, che indicano una differenza (gap) causata da latenza di informazioni (latency). • layers: “strati” di tracce che si possono sovrapporre (vedi sottosezione 9.8 a pagina 46). • logjam: sovrapposizione sgradevole di suoni con contenuto frequenziale simile (vedi sezione 16 a pagina 78). • loop: ripetizione di una traccia o di una porzione di essa (vedi sottosezione 11.1 a pagina 55). • marker : una sorta di “segnalibro” applicato a un punto specifico del file audio che consente l’utilizzo di matrici di transizioni (vedi sottosezione 9.10 a pagina 49) e, in generale, l’utilizzo di istruzioni beat-synchronous (vedi sottosezione 11.3 a pagina 56). • mickey mousing: tecnica cinematografica ottenuta sincronizzando le azioni sullo schermo con gli effetti sonori e la musica di accompagnamento, che seguono punto per punto le immagini. • MIDI o Musical Instrument Digital Interface: il protocollo standard per l’interazione degli strumenti musicali elettronici (anche tramite un computer). 112 • MMO o Massively Multiplayer Online: giochi capaci di supportare centinaia o migliaia di giocatori collegati contemporaneamente a internet. • motion capture: la registrazione digitale del movimento del corpo umano o di altri movimenti. • permutation weighting: attribuzione di peso alle permutazioni (vedi sottosezione 11.5 a pagina 57). • pixel art: forma d’arte digitale che prevede la realizzazione di un’immagine attraverso l’inserimento manuale di ogni singolo pixel. • porting: il processo di trasposizione di un componente software, volto a consentirne l’uso in un ambiente di esecuzione diverso da quello originale. • puzzle game: un videogioco rompicapo in cui bisogna risolvere enigmi sotto forma di puzzle logici, strategici o in cui, ad esempio, si deve completare una sequenza (numeri, parole, forme geometriche), etc. • rating: sistemi utilizzati per garantire che forme di intrattenimento siano chiaramente etichettate per gruppi di età a seconda del loro contenuto. • routing: percorso seguito dai segnali audio. • RPCs o RTPCs: Run-time Parameter Controls, ovvero parametri di gioco in continua evoluzione come conti alla rovescia, HP del giocatore, quantità di munizioni, etc. • RPG o Role Playing Game: Gioco Di Ruolo (GDR). • sample: campione. • script: sceneggiatura. • snapshot mixing: missaggio per scene (vedi sottosezione 16.2 a pagina 81). • split: porzioni di una traccia musicale. • stab: vedi stinger. 113 • stinger : brevissimi interventi musicali eseguiti in punti specifici del gioco per richiamare l’attenzione su un improvviso evento significativo (vedi sottosezione 7.3 a pagina 35). • testing: il collaudo del software. È un procedimento utilizzato per individuare le carenze di correttezza, completezza e affidabilità delle componenti software in corso di sviluppo. • trigger : innesco - determinato da azioni o parametri di gioco - che comporta un cambiamento nel sonoro. • trigger-point: punto di innesco (vedi anche trigger ). • wet: caratteristica di quei suoni modificati attraverso l’aggiunta di effetti. Il suo contrario è dry. 114 Parte VIII Bibliografia e sitografia Bibliografia • Norman Chan, A Critical Analysis of Modern Day Video Game Audio, tesi di laurea in Discipline Artistiche Musicali presso l’Università di Nottingham, 2007 • Marco Pellitteri e Mauro Salvador, Conoscere i videogiochi - Introduzione alla storia e alle teorie del videoludico, Tunué, 2014 • G.W. Childs IV, Creating Music and Sound for Games, Thomson Course Technology, 2007 • Karen Collins, Game Sound - An Introduction to the History, Theory, and Practice of Video Game Music and Sound Design, The MIT Press, 2008 • Karen Collins, Playing with Sound - A Theory of Interacting with Sound and Music in Video Games, The MIT Press, 2013 • Aaron Marks, The Complete Guide to Game Audio. For Composers, Musicians, Sound Designers, and Game Developers - Second Edition, Elsevier - Focal Press, 2009 Sitografia generale • Application Developers Alliance (appdevelopersalliance.org) • G.A.N.G. - Game Audio Network Guild (www.audiogang.org) • GDC - Game Developers Conference (www.gdconf.com) • GameDev.net - Game Development Community (www.gamedev.net) • Game Localization Network Ltd. Specialists in the Localization of Video Games (www.gamelocalization.net) 115 • Game Music Connect 2014 (www.gamemusicconnect2014.com) • GameSoundCon - The Art, Technology and Business of Game Audio (www.gamesoundcon.com) • KVR Audio - The Internet’s number one news and information resource for open standard audio plug-ins (www.kvraudio.com) • LucasArts (www.lucasarts.com) • Ludum Dare (ludumdare.com) • PEGI - Pan European Game Information (www.pegi.info/it) • Polygon (www.polygon.com) • The Verge (www.theverge.com) • Wikipedia - The Free Encyclopedia (en.wikipedia.org) • Wikipedia - L’enciclopedia libera (it.wikipedia.org) Articoli specifici • Jake Simpson, 3D Sound in Games, dal sito www.gamedev.net • Alexander E.M. Hess, 10 fastest-growing jobs in the USA, dal sito www.usatoday.com • John Broomhall, A revolution in audio. John Broomhall pauses to reflect on how game audio has progressed over the years, 1 dicembre 2014, dal sito www.develop-online.net • Jessica Conditt, A video game for the socially anxious, 20 febbraio 2015, dal sito www.engadget.com • Apple, App Store Review Guidelines, consultato il 16 dicembre 2014, dal sito developer.apple.com 116 • AA.VV., Controversie nei videogiochi, consultato il 28 dicembre 2014, dal sito it.wikipedia.org • John Rodd, Game Music Mastering for Composers and Audio Leads, dalla Game Developers Conference 2012, dal sito tech.ubm.com • Charlie Hall, Hatred, UNICEF and how gaming’s perception makes it a target for censorship, 15 dicembre 2014, dal sito www.polygon.com • Ben Kuchera, Hatred given Adults Only rating in US and Canada, 16 gennaio 2015, dal sito www.polygon.com • Marta Veltri, Il design come filosofia. Intervista a Paola Antonelli, 25 settembre 2013, dal sito www.artribune.com • Adi Robertson, iOS games chafe under Apple’s directions: ‘If you want to criticize a religion, write a book’, 16 gennaio 2013, dal sito www.theverge.com • James Hannigan, Is video game music art? Part 2: The Orchestra, 3 ottobre 2014, dal sito www.classicfm.com • James Hannigan, James Hannigan on video game music: is it art? Part 1, 23 settembre 2014, dal sito www.classicfm.com • Tracey Lien, The Apple Obstacle for Serious Games, 21 giugno 2013, dal sito www.polygon.com • Tyler Nagata, Top 7 Gaming Auteurs, 30 luglio 2007, dal sito www.gamesradar.com • Brian Schmidt, USA Today Reports Composers Third-fastest Growing Job in US: But they got the reason wrong, dal sito www.gamesoundcon.com • Paola Antonelli, Video Games: 14 in the Collection, for Starters, 29 novembre 2012, dal sito www.moma.org 117 • AA.VV. Video game controversies, consultato il 28 dicembre 2014, dal sito en.wikipedia.org • AA.VV., Video games as an art form, consultato il 29 novembre 2014, dal sito en.wikipedia.org • Paola Antonelli, Why I brought Pac-Man to MoMA, maggio 2013, dal sito www.ted.com Documentari • Square, Beyond Final Fantasy, 2002 • James Swirsky e Lisanne Pajot, Indie Game: The Movie, 2012 • Red Bull Music Academy, Diggin’ In The Carts: A Documentary Series on Video Game Music, 2014