Corso di Diploma Accademico di secondo livello in discipline musicali Musica Elettronica e Tecnologie del suono Indeterminismo e processi improvvisativi nell’ambito della musica elettroacustica A.A. 2015/16 Relatore M° Luca Richelli Tesi finale di: Alessandro Arban Matr. 3384 Anno Accademico 2015-2016 ABSTRACT 4 1. L’IMPROVVISAZIONE NELLA MUSICA ELETTROACUSTICA 6 1.1. PREMESSE 6 1.2. GLI ANNI ’60 E ‘70 8 1.3. GLI ANNI ‘80 17 1.4. DAGLI ANNI ’90 AD OGGI 21 2. REALIZZAZIONE DELLA PERFORMANCE 25 2.1. LIVE ELECTRONICS ED IMPROVVISAZIONE 25 2.2. ESTETICA DELLA PERFORMANCE: ISPIRAZIONI E STESURA FORMALE 27 2.3. ESECUZIONE E STRUMENTAZIONE ADOPERATA 30 2.4. LE SCENE 32 2.5. DIFFUSIONE MULTICANALE 36 3. AMBIENTE ESECUTIVO IN MAX 40 3.1. MAIN 42 3.2. INTERFACCIA ESECUTIVA 43 3.3. HARMONIZER 46 3.4. PITCH SHIFTER 49 3.5. DELAY 51 3.6. GRANULATORE 52 3.7. RIVERBERO 53 3.8. ANALISI SPETTRALE 54 3.9. SPAZIALIZZAZIONE 56 3.10. CONTROLLI E ROUTING ANALOGICO DEL SEGNALE 58 CONCLUSIONI 60 SVILUPPI FUTURI: AMBIENTI ESECUTIVI PER LA DIDATTICA MUSICALE 61 RINGRAZIAMENTI 62 4. APPENDICE: SCHEMI E IMPOSTAZIONI 63 4.1. SCENA I 63 4.2. SCENA II 66 4.3. SCENA III 69 4.4. SCENA IV 73 4.5. SCENA V 76 2 4.6. DISPOSIZONE DEI DIFFUSORI 79 LISTA TRACCE CD 80 BIBLIOGRAFIA 81 SITOGRAFIA 83 3 ABSTRACT In questo lavoro di tesi sarà illustrato il percorso attraverso il quale, partendo da un’indagine storica, sono giunto alla realizzazione di una live performance improvvisativa assieme al collega Yuri Dimitrov. La ricerca storica preliminare non ha la pretesa di essere esaustiva, riguardo tutto quanto è stato sperimentato nell’ambito dell’improvvisazione musicale elettroacustica, bensì nasce con lo scopo di trasmettere al lettore quelle che sono state le principali fonti d’ispirazione durante la stesura della performance, tra le quali spiccano sicuramente l’opera di Franco Evangelisti e del suo “Gruppo di Improvvisazione Nuova Consonanza” e gli studi sulla forma per momenti e sulla spazializzazione compiuti da Karlheinz Stockhausen durante gli anni ’60 e ‘70. Nella pratica esecutiva, infatti, il nostro lavoro tenta di riprendere il percorso tracciato dal gruppo di Evangelisti, cercando di ampliarne le possibilità espressive attraverso gli strumenti di sintesi e il live electronics. Dal punto di vista della stesura formale, invece, è servito molto approfondire le strategie adoperate da Stockhausen in molte sue opere composte nel periodo citato, caratterizzate dalla presenza di un elemento d’indeterminazione che rende unica ogni esecuzione. La seconda parte della tesi descriverà le scelte estetiche compiute e la costruzione formale della performance, mentre l’ultimo capitolo servirà al lettore per ricostruirne l’ambiente esecutivo, qualora volesse rieseguirla (oppure utilizzarlo per altri scopi). La performance consiste di cinque momenti, caratterizzati dall’interazione tra diversi strumenti acustici ed elettronici. Attraverso l’elaborazione in tempo reale dei suoni provenienti dagli strumenti, si genera un dialogo fra timbri genealogicamente distanti, a livello morfologico, semantico e spaziale. I timbri prodotti dagli strumenti acustici processati emulano quelli sintetici, mentre il suono dei sintetizzatori è scolpito su imitazione dei suoni acustici. A livello semantico interviene la pratica manuale degli interpreti, che con la propria gestualità pongono l’attenzione sul dialogo tra essi e gli strumenti. La diffusione dei suoni, controllata dai dati estrapolati da un’analisi spettrale in tempo reale, è in viva comunicazione con i musicisti; riflettendo nello spazio i loro gesti, ne enfatizza il movimento. 4 In alcune conferenze tenute a Brema e Amburgo nel 1959, epoca in cui si scatenò la famosa polemica sulla validità dell’opera aperta, parlai dei limiti che questa portava in sé e della possibilità dei suoi ultimi sviluppi. Dovendo l’interprete completare nell’esecuzione gli schemi che il compositore forniva, io dissi, sarebbe stato necessario l’avvento di un nuovo tipo di esecutore che fosse anche compositore, in modo che potesse legare certi elementi musicali che, in esecuzioni date da interpreti di tipo tradizionale, vengono resi schiavi da una prassi che tale tipo di esecutore porta con sé. Auspicavo così una situazione più favorevole, ricordando il caso della musica indiana: da più di duemila anni in India gli esecutori sono anche compositori, essendo quella musica legata a forme momentanee. È da notare, altresì, che le opere cosiddette “aperte” hanno limiti strumentali stabiliti dal compositore, risultandone l’opera aperta soltanto ad alcuni strumenti o a più strumenti; dissi così che il limite di questa forma sarebbe stata una specie di “summa” di elementi con i quali l’interprete o gli interpreti-concreatori potessero agire all’istante senza una precisa determinazione strumentale, in modo che ne risultasse un’opera spersonalizzata in senso tradizionale, quindi opera risultante dal concorso di numero x di interpreti-compositori possibili. Franco Evangelisti, Presentazione del Gruppo Internazionale di Improvvisazione Nuova Consonanza, in programmadépliant del III Festival di Nuova Consonanza, Roma 1965. 5 1. L’IMPROVVISAZIONE NELLA MUSICA ELETTROACUSTICA 1.1. PREMESSE Nel 1955, il fisico e ingegnere del suono Werner Meyer Eppler fornisce una prima definizione del termine alea, quale “procedimento il cui decorso generale è determinato, mentre le singole componenti dipendono dal caso”1. Sebbene alcuni elementi d’indeterminazione si trovino già in partiture di Cage e Feldman, antecedenti a tale data, soltanto a partire dagli anni ’56-’57 se ne rileva l’assunzione da parte delle avanguardie darmstadtiane2. La dodecafonia di Schoenberg, esposta per la prima volta dal compositore nel 19233, è il primo forte segno di rottura con il passato, le successive generazioni di compositori cercheranno di elaborare nuovi linguaggi personali, aventi come minimo comune denominatore l’abbandono (parziale o totale) del sistema tonale, in favore di nuovi sistemi, costituiti alla base da una serie numerica precedentemente determinata. Nel 1952, a soli 29 anni dalla nascita del sistema dodecafonico, in un articolo pubblicato sulla rivista “The Score”, Pierre Boulez dichiara4 con una certa dose di dogmatismo ingenuo (nel ’52 Boulez aveva appena 27 anni) che “Dalla penna di Schoenberg abbondano i clichés di scrittura temibilmente stereotipi del romanticismo più ostentato e desueto[…]”. Boulez conclude il suo articolo con un enunciato in lettere maiuscole: SCHOENBERG È MORTO. Con lui nasce (grazie anche al contributo del suo maestro Olivier Messiaen) l’era del serialismo integrale, tecnica compositiva che preordina uno o più parametri musicali in successioni stabilite, chiamate serie. Questo nuovo modo di comporre, è per Boulez l’unica via per liberare le possibilità di uno sviluppo funzionale dell’opera che “genera ogni volta una sua gerarchia”. Come ogni moto d’innovazione, è riduttivo stabilire con precisione un vero e proprio “iniziatore”, piuttosto è importante soffermarsi sul percorso generale dell’arte per comprendere a fondo i sentimenti che hanno ispirato tali idee. Sicuramente Boulez ha fatto tesoro di quanto auspicava in precedenza Webern, parlando di una 1 W. Meyer Eppler, Statistische und psychologische Klang Probleme, “Die Reihe”, pp.22-8, 1955. 2 D. Tortora, Nuova Consonanza, Trent’anni di musica contemporanea in Italia (1959-1988), LIM 1990, p. 125. 3 A.Schoenberg, Komposition mit 12 Tönen 1923. 4 P. Boulez, Note di Apprendistato, Einaudi, 1968. 4 P. Boulez, Note di Apprendistato, Einaudi, 1968. 6 musica nella quale “[…]si ha la sensazione di non essere più di fronte ad un’opera dell’uomo, bensì della natura”5. Parallelamente, in campo pittorico, Paul Klee afferma che “L’opera d’arte è principalmente genesi”6, concependo essa come metafora della creazione e l’opera come “formazione della forma”. A distanza di un decennio dal provocatorio articolo di Boulez del ’52, la crescente presenza delle nuove tecnologie nella produzione musicale, e soprattutto nell’esecuzione live, provoca una nuova crisi nelle accademie, la quale è il punto di partenza di questo lavoro di ricerca che si concentrerà sulla pratica improvvisativa nell’ambito della musica elettroacustica, concludendosi con la realizzazione di una live performance. Gruppo di Improvvisazione Nuova Consonanza. 5 A. Webern, Verso la nuova musica. Lettera a Hildegard Jone e Josef Humplik. Milano, Bompiani, 1963. 6 P. Klee, Pädagogisches Skizzenbuch, Neue Bauhausbücher, 1925. 7 1.2. GLI ANNI ’60 E ‘70 Negli anni ’50, l’Europa ha assistito alla nascita e lo sviluppo dei primi centri di produzione musicale elettroacustica, a Parigi (GRM), Colonia (WDR) e Milano (RAI), grazie anche al supporto economico delle emittenti radiofoniche nazionali. Grazie ad una maggior accessibilità economica delle nuove tecnologie, durante gli anni ’60 fioriscono nuovi centri e un maggior numero di produzioni indipendenti. Per fornire un quadro globale di quanto accaduto in questo decennio e in quello successivo, occorre procedere per gradi, soffermandoci sugli avvenimenti dei singoli paesi maggiormente coinvolti nella ricerca e produzione musicale. A circa un decennio di distanza dalla nascita della musique concrète di Pierre Schaeffer, la domanda che si pongono le nuove generazioni di compositori francesi è se sia possibile reintegrare il materiale esterno a quello costituente la grammatica dei suoni di Schaeffer, senza tradirne le regole. Boulez concreta critica aspramente definendola la musica dilettantistica, Figura 1.1 Pierre Schaeffer presso il GRM di Parigi. riscontrando un limite nella catalogazione dei suoni di Schaeffer. Nel frattempo le nuove tecnologie compiono un passo avanti, permettendo ora la manipolazione in tempo reale. Ciò provoca delle fratture nel clima formalista che si è respirato nei precedenti anni: l’obiettivo per molti ora è il contenuto, a discapito della forma che diventa mera conseguenza della manipolazione del materiale sonoro. Luc Ferrari, dapprima fedele seguace di Schaeffer, getta scompiglio nel GRM (Groupe de Recherches Musicales), producendo brani che contengono i cosiddetti “campioni”, cioè suoni continui e imprevedibili, non tollerati dalla grammatica schaefferiana. Dopo uno scontro iniziale, Ferrari decide di lasciare il GRM per aprire un suo studio. Con “Presque rien IA”, Ferrari conia il termine provocatorio di “musica aneddotica”. Il brano è composto di registrazioni effettuate nel ’67 su un’isola della Dalmazia. 8 La referenzialità dei suoni è in questo caso un valore aggiunto, poiché gli eventi sonori non sono realmente imprevedibili, in quanto selezionati in precedenza da lui, nei momenti in cui la natura “eseguiva” passaggi musicali. Anche Bernard Parmegiani, che si trova al GRM nel servizio di ricerca, per un periodo adotta atteggiamento durante la un informale composizione, lasciando che siano i processi di manipolazione a decidere la forma finale dell’opera, che lui non prefigura durante il lavoro. Nella produzione di quegli anni, è importante ricordare lo stretto rapporto di Parmegiani Figura 1.2 Bernard Parmegiani al GRM. con la principale produzione causa del video, trend surreale dei suoi brani, spesso nati come sonorizzazioni d’immagini ma fruibili anche separatamente. Inoltre va menzionato la passione di Parmegiani per la musica jazz e in generale per l’improvvisazione libera, in effetti nella produzione di quegli anni è ricorrente da parte sua l’utilizzo di materiali provenienti da repertori “pop”. Ne sono un chiaro esempio brani come “Ponomatopeès” del ’64, “Pop Eclectic” del ’68 o “Du pop à l’âne” del ’69, dove Parmegiani lavora con la tecnica del collage, montando tra loro passaggi provenienti da diversi repertori (rock, jazz, classica, elettroacustica). Negli anni ’70 Parmegiani sceglie un ritorno alla forma, avvertendola probabilmente come un’eredità di cui deve farsi carico. La forma per lui diventa un’idea, la proiezione mentale del risultato finale dei processi. Con questo spirito compone l’opera del ’75 “De Natura Sonorum”, nella quale si serve del suono di diapason come metafora della scintilla primordiale generatrice di tutti i suoni. È importante segnalare che i suoni di sintesi presenti nell’opera sono generati dall’utilizzo di sintetizzatori a tastiera, quindi veri e propri strumenti musicali, a differenza dei più “austeri” oscillatori a manopola presenti negli studi di Colonia e di Milano. 9 La Germania, nel frattempo, è diventata la vera e propria patria dell’integralismo soprattutto seriale, all’enorme dell’Internationale grazie influenza Ferienkurse für Neue Musik di Darmstadt, i corsi estivi di composizione attraverso i quali sono passati numerosi compositori affermati del secondo novecento. L’avvento della sperimentazione elettronica in tempo reale impone una revisione della pratica compositiva. Il passaggio dall’universo strumentale a quello elettronico ripropone Figura 1.3 Karlheinz Stockhausen durante una lezione a Darmstadt. il problema della forma, risolto in maniera empirica, con la pratica manuale. Stockhausen realizza “Kontakte” presso gli studi della WDR di Colonia, tra il ’58 e il ’60. In un’intervista egli dichiara che “In the preparatory work for my composition Kontakte, I found, for the first time, ways to bring all properties [i.e., timbre, pitch, intensity and duration] under a single control”7. Il titolo dell’opera si riferisce al contatto tra i suoni strumentali e quelli elettronici, ma anche ai contatti tra i vari segmenti del brano, che il compositore chiama “momenti” (strutture con regole di costruzione interne, indipendenti tra loro), e infine ai contatti tra i vari movimenti di spazializzazione del suono. Il dualismo fra “manualità” e serialità provoca una crisi in Stockhausen, che egli risolve documentando tutti i passaggi manuali svolti in studio. L’idea della forma per momenti si solidifica sempre di più nella mente del compositore8, che sperimenta nelle produzioni successive nuove forme di notazione, schematiche o di cornice, che lasciano margini di libertà all’esecutore, rendendo la percezione del tempo fluttuante. Un brano significativo di questo periodo è sicuramente “Solo” del ’66, per strumento monodico ed elettronica. In questo brano l’esecutore ha facoltà di scegliere l’ordine d’esecuzione delle sei sequenze costituenti l’opera. 7 K. Stockhausen, The Concept of Unity in Electronic Music (Die Einheit der musikalischen Zeit), Perspectives of New Music 1, n°1 (Autunno): pp.39–48, 1962. 8 K. Stockhausen, The British Lectures, Institute of Contemporary Arts, Londra, 1972. 10 Anche in Italia la scena elettroacustica vive un periodo fiorente, diversi talentuosi compositori frequentano i corsi di Darmstadt e s’interfacciano con i colleghi europei, riportando le loro esperienze all’interno delle loro composizioni e promuovendo la nascita di varie attività concertistiche, che hanno lo scopo di divulgare la nuova musica al popolo italiano. Sebbene negli anni ‘60 lo studio di Fonologia della RAI di Milano sia uno dei più all’avanguardia in quanto a strumentazione elettroacustica (ne sono chiare testimonianze le numerose produzioni di Luciano Berio, Bruno Maderna, Luigi Nono…), la musica contemporanea in Italia vanta un’altra scena di prestigio, costituita da giovani compositori del Meridione, come il pugliese Domenico Guaccero, il siciliano Aldo Clementi e il romano Franco Evangelisti. Sebbene alcuni di questi compositori producano un piccolo numero di brani elettroacustici, è evidente l’influenza delle sonorità elettroniche nella loro ricerca timbrica, seppur attraverso l’utilizzo di strumenti tradizionali. Nell’ambito della produzione elettronica di Aldo Clementi, il brano Collage III del ’67, ottenuto mediante la manipolazione di brani dei Beatles 9 , rappresenta un esempio dell’atteggiamento informale assunto in questo periodo dal compositore catanese, in parte dovuto alla sua vicinanza ad artisti nel campo delle arti visive, come Achille Perilli o il gruppo Forma1. Il volto più rilevante che questa scena musicale può vantare è tuttavia Franco Evangelisti. Studente di composizione a Roma, sotto la guida di Daniele Paris, frequenta i corsi estivi di Darmstadt, dove entra in contatto con il fisico Werner MeyerEppler, affascinato dal concetto di alea nella musica e dall’universo dell’elettronica. “La cosiddetta forma momentanea, o aleatoria, o mobile, o aperta, è quel particolare tipo di forma musicale, che si è sviluppata in questi ultimi anni, e che si Figura 1.4 Franco Evangelisti prepara il pianoforte per oppone con la sua speciale maniera di essere un'esibizione del GINC. del tutto, o in parte, “indeterminata”, allo sviluppo della musica seriale, totalmente determinata […]”10. 9 A. Lanza, Il secondo Novecento, vol. 12, p.135, 1991. 10 F. Evangelisti, Dalla forma momentanea ai gruppi di improvvisazione, in programma-dépliant dei concerti della Biennale Musica, Venezia 1969; anche in Di Franco Evangelisti cit., p. 122. 11 Evangelisti mostra ben presto una certa insofferenza nei riguardi del serialismo integrale, trova nella premeditazione un limite da superare, attraverso la sperimentazione, l’improvvisazione. Nel ’60 colleghi fonda, Aldo insieme ai Clementi e Francesco Pennisi, l’Associazione Nuova Consonanza, con l’intento di diffondere la musica contemporanea a Roma e in Italia e, a quattro anni di distanza, forma il Gruppo Improvvisazione di Nuova Consonanza (GINC). La formazione del GINC è Figura 1.5 "the feed-back" del 1970, album in cui il GINC sonda i terreni della cultura Pop psichedelica di quegli anni. composta esclusivamente da compositori-interpreti, accomunati dall’intento di sperimentare attraverso l’improvvisazione libera nuove sonorità. Di questo gruppo fa parte per un buon periodo il compositore Ennio Morricone, che in un’intervista11 ricorda che “La musica che facevamo era improvvisata a partire da esercizi mirati: facevamo mesi e mesi di improvvisazione su parametri molto precisi, ci registravamo, la sera ci riascoltavamo e ci criticavamo. Era una cosa molto attenta”. Il GINC si esibisce per la prima volta a Roma nel 1965 durante il III Festival di Nuova Consonanza, con un assetto che vede Franco Evangelisti, gli americani Larry Austin, John Heineman e John Eaton ed il tedesco Roland Kayn agli strumenti elettronici. Nelle note di programma12, Evangelisti dichiara che “[…] Il compositore Larry Austin mi portava a conoscenza di un gruppo di esecutoricompositori che operavano in questo senso da me auspicato fin dal 1963: il “New Music Ensemble”. Questo gruppo, che opera in California, si può considerare il primo esistente nel 11 V. Mattioli, Roma 60. Viaggio alle radici dell'underground italiano. Parte seconda, Blow Up, Tuttle Edizioni, 2014. 12 F. Evangelisti, Presentazione del Gruppo Internazionale di Improvvisazione Nuova Consonanza, in programmadépliant del III Festival di Nuova Consonanza, Roma 1965. 12 sistema occidentale che lavori su schemi veramente attuali. Per la formazione di questo gruppo “Nuova Consonanza”, il primo del genere in Europa, la presenza di Austin è stata determinante, così altrettanto valida la cooperazione di tutti i colleghi che ne fanno parte”. Le successive performances del GINC sono sempre più caratterizzate dall’utilizzo di strumenti tradizionali, fatta eccezione per una breve parentesi “pop” del gruppo, che nel ’70 cambia nome in “The Feedback”, pubblicando un omonimo album dalle sonorità rock e psichedeliche, ottenute grazie all’utilizzo della chitarra elettrica e ricorrendo a ritmi definiti e ossessivi. Il GINC è stato ispiratore per altre formazioni nate in Italia in quegli anni, tra le quali spiccano i MEV (Musica Elettronica Viva), gruppo che fonde sonorità acustiche ed elettroniche, modulando suoni reali attraverso l’utilizzo del sintetizzatore Moog. Nel ’67 i MEV prendono parte a un concerto, accanto a John Cage, nel quale eseguono la composizione del musicista americano “Solo for Voice 2”, modulando la voce di Carol Plantamura con il Moog. Parallelamente, la musica estemporanea inglese negli anni ’60 e ’70, vede nel chitarrista Keith Rowe un’enorme fonte d’ispirazione. Rowe inizia la sua carriera in alcune formazioni di musica jazz, ma presto si allontana dalla forma per ricercare un suo linguaggio personale, influenzato dalla passione per le arti visive e dall’estetica di Jackson Pollock. Nel ’65 fonda gli AMM, una formazione in Figura 1.6 Keith Rowe e la sua chitarra elettrica in laboratorio. cui gli elementi, provenienti dalla scena jazz, improvvisano assieme in maniera libera: “Ciascun musicista rappresenterebbe un'attività autonoma che si sovrappone alle altre generando una struttura cumulativa”13. L’ensemble incide nel 1966 “AMMMusic”, un disco d’improvvisazione libera, dalle sonorità elettroacustiche (nell’organico della band sono inserite tre radio FM a transistor), più vicino ai lavori di LaMonte Young che al free jazz di Ornette Coleman. Gli AMM e Keith Rowe sono stati fondamentali nella nascita della musica psichedelica inglese, il leader fondatore dei Pink Floyd, Syd Barrett, ha più volte dimostrato di ispirarsi a Rowe nella sua tecnica chitarristica. 13 AMM, AMMMusic 1966: Le recensioni di Ondarock, 2010. 13 Nel “Nuovo Mondo”, intanto, si respira un’aria fresca, non gravata dal peso della tradizione, come invece accade da secoli nel nostro continente. Ciò permette a menti brillanti di aprirsi alla sperimentazione senza preconcetti, liberando la creatività e il genio. La musica contemporanea deve, Figura 1.7 John Cage in veste di concorrente nello show televisivo italiano a mio avviso, gran parte della sua "Lascia o Raddoppia", insieme al conduttore Mike Bongiorno. evoluzione all’americano John Cage, che con le sue idee rivoluzionarie ha stravolto il ruolo del compositore, rimuovendo la scelta dal processo creativo. Dopo un primo periodo nel quale il compositore sperimenta l’utilizzo di formule e proporzioni matematiche, oltre la “preparazione” del pianoforte e l’inserimento nell’organico strumentale di vari oggetti d’uso comune, Cage inizia a interessarsi al concetto d’indeterminazione nella musica, a causa anche del suo avvicinamento alla filosofia Zen. Dalla seconda metà degli anni ’40, compone diversi lavori utilizzando la tecnica divinatoria dell’I Ching abbinata ad un sistema di combinazioni numeriche assegnate ai vari parametri del suono. Eliminando la centralità del compositore all’interno dell’opera, egli distrugge l’idea europea di musica, e questo è possibile grazie alla sua nazionalità americana, che lo svincola dal peso della tradizione colta. Negli anni ’50, pioniere degli Happening, Cage si concentra sulla multimedialità, realizzando dei veri e propri “eventi” in cui lo spettatore diventa parte attiva della performance, tessendo un forte legame tra arte e vita. “Musicircus” del ’67 vede sul palco varie formazioni che si sovrappongono eseguendo musiche provenienti da diversi repertori; la scelta del momento in cui ogni gruppo deve suonare avviene tramite procedure casuali. “HPSCHD” del 1969 è un lavoro multimediale dalla durata di circa cinque ore, in cui si uniscono sette clavicembali che eseguono degli estratti "sorteggiati" di repertorio classico e composizioni di Cage, cinquantadue cassette di segnali generati da calcolatori, sessantaquattro proiettori ciascuno contenente cento diapositive, quaranta pellicole. Durante la performance, il pubblico è libero di attraversare l'auditorium, entrare ed uscire. In questo modo l’interesse singolo e centrale sull’opera è eliminato, per fornire al fruitore una vasta gamma di elementi. 14 Nel ’65, il compositore Alvin Lucier realizza la performance “Music for Solo Performer”, nella quale mette in risonanza alcune percussioni attraverso dei diffusori, che amplificano le onde alfa emesse dal suo cervello durante uno stato meditativo, catturate in tempo reale mediante l’utilizzo di elettrodi. Nello stesso anno, la compositrice Pauline Oliveros progetta e crea Figura 1.8 Alvin Lucier durante l'esecuzione di "Music for solo performer". l’Expanded Instrument System, un sistema per l’elaborazione (in principio analogica, in seguito anche digitale) del segnale del suo accordion in tempo reale, che utilizza in esibizioni dal vivo dal carattere puramente improvvisativo. Pauline Oliveros s’interessa in questi anni alle modalità di miglioramento del processo di attenzione applicato all’ascolto musicale, importanti studi conducendo presso l’Università della California a San Diego. La sua propensione all’improvvisazione è evidente anche nei suoi lavori su supporto, come “A Little Noise in the System” del ’66, un unico flusso estemporaneo eseguito al sintetizzatore Moog, senza effettuare montaggio del nastro. Al contrario il compositore di Los Angeles Morton Figura 1.9 Pauline Oliveros ed il suo accordion. Subotnick, preferisce selezionare il materiale registrato nel corso d’improvvisazioni, per eseguirne un montaggio, come nel caso di “Silver Apples of the Moon” del ’67. 15 Il panorama colto del ventennio compreso tra la fine degli anni ’50 e quella degli anni ’70, viaggia su un percorso simultaneo a quello tracciato dalle correnti “pop” tutt’altro che parallelo. Le due strade s’incontrano, a volte coincidono e si confondono tra loro. Mentre i Beatles, omaggiando Stockhausen ed il suo “Gesang der Jünglinge im Feuerofen”, compongono esperimenti come “Revolution 9” del ’68, i loro Figura 1.10 Syd Barrett in concerto con i Pink Floyd. dischi vengono riprodotti ed ascoltati dai giovani compositori che frequentano i Ferienkurse di Darmstadt14. Le nuove scoperte in campo tecnologico permettono l’utilizzo dello studio di registrazione come un vero e proprio strumento musicale, di supporto alla composizione. Chi può permetterselo, acquista i nuovi sintetizzatori e li integra nel sound della band. I Pink Floyd sono tra i primi a inserire suoni generati elettronicamente all’interno della loro musica psichedelica, ancora fortemente improvvisativa in questi anni. L’interesse nell’improvvisazione è vivo anche nel mondo rock, dando vita alle nuove correnti progressive mondiali, come la scena di Canterbury in Inghilterra, caratterizzata da gruppi come i Soft Machine, o il Krautrock tedesco dei Tangerine Dream e dei Can, i quali membri Holger Czukay ed Irmin Schmidt sono allievi di Stockhausen. In Italia, gruppi come gli Area di Demetrio Stratos (per il quale Cage compone un mesostico) fondono le sonorità del jazz con la Figura 1.11 Il cantante Demetrio Stratos. sperimentazione elettronica, il tutto unito alla strabiliante ricerca vocale compiuta dal cantante di origini greche. La Factory di Andy Warhol a Manhattan ospita feste ed eventi in cui si confrontano artisti provenienti da diverse 14 R. Worby, Crackle goes pop: how Stockhausen seduced the Beatles, The Guardian, 26 Dic 2015. 16 estrazioni, come il compositore e polistrumentista John Cale e il carismatico chitarrista e cantante Lou Reed. L’uso psichedeliche è di droghe senz’altro un amplificatore percettivo per molti artisti, che in sperimentano questi lunghe anni parti d’improvvisazione durante i loro brani, alla ricerca di nuovi stati di coscienza. Altri invece, come Robert Fripp dei King Crimson, sono Figura 1.12 Frank Zappa dirige la Ensemble Modern durante la prima mossi da una ricerca spirituale; in questi anni esplode, esecuzione di "Yellow Shark", poche settimane prima della sua morte, nel infatti, la curiosità del mondo '93. occidentale verso le culture orientali. Infine c’è chi, come Frank Zappa, è interessato ad ampliare gli orizzonti musicali e a muoversi controcorrente, spaziando tra elementi di musica contemporanea, pop, rock, jazz ed elettronica, uniti ad una notevole dose di irriverenza e critica sociale. Zappa compone alcuni lavori più contemporanei ispirandosi a Edgar Varèse, il quale stima l’opera del chitarrista italo-americano. 1.3. GLI ANNI ‘80 Sul finire degli anni ’70, la ricerca nel campo delle nuove tecnologie applicate alla produzione musicale permette finalmente l’utilizzo del calcolatore in tempo reale, come assistente alla composizione ed all’esecuzione in concerto. Nel ’77 la ditta Roland introduce sul mercato il rivoluzionario MC-8 MicroComposer, un sequencer dotato di microprocessore, in grado Figura 1.13 Roland MC-8 MicroComposer. 17 di modulare in tempo reale diversi parametri del suono e, grazie a una memoria RAM di 16 KB, permette di programmare sequenze contenenti un massimo di 5200 eventi, rispetto ai precedenti step sequencer che hanno un limite da otto a sedici note. Esso permette inoltre un utilizzo polifonico, poiché è possibile assegnare più controlli in voltaggio d’altezza a un singolo canale. Gli studi compiuti da John Chowning sulla sintesi FM nel precedente ventennio permettono lo sviluppo di strumenti come il sintetizzatore DX7 di casa Yamaha, che uniti allo sviluppo dei più economici chips digitali e microprocessori, aprono le porte alla generazione di musica elettronica in tempo reale. I suoni elettronici devono essere fluidi e cangianti, per rimanere “freschi” all'orecchio. Nella computer-music questa caratteristica è soggetta a un alto costo di calcolo, in termini di numero di elementi richiesti in partitura e di quantità di lavoro interpretativo che gli strumenti devono svolgere per realizzare questi suoni particolari15. Il calcolatore permette diverse soluzioni, catalogabili in tre macro-categorie; la prima fra tutte è la musica generata ed eseguita dal calcolatore. Questa tipologia di computer-music nasce in realtà ben prima degli anni ’80. Compositori come Iannis Xenakis o Gottfried Michael Koenig (il quale collabora in studio con numerosi compositori tra i quali Stockhausen, in brani come “Kontakte” o “Gesang der Jünglinge im Feuerofen”), sperimentano l’utilizzo del calcolatore per la costruzione di strutture matematiche applicate alla generazione di partiture, eseguite in un primo momento dall’uomo, in seguito dalla macchina stessa. Nei primi anni ’80 nasce il protocollo MIDI, acronimo Musical Instrument di Digital Interface, ad opera di due progettisti della Sequential Circuit, Dave Smith e Chet Wood16. Attraverso il MIDI diventa possibile il collegamento fisico tra vari dispositivi, la praticità, la leggerezza dei file e l’economicità dei costi di produzione lo rendono Figura 1.14 Dave Smith, "padre" del protocollo MIDI. 15 D. Gareth Loy, C. Roads, ed. The Music Machine: Selected Readings from Computer Music Journal. MIT Press, p. 344, 1992. 16 D. Smith, C. Wood, The complete SCI MIDI, 1981. 18 tutt’ora uno standard molto diffuso nelle produzioni musicali di qualsiasi livello. Nel 1983 le specifiche MIDI raggiungono il massimo livello, quindi sono presentate alla famosa fiera di Los Angeles NAMM (National Association of Music Merchants), ottenendo un’immediata popolarità che causa una momentanea divisione all’interno del comitato fondatore. Nel 1985 le divergenze si risolvono, grazie all’IMA (International MIDI Association), che pubblica la versione 1.0 del protocollo trasformandolo in uno standard. Il primo sintetizzatore dotato d’interfaccia MIDI è il PROPHET 600 della SCI, anche se la versione definitiva del protocollo MIDI è implementata per la prima volta dal DX7 Yamaha. Grazie a questo nuovo protocollo, diversi compositori lavorano alla realizzazione di programmi che mappano gli eventi MIDI attraverso algoritmi, generando suoni eseguibili attraverso una scheda audio. In questi anni è molto diffuso l’utilizzo di algoritmi basati sulla geometria frattale. Nel corso degli anni nascono diversi programmi per la generazione di melodie basate su un’enorme banca dati di frasi, utilizzati soprattutto per scopi didattici, quali Band-in-a-Box o Impro-Visor. Un’altra corrente musicale nata con il calcolatore è la composizione algoritmica assistita. Diversi compositori legati all’ambito della composizione algoritmica trovano nel calcolatore un valido assistente, in grado di compiere calcoli notevolmente complessi in breve tempo. Partendo da prime ricerche sulla sintesi vocale, Max Mathews elabora il primo prototipo di Figura 1.15 Max Mathews lavora alla creazione di MUSIC, presso i laboratori Bell. MUSIC nel ’57 17 , all’interno dei laboratori Bell di Murray Hill, nel New Jersey. Dopo anni di progressi, si giunge alla prima “popolare” versione del software, MUSIC 4. James Tenney ottiene una borsa di studio come ricercatore, il suo compito è realizzare brani elettroacustici per verificare le prestazioni del software di Mathews. In questi anni, dopo primi esperimenti in cui utilizza MUSIC come un sintetizzatore per la creazione di suoni nodali, Tenney è interessato al controllo di strutture generate da fattori casuali, quindi all’automazione di processi di montaggio mediante fogli di calcolo digitali. 17 P. Manning, Computer and Electronic Music, Oxford University Press, 1993. 19 Questo suo atteggiamento informale lo discosta dalla computer-music, prettamente algoritmica e deterministica. All’interno dei laboratori Bell anche il compositore francese Jean Claude Risset sperimenta l’utilizzo di MUSIC, interessato però alla riproduzione di suoni reali mediante tecniche di sintesi. Essendo allievo di André Jolivet, Risset è in parte legato alla musica strumentale e alla tradizionale scrittura su pentagramma. In questi anni c’è una forte reazione conservatrice in Francia, emergono notevoli idiosincrasie tra la serialità e l’improvvisazione, problemi che, in una terra “libera” come l’America, non trovano terreno fertile. In questo clima di libertà, Curtis Roads elabora per primo l’utilizzo della sintesi granulare nel dominio digitale. Egli lavora su un linguaggio basato su tre “dimensioni”, il punto, la linea e la nuvola. Il punto corrisponde a un singolo “grano”, un evento isolato, la linea è formata dalla successione ravvicinata di più grani, mentre la nuvola è un insieme caotico di grani che produce masse sonore mutevoli e fluttuanti. L’ultima tra le tre macro-categorie menzionate è caratterizzata dall’improvvisazione del calcolatore. In questo caso, la macchina si serve di algoritmi per creare un’improvvisazione su materiale musicale esistente. Ciò è possibile attraverso una raffinata ricombinazione di frasi musicali estratte da musiche esistenti, eseguite in tempo reale o pre-registrate. Per rendere credibile l’improvvisazione, il calcolatore “apprende” algoritmi di analisi del materiale inserito, restituendo nuove variazioni in “stile”. Questo processo differisce dalla composizione algoritmica, nella quale manca l’aspetto dell’analisi del materiale musicale. Tale analisi è di tipo statistico, serve a individuare ridondanze di frasi contenute nella banca dati. Una delle più note implementazioni di questo tipo è OMax, un ambiente di programmazione sviluppato all’IRCAM di Parigi, che combina l’utilizzo di OpenMusic e Max/MSP. Pietro Grossi, pioniere della musica elettronica italiana, primo tra l’altro a ottenerne la cattedra, nel 1980 inizia a utilizzare il sistema di sintesi del suono IRMUS, progettato dall’Istituto di Ricerca sulle Onde Elettromagnetiche del CNR di Firenze, reduce dalla precedente esperienza del ’78 con le apparecchiature del CNUCE (Centro Nazionale Universitario di Calcolo Elettronico) di Pisa, con Figura 1.16 Pietro Grossi e Sergio Maltagliati. le quali sperimenta il suo primo “…tentativo di far suonare il calcolatore a tempo indeterminato e con procedure completamente automatiche”18. 18 P. Grossi, Intervista televisiva per il 41° Maggio Musicale Fiorentino, Firenze, 1978. 20 1.4. DAGLI ANNI ’90 AD OGGI Nel corso degli anni ’90, l’informatica entra a far parte della vita quotidianità di ognuno e Internet cambia per sempre la vita dell’uomo. Il mondo è avvolto in una grande rete che mette in comunicazione i popoli lontani, miscela le culture e nutre di nuova linfa vitale la creatività e l’ingegno. I computer diventano sempre più piccoli, fino a divenire veri e propri oggetti di design, da inserire nell’arredamento di casa. L’incontrollabile flusso d’informazioni proveniente da quello schermo permette di creare musica nella propria stanza, importando nel Figura 1.17 Uno dei primi Personal Computer Macintosh. computer suoni campionati ed elettronici provenienti dalla rete. Se, fino a poco tempo prima, il nastro permetteva alle giovani band di effettuare delle semplici registrazioni in presa diretta, il digitale permette di montare e rimontare il materiale a proprio piacimento. È l’era del DJ, il Disk Jockey che muove le masse di giovani nelle discoteche, in principio miscelando tra loro brani su vinile, in seguito suonando in tempo reale mediante l’utilizzo di molteplici apparecchi. Il decennio dei ’90 si potrebbe riassumere nella parola “Mix”: Internet è un enorme frullatore nel quale tutto si miscela, la musica colta si fonde con la cultura “pop”, ai concerti si affiancano le performance, nelle quali gli artisti mescolano più media, musica, pittura, scultura e video-arte. In questo calderone si ritrovano correnti musicali molto diverse tra loro, caratterizzate da Figura 1.18 Due consolle da DJ a confronto, una analogica anni '70 ed una digitale anni '90. un utilizzo molto vario delle tecnologie. 21 Il newyorkese Tod Machover, giunto a Parigi nell’autunno del 1978, entra a far parte dell’IRCAM, calorosamente invitato da Pierre Boulez che lo vuole come compositore in sede. Dopo i primi anni trascorsi a sperimentare il sintetizzatore digitale 4X dell’italiano Giuseppe di Giugno (considerato la prima stazione di lavoro musicale interamente digitale per la Figura 1.19 Tod Machover e il suo HyperCello. sintesi e l'analisi del suono digitale in tempo reale), Machover alimenta il desiderio di espandere la performance dell’esecutore, elaborando così il primo concetto di Iperstrumento nel 1986. Trasferitosi al MIT (Massachussetts Insitute of Technology) come docente, studia diversi modi di espandere le potenzialità esecutive di strumenti tradizionali, applicando sensori di varia natura. Il sistema processa il suono proveniente dallo strumento in differenti modi, secondo i gesti dell’esecutore. Machover è interessato inoltre a un fine didattico: i suoi iperstrumenti possono aiutare le giovani leve di musicisti nel loro percorso di apprendimento. Sempre a un americano si deve la “scoperta” del Circuit Bending. Con il termine Circuit Bending s’intende la manipolazione creativa di circuiti provenienti da varie apparecchiature elettroniche a basso voltaggio, come pedali per chitarra, giocattoli per bambini e piccoli sintetizzatori digitali. Modifiche di questo tipo, talvolta casuali, enfatizzano la spontaneità e l’indeterminabilità dei suoni generati, tanto da associare questa tecnica alla Noise music. La paternità di tale invenzione è Figura 1.20 Reed Ghazala mentre sperimenta in studio. generalmente attribuita a Reed Ghazala. 22 Negli anni ’60 si accorge per caso che un giocattolo a transistor, venuto a contatto con oggetti metallici, produce suoni “strani”. Da allora Ghazala dedica la sua vita alla produzione di nuovi strumenti musicali di questo tipo. Tra le varie forme d’arte nate in questo decennio, meritano inoltre particolare attenzione le installazioni multimediali. Tramite l’utilizzo di sensori o di circuiti programmati, prendono Figura 1.21 "Acqua Ferita", un'installazione dell'iracheno Azad Nanakeli, vita performances di varia natura presentata nel 2011 alla Biennale di Venezia. nelle quali è spesso protagonista il fruitore, che interagisce in maniera più o meno significativa con l’installazione. Spesso si tratta di opere multimediali, dove la presenza simultanea e l’interazione fra vari media, coinvolge il pubblico per la vasta gamma d’informazioni che esso riceve, sebbene in molti preferiscano adottare il termine multimodale, che sposta l’attenzione sui modi di fruizione piuttosto che sul media di provenienza. Installazioni di prestigio sono regolarmente presentate nel corso d’importanti manifestazioni presso mostre quali la Biennale di Venezia o la Tate Modern di Londra. Tornando in ambiti prevalentemente musicali, è doveroso citare la è un corrente Laptronica. La parola Laptronica portmanteau prodotto dalla fusione di Laptop ed Elettronica, indica quindi la categoria di musica prodotta più o meno in tempo reale tramite (computer l’utilizzo portatile). del In laptop questa categoria rientrano differenti generi Figura 1.22 Un'esibizione dei jazzisti Carl Craig, Francesco Tristano & di musica elettronica, dal Live Set Moritz von Oswald. 23 dei DJ e produttori di musica “dance”, alle nuove sperimentazioni Nu Jazz, nelle quali l’improvvisazione di tipo jazzistico si combina con l’utilizzo di sintetizzatori e portatili per l’elaborazione in tempo reale del segnale proveniente dai vari strumenti presenti sul palco. Tra i vari artisti che si cimentano in questo genere di musica, spicca il norvegese Bugge Wesseltoft, che dagli anni ’90, dopo una prima fase più tradizionale, vira su sonorità elettroniche contaminate dalla cultura pop. Nella “Terra di Mezzo” che separa le installazioni dalla Laptop Music, possiamo trovare il Live Coding. Conosciuta anche come “programmazione interattiva”, la tecnica del Live Coding consiste nella compilazione del software in tempo reale, durante performance. La parte ambienti degli la maggior di programmazione dedicati alla musica è costituita da Figura 1.23 Royji Ikeda esegue il suo Test Pattern dal vivo. “semplici” compilatori, nati per i primi computer, aventi ridotte possibilità di calcolo. Questo genere di approccio è in realtà molto complesso per chi non conosce il linguaggio di programmazione, perciò alcuni software integrano gradualmente alcuni controlli in tempo reale, ad esempio utilizzando il protocollo MIDI. Tra gli artisti di maggior rilievo in questo genere spicca Ryoji Ikeda. Compositore eccentrico e poliedrico, nelle sue performance unisce principalmente suoni provenienti da apparecchiature digitali a proiezioni di visual concettuali. In “Test Pattern” del 2008 utilizza un software da lui compilato per elaborare diverse tipologie di files, dai quali estrapola dati per la generazione di suoni “puri” (sinusoidi e rumore bianco) o di visual composti esclusivamente da codici a barre. 24 2. REALIZZAZIONE DELLA PERFORMANCE 2.1. LIVE ELECTRONICS ED IMPROVVISAZIONE Come naturale conclusione di un lavoro di ricerca, il musicista avverte la necessità di mettere in pratica il suo studio, al fine di arricchire il proprio linguaggio. Tale conclusione coincide con quella del mio percorso di studi in Conservatorio, grazie al quale ho potuto apprendere tecniche di elaborazione e di spazializzazione del segnale audio, le quali fanno ormai parte del mio linguaggio musicale. Coltivo da molti anni un interesse particolare per la musica di tipo improvvisativo, sia per aspetti musicali, sia per altri più “spirituali”. Da sempre mi affascinano le musiche provenienti da culture extraeuropee, per via della sensazione di libertà che si respira ascoltandole. In effetti, tali musiche sono spesso legate alla vita spirituale dell’uomo durante le più varie celebrazioni. Nell’Europa centrale invece, l’attenzione si è sin da subito rivolta sul ruolo centrale del compositore/genio, che padroneggia le regole del sistema matematico-musicale al fine di comporre meravigliose opere, per divenire “immortale”. Nel caso delle musiche tradizionali orientali, africane, ma anche del sud dell’Europa, spesso si ricerca, attraverso ritmi ossessivi o lunghe improvvisazioni modali, uno stato di trance, nel quale tutto si fonde assieme, portando il musicista in una condizione di “immortalità”. Tale condizione, poiché diversa basata dalla precedente sull’annullamento del proprio ego, si sperimenta nell’attimo Figura 2.1 La Taranta in Puglia è una musica popolare dal forte presente, e non in un secondo momento carattere improvvisativo, capace di condurre chi la balla ad uno attraverso la memoria dei successori. stato di trance. Questo punto di vista, trasforma l’idea di musica, ampliandola da una forma d’arte a un vero e proprio linguaggio, mediante il quale poterci rapportare con le più differenti culture senza impedimenti linguistici. Inoltre, improvvisare impone di rivolgere l’attenzione verso l’interno, obbligandoci a guardare dentro noi stessi impariamo a conoscerci meglio. 25 Questa mia passione per l’improvvisazione è stata nutrita di nuovi stimoli quando ha incontrato il live electronics, quindi negli ultimi anni di studio ho sperimentato la creazione di ambienti esecutivi in MAX, che ampliassero la gamma timbricoespressiva dei miei strumenti acustici. La ricerca timbrica è il trait d’union fra il mio percorso e quello del collega e amico Yuri Dimitrov, il quale ha concentrato i suoi studi sui sintetizzatori, in particolar modo su quelli di concezione modulare, collezionando nel tempo alcuni moduli analogici moderni. Il suo intento era processare in tempo reale il Figura 2.2 Luigi Archetti ed Ernst Thoma eseguono la performance TRANSELEC, durante il Pod’Ring Festival di Bienna del 2003 segnale proveniente dai moduli e spazializzare il suono, utilizzando MAX come un modulo della sua strumentazione. Durante un periodo di studio è necessario suonare ed esercitarsi da soli, lo scontro con noi stessi ci conduce a una crescita, la quale in seguito va esperita con qualcuno, poiché il dialogo favorisce un nuovo sviluppo per il musicista. La ricerca di un collega musicista, con cui sperimentare il mio setup, si è subito sposata con il progetto di Yuri, considerando la mia strumentazione come un ulteriore modulo assemblabile alla sua performance. La nostra indagine, rivolta alla ricerca di un dialogo fra timbri, genealogicamente distanti, procede parallelamente su tre livelli: morfologico, semantico e spaziale. I timbri prodotti dagli strumenti acustici, elaborati in tempo reale, emulano quelli sintetici generati dagli oscillatori analogici e digitali. Allo stesso tempo, attraverso varie tecniche di sintesi e la manipolazione dell’inviluppo d’ampiezza, il suono dei sintetizzatori è modellato su imitazione dei suoni acustici. A livello semantico interviene la pratica manuale degli interpreti, la gestualità è da considerarsi un valore aggiunto poiché, derivando dalla pratica strumentale, pone l’attenzione sul dialogo tra i musicisti e quello tra loro e lo strumento. L’utilizzo di un sistema di diffusione ottofonico offre, infine, la possibilità di allargare il campo d’indagine, donando ai suoni una posizione nello spazio e la capacità di movimento. 26 2.2. ESTETICA DELLA PERFORMANCE: ISPIRAZIONI E STESURA FORMALE Per decidere la direzione da percorrere, da un punto di vista estetico, è stato necessario fare una cernita di tutte le fonti d’ispirazione che hanno mosso i nostri studi individuali, ascoltando registrazioni di repertorio e ricercando numerose interviste. Ci ha subito colpito un’altra intervista rilasciata da Ennio Morricone19 (oltre quella già citata a pag. 12), nella quale il compositore, parlando di alcuni esercizi svolti dal GINC durante le prove, li descrive come “esercizi che facevamo su un parametro unico. Esempio: gioco delle coppie; risposta positiva all’intervento di un esecutore (vuol dire che a un mio intervento, rispondeva l’intervento di un altro); oppure: risposta negativa (l’altro non rispondeva, o meglio rispondeva con un altro linguaggio). E così via”. Abbiamo deciso quindi di applicare strategie simili a quelle utilizzate dal gruppo di Evangelisti, nelle varie fasi di stesura della performance. Per la scelta della strumentazione abbiamo riascoltato e selezionato materiali registrati nel corso di lunghe sessioni d’improvvisazione, come descritto nel paragrafo seguente. Una volta selezionati i materiali migliori, il passaggio successivo è stato quello di costruire singoli momenti musicali, da noi nominati “scene”, ciascuno incentrato su un particolare dialogo fra gli strumenti acustici ed elettronici, talvolta a livello timbrico, talvolta ricercato nell’inviluppo d’ampiezza. Le tipologie di dialogo scelte sono tre: imitazione, contrasto e contrappunto; i processi d’imitazione e contrasto, inoltre, possono avvenire per accumulazione o per rarefazione. In un dialogo di tipo imitativo, gli strumenti emulano reciprocamente l’inviluppo d’ampiezza, la fusione tra i timbri crea tessiture di suoni lunghi piuttosto che nuvole di eventi puntuali. In un momento di contrasto invece, le risposte tra gli strumenti divergono per linguaggio musicale e caratteristiche dell’inviluppo d’ampiezza. Nel dialogo per contrappunto, nonostante le similitudini nell’inviluppo dei suoni, le voci mantengono un alto grado d’indipendenza. La scelta di strutturare la perfomance concentrandoci su brevi sezioni trova ispirazione negli studi sulla Moment Form compiuti da Karlheinz Stockhausen (citati a pag. 10). Come avviene per alcuni brani di Stockhausen, l’intento iniziale era quello di poter scegliere in maniera estemporanea la successione temporale degli eventi. 19 V. Mattioli, Superonda: la storia segreta della musica italiana, Baldini&Castoldi, 2016. 27 Tuttavia, in un secondo momento abbiamo preferito definire l’ordine delle scene, in modo da costruire una forma che procede in maniera quasi simmetrica dagli estremi verso il centro. Tale decisione è stata dettata anche da un’esigenza temporale, dovendo eseguire la performance durante la discussione della tesi in Conservatorio in un tempo limitato. Per la prima esecuzione quindi, la durata totale sarà di circa dieci minuti, suddivisi in cinque scene della durata di circa due minuti ciascuna. Nei paragrafi 2.3 e 2.4 saranno descritte le caratteristiche interne di ogni scena, con rimandi agli esempi audio contenuti nel CD in allegato alla tesi. Come anticipato, le scene sono disposte in maniera speculare; la terza scena funge da specchio deformante di quanto avviene nei precedenti momenti, ripresentando le tipologie di dialogo ascoltate in precedenza ma in direzione opposta: • SCENA I: dialogo per imitazione, diretto verso l’accumulazione: suoni lunghi e riverberati creano una stratificazione sempre più fitta; • SCENA II: dialogo per contrasto, diretto verso la rarefazione: suoni brevi e impulsivi formano nuvole di grani che lentamente si sfaldano perdendo l’attacco in favore di un tempo di decadimento più lungo; • SCENA III: dialogo per contrappunto: suoni sintetici e acustici dal carattere percussivo procedono su linee indipendenti, con intersezioni rapide e irregolari; • SCENA IV: dialogo per contrasto, diretto verso l’accumulazione: suoni lunghi emergono da uno sfondo granulare sempre più fitto; • SCENA V: dialogo per imitazione, diretto verso la rarefazione: suoni brevi caratterizzati da veloci modulazioni in ampiezza e in frequenza si alternano in maniera sempre più diradata, dissolvendosi gradualmente. 28 Figura 2.3 Schema formale della performance. Sullo sfondo, spettro di un’esecuzione di prova. La tecnica esecutiva degli strumenti acustici è incentrata sull’utilizzo di metodi di produzione sonora non convenzionali, atti a ricercare sonorità collaterali caratterizzate dalla fisionomia degli strumenti stessi. Questa metodologia, ampliamente impiegata dal GINC, consente di ampliare notevolmente la gamma timbrica degli strumenti, soprattutto utilizzando vari oggetti (ad esempio corde, chiodi, bacchette…) per sollecitare lo strumento. Per quanto riguarda la spazializzazione dei suoni, abbiamo tratto ancora una volta ispirazione da Stockhausen; la scelta di utilizzare un sistema di diffusione multicanale riduce in maniera considerevole di fatto ogni possibile situazione di staticità (come descritto a pag. 36), permettendo una migliore comprensione dei dettagli nelle singole voci provenienti dal DSP, distribuite nello spazio d'ascolto. Lo spostamento dei suoni è regolato da un sistema di feature extraction20: i dati estrapolati dallo spettro e dall’inviluppo d’ampiezza dei suoni controllano la direzione degli stessi attorno all’ascoltatore. In questo modo la spazializzazione segue i gesti dei musicisti, trasformandoli in movimento. 20 https://en.wikipedia.org/wiki/Feature_extraction 29 2.3. ESECUZIONE E STRUMENTAZIONE ADOPERATA La realizzazione di questa performance ha richiesto una fase preliminare di progettazione (durata circa un anno), durante la quale abbiamo effettuato molti campionamenti dei nostri strumenti. Abbiamo preso ad esempio il metodo di lavoro del GINC di Evangelisti 21 , riascoltando meticolosamente le registrazioni, appena terminata una sessione improvvisativa. La scelta di strumenti di piccole dimensioni, unita alla ripresa microfonica, ha subito permesso l’utilizzo di una vasta gamma timbrica, ulteriormente ampliata dalle notevoli potenzialità dei sintetizzatori utilizzati nella prima fase di sperimentazione. In questa fase d’ascolto, sono emersi i timbri e i momenti musicali più interessanti, caratterizzati da un forte dialogo tra i suoni. Abbiamo quindi selezionato gli strumenti definitivi, per ottimizzare i gesti esecutivi, i calcoli delle macchine e gli spazi d’esecuzione. Il mio setup è costituito da strumenti acustici glockenspiel, quali un un’armonica cromatica, percussioni africane in legno e in metallo e un ukulele hawaiiano. Con l’utilizzo di un microfono cardioide a condensatore e un microfono a contatto, il suono degli strumenti acustici è catturato e inviato a MAX, Figura 2.4 Il setup da me utilizzato durante la performance. quindi elaborato in tempo reale e infine diffuso. Ciascuno strumento rientra in una diversa categoria della classificazione Hornbostel-Sachs22, il più diffuso metodo di classificazione degli strumenti che, presentato nel 1914, comprende quattro “famiglie”: idiofoni, membranofoni, cordofoni ed aerofoni. 21 Descritto da Morricone e riportato da Valerio Mattioli nel libro “Roma 60 - Viaggio alle radici dell'underground italiano - Parte seconda”. 22 La classificazione Hornbostel-Sachs è stata pubblicata per la prima volta nel 1914, all’interno della Zeitschrift für Ethnologie. Successivamente, ne è stata pubblicata una traduzione in inglese dal Galpin Society Journal, nel 1961. 30 Il Galpin Society Journal nel ‘37 include una quinta categoria, gli elettrofoni, ovvero strumenti in grado di generare un suono elettricamente. Il mio collega utilizza due strumenti di sintesi, ciascuno caratterizzato da una differente concezione: il primo è un sintetizzatore costituito concezione, da modulare moduli il analogico, di recente secondo un sintetizzatore digitale virtual analog, Figura 2.5 Prima pagina dell'articolo di Hornbostel-Sachs del 1914 e poiché la generazione del suono è della traduzione inglese del 1961. digitale e non con circuiti analogici. Nonostante le differenti tecniche di sintesi utilizzate, ciò che rende distanti tra loro i due strumenti è la presenza di una tastiera nel secondo, al contrario del modulare. Ciò comporta un approccio gestuale e musicale totalmente diverso, poiché nel primo caso si è naturalmente portati ad indagare più sul timbro che sulle altezze, lasciando che sia lo strumento a “suonare”. L’attenzione è quindi rivolta all’enorme possibilità di cablaggio e quindi di modulazioni. La presenza di una tastiera, nel secondo caso, focalizza presto l’attenzione sulla costruzione armonico-melodica, riponendo nuovamente le redini nelle mani del musicista. Figura 2.6 Strumenti di sintesi impiegati nella performance. 31 2.4. LE SCENE Il lavoro preliminare di ascolto, analisi e selezione, ci ha condotto alla realizzazione di brevi momenti musicali, caratterizzati dall’utilizzo di pochi strumenti per volta, nominati “scene”. In queste scene abbiamo cercato di sondare nel dettaglio il maggior numero di possibilità offerte dall’interazione fra i nostri strumenti e l’ambiente esecutivo in MAX. Questi momenti non sono caratterizzati da una partitura precisa, esiste tuttavia un’idea comune riguardante la direzione da seguire, con ampi margini di libertà. Le scene sono collegabili tra loro oppure fruibili individualmente, come piccole miniature musicali. La modularità nella performance assume perciò un valore estetico importante, poiché caratterizza non solo le forme musicali, mutevoli e permutabili, ma anche le scelte compiute all’interno della singola scena e soprattutto l’intero impianto tecnico-informatico, dagli strumenti all’ambiente esecutivo. Dopo una serie di prove, abbiamo focalizzato l’attenzione su cinque delle scene realizzate. Ciascuna scena è incentrata sull’utilizzo di strumenti rappresentativi di una categoria della classificazione Hornbostel-Sachs, in dialogo con gli elettrofoni, tranne la quinta, dedicata alla voce umana. In allegato alla tesi è possibile ascoltare una dimostrazione delle cinque scene in versione stereofonica, oltre ai suoni dei singoli strumenti con e senza elaborazione. La prima scena (traccia 01 del cd in allegato) è dedicata agli aerofoni, quindi agli strumenti in grado di produrre suono attraverso la generazione di colonne d’aria. Per questo momento prevalentemente musicale, un’armonica a utilizzo bocca cromatica, strumento affascinante poiché tra i pochi nella sua categoria a essere polifonico, nonché l’unico ad essere in grado di emettere Figura 2.7 Il modello di armonica cromatica, prodotto da Hohner, utilizzato nella performance. suoni con ambedue le direzioni dell’aria, ovvero sia soffiando che aspirando. Il passaggio dell’aria all’interno dei fori, provoca la vibrazione di piccole ance metalliche, disposte su due file parallele, in modo tale che ogni foro sia in grado di produrre due note: la direzione dell’aria sollecita una o l’altra ancia. 32 Il timbro dell’armonica, processata da un harmonizer, crea una tessitura fluida e cangiante (traccia 06 del cd), nella quale s’innestano nuvole di grani sintetici e una lenta pulsazione ritmica, data da un timbro simile a quello del didgeridoo australiano (traccia 07), ottenuto mediante sintesi sottrattiva. La seconda scena, dedicata agli strumenti idiofoni, protagonista il ha come glockenspiel, strumento tedesco a percussione nato nel XVIII secolo, costituito da barre metalliche rettangolari intonate e disposte su due file, come la tastiera di un pianoforte. In questa scena, il dialogo con i sintetizzatori, i quali attraverso Figura 2.8 Glockenspiel Angel a 25 note. wavetables e filtri producono timbri metallici (traccia 09), è inizialmente puntuale; gradualmente, decostruendo l’inviluppo d’ampiezza dell’oscillatore e processando il glockenspiel con un pitch shifter e un granulatore (traccia 08), gli interventi brevi e percussivi si sfaldano, creando tessiture fluide che ricordano quelle ottenute da J.C.Risset nei suoi esperimenti di risintesi delle campane, contenuti nel “Catalogo introduttivo dei Suoni Sintetizzati al Computer” del 1969. Per la scena con i membranofoni, abbiamo preso in esame i timbri di due percussioni africane differenti nei materiali di costruzione. Il djembe è ricavato da un unico blocco di legno duro, la pelle, di capra, è tesa da un insieme di corde legate a due cerchi metallici. La sua forma a calice consente di ottenere una vasta gamma di suoni, dal Figura 2.9 Da sinistra, djembe ghanese e darabouka tunisina. grave all’acuto. La darabouka invece ha il corpo in 33 metallo, la pelle in questo caso è tesa da due cerchi uniti da un sistema di tiranti. Ciò rende il timbro di quest’ultima notevolmente più brillante di quello del suo parente in legno, pur mantenendo una certa varietà di suoni, a causa delle similitudini nella forma. Il DSP, in questo caso, racchiude i processi utilizzati nelle precedenti scene. Una serie di linee di ritardo, con tempi molto brevi e feedback elevato, genera un filtraggio a “pettine” e una coda intonata (traccia 10). Il dialogo con i sintetizzatori, un generatore di forme d’onda casuali con inviluppo percussivo e un modulo di cross-synthesis che emula la coda di risonanza di una membrana (traccia 11), è rapido, frenetico e in costante accumulazione. Nella quarta scena, i cordofoni sono rappresentati dall’ukulele. Strumento hawaiiano simile al cavaquinho portoghese, le sue piccole dimensioni rendono molto brillante l’attacco del suono e rapido il decadimento. Dopo vari esperimenti ho deciso di microfonare lo strumento con un microfono a contatto, posto a un centimetro dal ponte. La particolare microfonazione enfatizza il suono delle corde, addolcendone l’attacco. I processi in tempo reale sono affidati al granulatore, pitch shifter e delay (traccia 12). Attraverso la percussione, lo sfregamento di vari oggetti sulle corde, l’ukulele crea delle nuvole di grani sullo sfondo, mentre in primo piano c’è il sintetizzatore, il quale produce una forma d’onda che ricorda quella di una grande corda sfregata da un archetto (traccia Figura 2.10 Ukulele soprano. 13). L’ultima scena vede come protagonista la voce, primo strumento utilizzato dall’uomo per comunicare con la natura e i propri simili. La combinazione fra corde vocali, emissione dell’aria e articolazione muscolare, la rende lo strumento più duttile che esista, in grado di produrre timbri molto vari e distanti tra loro. Nel corso dei secoli, l’utilizzo in musica della voce è mutato, per assecondare i gusti estetici delle epoche e le esigenze tecniche (nella musica lirica, ad esempio, si utilizza una particolare impostazione della voce che, attraverso il sostegno e l’azione del diaframma, permette alla voce di emergere dal suono dell’orchestra). 34 Nella musica occidentale si è gradualmente formata una tecnica vocale che ha escluso, fino al ‘900, una vasta gamma di timbri e sonorità ottenibili mediante le cosiddette “tecniche vocali estese” (Extended Vocal Tecniques), accuratamente descritte da Deborah Kavasch nel suo articolo An Introduction to Extended Vocal Techniques: Some Compositional Aspects and Performance Problems23. Con “Stimmung” del 1968, Stockhausen è il primo noto compositore occidentale a riprendere tecniche di canto Figura 2.11 Nel canto a Tenore sardo, l'armonizzazione delle quattro voci produce la risonanza di un'armonica comune, creando l'illusione di una quinta voce. armonico, molto diffuse ad esempio nelle regioni della Tuva siberiana e della Mongolia e, in forma diversa, in altre parti del mondo (ad esempio nel canto a tenore della Sardegna). Attraverso una modulazione della gola, della lingua e delle cavità orali, è possibile enfatizzare alcune formanti dello spettro vocale, al fine di far emergere una componente armonica ben distinta. Trevor Wishart invece ha fatto dell’improvvisazione vocale al microfono la sua peculiarità. Registrando e selezionando materiale vocale nel corso di lunghe improvvisazioni al microfono, Wishart processa i suoni spesso attraverso l’utilizzo di convoluzioni spettrali e sintesi incrociata. Questi esempi sono stati fonte d’ispirazione per la realizzazione di questo momento all’interno della performance, dove la voce umana (traccia 14) dialoga con i filtri a formanti dei sintetizzatori (traccia 15), giocando talvolta su veloci contrappunti, talvolta su lunghe tessiture Figura 2.12 Trevor Wishart. cangianti. 23 D. Kavasch, An Introduction to Extended Vocal Techniques: Some Compositional Aspects and Performance Problems , contenuto in Reports from the Center, vol. 1, n. 2, Center for Music Experiment, Università della California, San Diego, 1980. 35 2.5. DIFFUSIONE MULTICANALE In una conferenza tenuta a Darmstadt nel ’58 24 , Stockhausen parla già diventato allora di come indispensabile sia per la musica elettronica aggiungere il parametro “spazio” all’interno delle nuove composizioni, al fine di rimuovere la staticità derivata da un’eccessiva omogeneità nelle manipolazioni del materiale sonoro in tutte le sue proprietà (altezza, Figura 2.13 Stockhausen alle prese con il suo diffusore rotante, progettato per Kontakte nel 1959. intensità, timbro). Inoltre l’utilizzo dello spazio aumenta l’intellegibilità dei suoni, poiché distribuendo gruppi di eventi puntuali sovrapposti, è possibile comprendere meglio le singole voci. L’elemento spaziale all’interno del Live Electronics non ha, tuttavia, ancora trovato una forma di notazione universale, probabilmente perché frequentemente è il compositore stesso a curare direttamente la regia del suono, senza contare le problematiche introdotte dall’ambiente dove avviene l’esecuzione, spesso in contrasto, per via delle dimensioni, con lo spazio virtuale del brano25. È perciò necessario, secondo Francois Bayle26, elaborare un’interpretazione che sia utile a organizzare lo spazio acustico secondo le caratteristiche della sala e lo spazio psicologico secondo le caratteristiche dell’opera. Il musicista Figura 2.14 François Bayle e il suo acusmonium al GRM di Parigi. 24 K. Stockhausen, Musik im Raum (Musica nello Spazio), 1958, tad. It. di D. Guaccero, in La Rassegna Musicale, 32(4), 1961. 25 A. Vidolin, Suonare lo Spazio Elettroacustico, CSC – Centro di Sonologia Computazionale dell’Università di Padova, 2001. 26 F. Bayle, Musique acousmatique : propositions... positions, Buchet/Chastel, Parigi, 1993. 36 alla consolle concepisce un’orchestrazione e un’interpretazione vivente, intervenendo sul timbro, sulla dinamica e sul movimento dei suoni nello spazio. È interessante notare come le diversità tra filosofia concreta e sintetica si riflettano anche nell’utilizzo dello spazio. La musica concreta tende a sfruttare lo spazio acustico esecutivo come elemento caratterizzante, al contrario, nella musica elettronica sintetica, il compositore progetta uno spazio virtuale. Il primo caso vince sul secondo soprattutto per ragioni economiche e pratiche: per godere dell’ascolto di uno spazio virtuale è necessario proiettare il suono in ambienti privi di particolari caratteristiche acustiche, quindi vanno escluse le normali sale da concerto, i teatri e gli auditorium. Inoltre progettare uno spazio virtuale richiede una certa competenza in merito alla programmazione, della quale i compositori/musicisti non sempre sono in possesso. “Suonare” lo spazio richiede una notevole capacità d’ascolto, il regista del suono è ormai una figura importantissima e determinante per la riuscita di un concerto elettroacustico. Per questo motivo sono nate diverse “scuole” interpretative, che studiano la disposizione dei diffusori secondo il programma da eseguire, e i giusti routing dei segnali per riprodurre i movimenti desiderati. Tra molte, ho trovato interessante l’approccio strutturale utilizzato dalla compositrice belga Annette Vande Gorne. Lei “compone” lo spazio intendendolo come un luogo d’intersezione di punti, linee e piani. I movimenti diventano parte della forma, e sono da lei suddivisi in figure spaziali (dissolvenza incrociata, smascheramento, accentuazione, scintillamento, oscillazione, altalenare, onda, rotazione, spirale e rimbalzo)27. Volendo applicare questo tipo di spazializzazione ai nostri suoni, è sorta la problematica di avere un regista del suono. Seguendo lo spirito che ha Figura 2.15 La compositrice belga Annette Vande Gorne. caratterizzato la progettazione 27 A. Vande Gorne, L’interprétation spatiale. Essai de formalisation méthodologique, rivista DEMéter, Università di Lille, 2002. 37 del DSP, ho deciso di affidare la spazializzazione a un’analisi in tempo reale dello spettro dei suoni in ingresso. L’analisi estrapola in tempo reale tre dati, noiseness (quantità di rumore), brightness (concentrazione di energia spettrale nelle zone acute) e loudness (intensità sonora), i quali, una volta riscalati, sono assegnati rispettivamente all’angolazione, all’altezza e alla distanza della sorgente rispetto ad un punto centrale della sala: l’inviluppo spettrale dei suoni disegna il loro movimento nello spazio. La disposizione degli altoparlanti può assumere diverse connotazioni, in base alle esigenze e alle disponibilità del luogo, la patch è ricalibrabile al momento, inserendo il numero dei diffusori e la loro collocazione su coordinate polari. L’inviluppo d’ampiezza dei suoni caratterizza molto il loro movimento nel sistema di diffusione, producendo interessanti figure di spazializzazione, ma anche qualche piccolo problema. Il carattere percussivo di alcuni strumenti rischia di causare dei vuoti improvvisi, seppur brevi, che disturbano il movimento. Durante i corsi di “Percezione uditiva dello spazio” e di “Esecuzione ed interpretazione del repertorio elettroacustico”, si è affrontato spesso questo tipo di problema e le sue possibili soluzioni. Parlando di Luigi Nono, il maestro Marinoni ha spiegato come il compositore veneto utilizzasse spesso aggiungere alla spazializzazione una “amplificazione trasparente”, ovvero una lieve diffusione dell’uscita generale in ciascun diffusore, dopo aver calibrato il sistema con un fuoco centrale nell’ambiente d’ascolto. Il collega Dante Tanzi, profondo conoscitore delle tecniche di regia e diffusione del suono, mi suggeriva l’utilizzo di un “rinforzo” generale su una coppia di diffusori frontali, poiché, in effetti, i movimenti spaziali sono percepiti maggiormente dal fronte anteriore rispetto a quello posteriore. Infine il maestro Sapir ha più volte posto l’accento sull’importanza di un utilizzo sapiente del riverbero, sia naturale sia artificiale. Spesso accade di dover eseguire musiche che prevedono un utilizzo importante del riverbero, in ambienti già molto riverberanti. Trovare il giusto equilibrio non è semplice ed implica una notevole capacità di ascolto. Facendo tesoro dei preziosi consigli, ho trovato una soluzione che riassume ciascuna strategia. Il riverbero del DSP è diffuso in maniera stereofonica su tutte le coppie di diffusori, coprendo quindi i vuoti che si presentavano in precedenza, mentre l’uscita diretta di ciascuna coppia di altoparlanti è inviata anche alla coppia stereofonica frontale, “addolcendo” la percezione dei movimenti di spazializzazione. 38 In questo capitolo ho cercato di fornire al lettore una panoramica generale sul mio lavoro, nella speranza di trasmettere una piccola parte del percorso che mi ha portato alla sua realizzazione. Ho cercato di non dilungarmi troppo sugli aspetti più tecnici che riguardano la programmazione dell’ambiente esecutivo, per mettere maggiormente in luce le ragioni che mi hanno spinto a imboccare questo cammino, e le fonti d’ispirazione che mi hanno aiutato a percorrerlo. Nel capitolo successivo saranno illustrati i passaggi che hanno portato alla realizzazione dell’ambiente esecutivo in MAX, con un’attenzione particolare a ciascun modulo. 39 3. AMBIENTE ESECUTIVO IN MAX Figura 3.1 Patch in esecuzione durante la performance. In numerosi corsi in Conservatorio, si è frequentemente discusso con i docenti sulle svariate modalità di programmazione degli ambienti esecutivi. MAX è un ambiente ideale per la realizzazione di progetti artistici, poiché l'approccio nei suoi confronti risulta abbastanza immediato anche per i non esperti di linguaggi informatici, grazie soprattutto alla sua concezione modulare, che si sposa perfettamente con l’estetica della nostra performance. A differenza di ambienti più ostici, dove è richiesta la compilazione di un codice, la modularità del linguaggio ad oggetti adoperato da MAX permette rapidamente di assemblare, modificare e soprattutto ascoltare in tempo reale il risultato. Tutto ciò lo rende uno strumento ideale per il controllo e la gestione del flusso audio in un live electronics. Questa sua duttilità permette di impostare lo stile di programmazione in conformità a quelle che sono le esigenze dell'esecutore. 40 Ad esempio, l’utilizzo di oggetti grafici permette una maggiore accessibilità a un utente che non abbia una particolare familiarità con il linguaggio di programmazione. Per questo motivo ho deciso di realizzare una finestra d'esecuzione, nella quale è possibile gestire i livelli, il routing del DSP e il lancio delle scene. In questo modo la patch è eseguibile anche da un interprete non pratico di MAX, senza doversi addentrare nella programmazione più strutturale. Tuttavia l’interfaccia grafica comporta Figura 3.2 Interfaccia grafica per il controllo dinamico dei livelli e delle assegnazioni del DSP. un maggior dispendio di energie da parte del processore, è quindi opportuno trovare il giusto equilibrio tra praticità e velocità di calcolo. Il maestro Vigani, durante i corsi di composizione, ci ha illustrato come, programmando il DSP e la spazializzazione attraverso liste e messaggi, sia possibile avviare processi d'elaborazione molto complessi, con un minimo lavoro da parte del processore. L'utilizzo di liste e messaggi può risultare scomodo nel caso in cui si volessero modificare dei parametri in maniera dinamica, l'organizzazione di mentre cue che è l'ideale impostino per una configurazione precisa del DSP. L’approccio modulare, infine, permette infinite Figura 3.3 Liste di dati da inviare al DSP. possibilità di routing tra i vari effetti, i quali possono essere racchiusi come astrazioni in singoli oggetti, collegabili tra loro come se fossero moduli analogici. Questa strategia permette di ottenere un ambiente esecutivo aperto a ogni soluzione, i moduli precostruiti possono essere ampliati, sostituiti, invertiti o eliminati in qualsiasi momento. 41 3.1. MAIN La finestra principale della patch è costituita esclusivamente dall'insieme dei moduli costituenti la performance: l'interfaccia (harmonizer, d'esecuzione, pitch gli shifter, effetti delay, granulatore e riverbero), l'analizzatore di spettro e il modulo di spazializzazione. Cliccando su ognuno di essi è possibile aprirli, visionare programmazione e la modificarne loro i parametri dinamicamente. Ciascuno dei moduli non presenta né Figura 3.4 Finestra principale della patch. ingressi né uscite, poiché il flusso del segnale audio e dei dati di controllo sono gestiti tramite send e return e liste di messaggi. Questa finestra è utile soprattutto nel caso in cui si voglia suonare con l'ambiente esecutivo in maniera libera, senza seguire le configurazioni prestabilite dalla performance. La presenza dell’oggetto dac~ (digital-analog converter) consente all’utente la selezione immediata del sistema di input/output (scheda audio, entrate e uscite analogiche), nonché l’impostazione della frequenza di campionamento, del numero di quantizzazione e della dimensione della finesra di buffer. Per un funzionamento ottimale della patch, a prescindere dal computer utilizzato, è preferibile utilizzare una finestra non inferiore ai 512 campioni, per non rischiare un sovraccarico di lavoro da parte Figura 3.5 Digital-Analog Converter. del processore. 42 3.2. INTERFACCIA ESECUTIVA Figura 3.6 Livelli d’ingresso dei segnali audio e mandata al fronte stereofonico dell’uscita totale. Il modulo d’interazione con la patch è studiato per ottimizzare i controlli, al fine di gestire dinamicamente i parametri più importanti, come i livelli d’ingresso dei segnali o il routing tra gli effetti del DSP. Per ogni canale è presente un VU meter, per controllare che non avvengano distorsioni in ingresso. I fader sono controllabili dinamicamente tramite un hardware MIDI collegato al PC e precedentemente mappato. I controlli MIDI sono assegnati a coppie di canali, uno per i miei microfoni ed uno per i sintetizzatori di Yuri, per ottimizzare il numero di fader da gestire durante la Figura 3.7 ReMOTE 25SL, il controller MIDI della Novation utilizzato nella performance. performance. Un terzo controllo gestisce la quantità di segnale diretto da inviare alla coppia stereo dei diffusori frontali, in modo da “correggere” gli inconvenienti percettivi dovuti alla spazializzazione (si veda il paragrafo 2.3). 43 Figura 3.8 Controlli sulle mandate agli effetti. La quantità di segnale inviato al DSP è regolata da un fader per ciascun effetto; anche in questo caso il livello è controllabile attraverso un vu meter. In questo modo è possibile gestire sul momento eventuali problemi di dinamica, senza causare vuoti improvvisi o clipping. Il routing tra segnali audio ed effetti è gestito da una matrice a quattordici colonne e diciannove righe. Le colonne riguardano i segnali audio diretti (in ordine dall'1 al 4 i due microfoni, i moduli e la tastiera) e le uscite stereofoniche dei singoli effetti (harmonizer, pitch shifter, delay, granulatore e riverbero), mentre le righe rappresentano la destinazione da assegnare. Tramite l'oggetto grafico è possibile gestire rapidamente il flusso del segnale, cliccando sui punti di congiunzione fra righe e colonne, mentre per le scene della performance le configurazioni sono richiamate tramite messaggi, come si vedrà più avanti. In una sub-patch è contenuta invece programmazione vera e propria della matrice, nella la Figura 3.9 Matrice grafica per il routing degli effetti. 44 Figura 3.10 Programmazione della matrice. quale il segnale passa attraverso una serie di send e return, i quali risparmiano l’utilizzo di cablaggi intricati e poco comprensibili. Le prime cinque uscite si collegano agli effetti del DSP tramite outlets, per poterne controllare il livello in maniera dinamica, le quattro successive servono ad inviare i segnali diretti (non effettati) alle uscite, mentre le altre sono inviate direttamente al sistema di spazializzazione. Durante la performance occorre cambiare rapidamente, tra una scena e l’altra, la configurazione della matrice, oltre ai parametri che riguardano gli effetti. Per gestire tutti questi controlli, è stato necessario semplificare il tutto attraverso l’utilizzo di cue richiamabili tramite la tastiera del computer, poiché, essendo già impegnati nel suonare gli strumenti, non è possibile gestire a dovere troppi fader. Figura 3.11 Partitura contenente le liste di parametri da assegnare al DSP I numeri della tastiera, dall'uno al durante le scene. cinque, servono per richiamare le configurazioni della matrice e degli effetti di ciascuna scena. Il primo messaggio da destra inizializza gli effetti utilizzati nella scena e azzera la matrice, il secondo e il terzo messaggio configurano il DSP con i parametri desiderati, il quarto messaggio imposta il routing della matrice e l'ultimo assegna i parametri al granulatore, il quale è programmato in maniera diversa dagli altri effetti. Il tasto “invio” è assegnato all'inizializzazione dell'intero sistema, mentre il tasto “spazio” arresta la riproduzione. Questo sistema permette di ridurre i controlli all'essenziale, in modo tale da non dover impiegare una terza persona alla regia del suono. 45 Un breve tempo di interpolazione è assegnato alla matrice, così da evitare clipping dovuti ad un repentino cambio di configurazione, che spesso può coincidere con il decadimento dell'inviluppo d'ampiezza generato da effetti quali il delay o il riverbero. Figura 3.12 Configurazione del DSP e del routing della matrice nella scena I. 3.3. HARMONIZER Figura 3.13 Controlli dinamici dell'harmonizer. Per la costruzione del DSP ho preferito adoperare una programmazione basata sull’invio di liste tramite messaggi, utilizzando frequentemente l’oggetto poly~, grazie al quale è possibile generare diverse istanze dello stesso effetto, ottenendo così un notevole risparmio di CPU. Alcuni degli effetti utilizzati nella performance sono stati realizzati dal maestro Andrea Vigani presso l’IRCAM di Parigi, il quale me li ha forniti durante i suoi corsi di composizione. 46 Il primo fra questi è l’harmonizer, strumento che genera più copie del segnale in ingresso, trasposte in altezza. Aprendo la patch dell’effetto, si trovano i controlli dinamici dello strumento, inseriti in un’interfaccia grafica che tuttavia non è utilizzata nel corso della performance. L’oggetto poly~, contenuto nell’harmonizer, richiede come argomenti un nome ed un numero di voci, in questo caso non modificabile dinamicamente. Questi argomenti indicano la destinazione (l’istanza) alla quale inviare i parametri di controllo, attraverso le liste contenute nei Figura 2.14 Oggetto poly~ contenuto nell'harmonizer. messaggi delle scene. Il poly~ riceve da un unico inlet sia il segnale da processare, sia le liste di controllo, mentre dai due outlet invia alla matrice il segnale stereofonico risultante dal DSP. I parametri generali sono l'attivazione dell'effetto, il tempo massimo di delay (questo harmonizer permette di assegnare un tempo di ritardo diverso per ciascuna voce/istanza), il feedback, il guadagno in ingresso ed in uscita dall'effetto e il missaggio fra segnale diretto ed effettato. Scendendo maggiormente nel dettaglio, è possibile visionare la programmazione del poly~, al fine di poterne comprendere meglio il funzionamento. L'oggetto racchiude due percorsi, uno per il segnale ed uno per i controlli, caratterizzati da un ricco utilizzo di sub-patch, contenenti espressioni matematiche e minuziosi accorgimenti utili ad evitare errori di calcolo e clipping. Ad esempio, il segnale audio passa attraverso una serie di sub-patch che effettuano un'interpolazione lineare del guadagno in Figura 3.15 Programmazione del poly~ dell'harmonizer. ingresso. 47 In seguito il segnale è duplicato per essere inviato al DSP vero e proprio, nonché alle uscite dirette. I controlli generali dell'effetto sono ricevuti e smistati dall'oggetto route. Essi comprendono il tempo massimo di delay e la quantità di feedback (ciascuna voce dell'armonizzazione può avere un tempo di ritardo rispetto al segnale originale), il guadagno in ingresso e in uscita, l'attivazione dell'effetto ed il missaggio con il suono diretto. L'armonizzazione vera e propria del segnale audio avviene tramite un secondo poly~, contenuto all'interno del precedente. In questo poly~ i messaggi di controllo, sempre Figura 3.16 Interpolazione lineare del guadagno in ingresso. gestiti da un oggetto route, assegnano all’effetto valori sul panning, sul livello d’uscita, sulla trasposizione, il ritardo e l’attivazione di ciascuna voce, oltre che sulla dimensione della finestra di buffer, registrata dall’effetto per processare il segnale. La trasposizione dell'altezza del segnale originale avviene tramite un'alterazione della velocità di lettura della finestra di buffer, tecnica che richiama la metodologia con la quale si otteneva questo effetto nell'era analogica, attraverso un'accelerazione del nastro o della velocità del vinile. Nonostante esistano ormai tecniche digitali moderne, in grado di ottenere risultati qualitativamente superiori grazie all'utilizzo dell'analisi di Fourier, la scelta di adottare questa metodologia si sposa meglio a livello Figura 3.17 Il poly~ che effettua le armonizzazioni. 48 concettuale con il resto della performance, poiché l'effetto è ottenuto tramite oscillatori sinusoidali e a “dente di sega”, assemblati ancora una volta in maniera modulare. Inoltre, tale tipologia di programmazione è sicuramente più “leggera”, e permette al computer di eseguire il calcolo con uno sforzo minimo. La trasposizione si compie su centesimi di tono, mentre il delay è calcolato in millisecondi. 3.4. PITCH SHIFTER Figura 3.18 Interfaccia grafica del Pitch shifter. Il secondo effetto inserito nel routing è un frequency shifter, in altre parole un traspositore di frequenza. Anche in questo caso la polifonia ha quattro voci, però, a differenza dell’effetto precedente, la loro esecuzione è simultanea, poiché non è presente il delay. Come per l’harmonizer, è presente un’interfaccia grafica per il controllo dinamico dei parametri, tuttavia le impostazioni riguardanti le scene sono inviate all’effetto tramite messaggi. Anche qui la trasposizione è calibrata su centesimi di tono, inoltre ciascuna voce ha un controllo sulla posizione nello spazio e sul livello d’ampiezza. 49 Il poly~ contenente l’effetto ha una programmazione simile a quella dell’harmonizer, l’assenza del delay rende più semplice la comprensione del percorso del segnale audio e dei parametri di controllo, che in questo caso sono il guadagno in ingresso e in uscita, il missaggio fra suono diretto ed effettato e l’attivazione del traspositore. L’audio in ingresso passa attraverso il sistema d’interpolazione già visto all’interno dell’harmonizer; in seguito una copia è inviata al poly~ traspositore, mentre un’uscita diretta è sommata al risultato stereofonico del processo, prima di essere inviata al sistema di analisi e diffusione. Figura 3.19 poly~ del pitch shifter. La trasposizione avviene all’interno di un altro poly~, stavolta per mezzo dell’oggetto freqshift~, il quale compie in sostanza una modulazione ad anello, andando ad agire sul dominio del tempo. In questo caso non è necessaria una finestra di buffer, poiché la modulazione avviene in tempo reale sul segnale in entrata. Questa differenza di programmazione rende il risultato timbricamente diverso dall’effetto precedente, la simultaneità delle voci fa sì che si abbia l’impressione di ascoltare la scomposizione di un ricco spettro nello spazio ottofonico. Figura 3.20 L'oggetto freqshift~ contenuto nel traspositore. 50 3.5. DELAY Per il modulo apportato di delay alcune ho modifiche rispetto all’originale del maestro Vigani, senza però alterarne il meccanismo principale di funzionamento. Ho scelto di poter controllare delle bande numeriche, all’interno delle quali casualmente è selezionato un valore metronomico assegnato a una linea di ritardo ed espresso in millisecondi. È possibile dinamicamente inoltre il variare valore Figura 3.21 Controlli dinamici sui tempi delle linee di ritardo. di feedback generale e decidere il livello d’ampiezza e il panning di ciascuna linea. Come nei precedenti effetti, il segnale è interpolato e se ne può controllare il bilanciamento dry/wet. Il feedback è controllato nel poly~ principale, mentre il DSP importante è sempre contenuto in un altro poly~. Un buffer~ registra una finestra di 512 campioni. Attraverso questa finestra, il delay contenuto nel secondo poly~ sovrappone due copie della stessa linea di ritardo, attraverso l’utilizzo Figura 3.22 Il poly~ contenuto nel delay. dell’oggetto sah~ (sample and hold). 51 Tutto ciò serve a evitare di incorrere nell’effetto Doppler, qualora cambiasse repentinamente la velocità del delay. Figura 3.23 Programmazione del delay. A destra la sub-patch "p vdelay~". 3.6. GRANULATORE Il modulo di sintesi granulare è costituito dall’oggetto munger~ programmato da Dan Trueman. Gli argomenti inseriti nell’oggetto sono la lunghezza massima del buffer in millisecondi, il numero di Figura 3.24 Granulatore munger~. canali d’uscita e il numero massimo di polifonia. In effetti, munger~ permette già da sé una spazializzazione multi-fonica. Il risultato tuttavia era piuttosto caotico, rispetto a quello che cercavamo e siamo riusciti ad ottenere con l’analizzatore di spettro, ovvero delle masse sonore di grani in movimento. 52 Durante la performance, le impostazioni del granulatore sono inviate tramite una lista, la quale è poi smistata alle varie caselle numeriche tramite l’oggetto unpack. I controlli riguardano i range di separazione, Figura 3.25 Dettagli della programmazione del granulatore. dimensione e altezza dei grani, oltre all’apertura stereofonica. L’effetto varia i propri parametri in maniera aleatoria all’interno dei suddetti range, creando una vasta gamma di timbri, talvolta assai diversi tra loro. Data la sua ricca espressività, è tra gli effetti più utilizzati all’interno della performance. 3.7. RIVERBERO Figura 3.26 Interfaccia grafica per il controllo del modulo di riverbero. Il modulo di riverbero, programmato partendo da Gigaverb~ di Juhana Sadeharju, presenta sette controlli: la dimensione della stanza, l’apertura stereofonica, un coefficiente d’attenuazione, la durata della coda, il tempo di riverberazione, la larghezza di banda del filtro (il filtraggio serve a emulare il naturale decadimento delle frequenze acute) e le prime riflessioni. L’effetto è costituito dall’oggetto gen~, il quale è in grado di generare numerosi processi nativi di elaborazione del segnale audio. 53 In questo caso l’oggetto gen~ contiene un banco di quattro delay in parallelo per le prime riflessioni, con la possibilità di impostare anche un pre-delay. Ciascun delay ha un corrispettivo feedback, il risultato stereofonico passa da un nuovo banco di tre delay in serie, per creare la coda. L’uscita ha un controllo di bilanciamento con il suono non processato. Nel corso della performance, questo è l’unico modulo ad essere controllato in maniera dinamica, per poter equilibrare in qualsiasi momento il riverbero artificiale con Figura 3.27 Programmazione dell'oggetto gen~ contenuto nel quello naturale dello spazio d’esecuzione. riverbero. 3.8. ANALISI SPETTRALE In questo modulo avviene l’estrapolazione dei parametri che andranno a controllare la spazializzazione. Nell’interfaccia grafica è presente solo un controllo di guadagno Figura 3.28 Livelli dei segnali all'interno degli analizzatori ed estrapolazione in tempo reale dei dati di Loudness, Brightness e Noisiness. per ogni segnale e la visualizzazione in tempo reale dei dati di Loudness, Brightness e Noisiness ricavati dallo spettro. 54 Tutto ciò avviene grazie all’oggetto analyzer~ di Tristan Jehan, che è inoltre in grado di estrarre il pitch (in MIDI e in Hertz, anche polifonicamente), la banda della scala Bark (scala psicoacustica di altezze ideata da Eberhard Zwicker 28 , basata sulla suddivisione delle frequenze udibili in bande critiche) interessata, il transiente d’attacco, il valore generale d’ampiezza in dB e infine i dati di frequenza e ampiezza delle singole componenti sinusoidali. Gli argomenti dell’analyzer~ sono la dimensione delle finestre di buffer e della loro sovrapposizione, la dimensione della finestra di analisi FFT (Fast Fourier Transform), la tipologia di finestra (rettangolare, Figura 3.29 L'analyzer~ in funzione durante la Hanning o Hamming), il tempo di ritardo iniziale, il performance. numero di pitch da estrarre, quello dei picchi da rilevare e da inviare in uscita e il formato d’uscita del valore sulla scala Bark. La Loudness è misurata attraverso l’energia spettrale, è quindi un valore in dB, mentre la Brightness riporta un valore in Hz corrispondente all’altezza del centroide spettrale, cioè il punto medio dove si colloca la maggiore intensità nello spettro. La Noisiness invece è misurata sulla scala Bark, che in questo caso, data la frequenza di campionamento a 44100 Hz, suddivide lo spettro in venticinque bande. Questi tre dati sono campionati ogni 200 millisecondi attraverso l’oggetto speedlim~, quindi riscalati nei range richiesti dai tre parametri di spazializzazione ai quali sono Figura 10 Assegnazione dei valori estrapolati infine assegnati: azimuth, elevazione e distanza. dallo spettro alla spazializzazione. Oltre ai segnali diretti, sono soggette a questo sistema anche le uscite stereofoniche degli effetti harmonizer, pitch shifter, delay e granulatore. 28 E. Zwicker, The Journal of the Acoustical Society of America: Subdivision of the audible frequency range into critical bands, ed. 2, vol. 33, p. 248, 1961. 55 3.9. SPAZIALIZZAZIONE L’interfaccia di presentazione del modulo di spazializzazione si presenta semplice, munita di pochi controlli. Nel grafico a sinistra è possibile seguire i movimenti delle singole voci nello spazio di diffusione, mentre in quello di destra si può configurare il numero e la posizione dei diffusori, in conformità con lo spazio d’esecuzione. In alto a sinistra, è possibile eseguire un reset del sistema e modificare il tempo Figura 11 Strumenti di visualizzazione spazializzazione. e impostazione della d’interpolazione dei movimenti, in modo da renderli più o meno fluidi. All’interno di una sub-patch sono contenuti i receive~ che trasportano il segnale dalle entrate dirette e dalle uscite stereofoniche di harmonizer, pitch shifter, delay e granulatore. Queste entrano nell’oggetto ambipanning~, il quale, attraverso il sistema Ambisonics (sviluppato da Gerzon, Barton e Fellgett negli anni ’70 29 ), spazializza i suoni sulla base delle coordinate ricevute dal modulo di analisi spettrale. Il metodo Ambisonics, inzialmente chiamato anche perifonìa, nasce come tecnica di ripresa e diffusione multicanale, mirata a immergere l’ascoltatore in uno spazio sonoro. Figura 12 Matrice ambipanning~ per la diffusione ottofonica. 29 M. A. Gerzon, Periphony: With-Height Sound Reproduction, Mathematical Institute, University of Oxford, 1973. 56 Il segnale è codificato vettorialmente in un insieme di “armoniche sferiche”, quindi decodificato nel sistema di diffusione30. Il visualizzatore sulla sinistra dell’interfaccia grafica mostra la posizione dell’immagine sorgente, all’interno di un campo sferico visto dall’alto. L’assegnazione dei valori dello spettro alle coordinate spaziali è stata stabilita, a seguito di varie prove d’ascolto, in maniera arbitraria. Figura 13 Armoniche sferiche del campo acustico. Il fatto che i movimenti dipendano dallo spettro, rende la spazializzazione viva e imprevedibile. Inoltre l’assegnazione scelta si sposa perfettamente con i caratteri dei timbri, provocando dei movimenti decisi che evocano quelli catalogati da A. Vande Gorne. L’aggiornamento di questi valori avviene con un’interpolazione lineare, della quale si può controllare la velocità. I tre valori sono quindi racchiusi in una lista, denominata aed (azimuth, elevation, distance), tramite l’oggetto pak. La lista è infine diretta all’oggetto ambipanning~ per la decodifica e la diffusione nel sistema, in questo caso ottofonico. Figura 14 Routing dei dati relativi alle coordinate spaziali. 30 A. Uncini, Audio Digitale, McGraw-Hill Education, 2006. 57 3.10. CONTROLLI E ROUTING ANALOGICO DEL SEGNALE Pochi controlli hardware interagiscono con la patch via MIDI. Otto fader del controller sono mappati secondo quest’ordine: • 1l primo fader controlla il livello d’ingresso dei microfoni; • • Figura 15 Fader per il controllo dei livelli d'ingresso dei Il secondo controlla il livello d’ingresso microfoni e dei sintetizzatori (1, 2), delle mandate agli dei sintetizzatori; effetti (3, 7) e dell'uscita del fronte stereofonico (8). Dal terzo al settimo troviamo i controlli delle mandate agli effetti (in ordine harmonizer, pitch shifter, delay, granulatore e riverbero); • L’ultimo controlla l’uscita master diretta alla coppia stereofonica di diffusori frontali. Le otto uscite dell’oggetto ambipanning~ sono inviate alle uscite analogiche della scheda audio, quindi collegate a un mixer per la regia e la diffusione del suono. I canali sono suddivisi in coppie stereofoniche di diffusori, partendo dal fronte verso mediante il retro l’utilizzo dell’ascoltatore, di panning e assegnazione ai bus. La somma delle otto uscite è inviata, a un livello molto inferiore, al fronte stereofonico, mentre il riverbero è diffuso Figura 16 Mixer analogico per la regia del suono. in egual misura su ciascuna coppia di altoparlanti. 58 Figura 17 Uscita stereofonica ausiliare inviata al riverbero hardware e reinserita nel sistema di diffusione. Nonostante sia presente un modulo di riverbero nella patch, è possibile utilizzare un hardware esterno, qualora se ne abbia uno a disposizione. Durante le prove in Conservatorio abbiamo avuto la possibilità di sperimentare questa soluzione, con un riverbero Lexicon presente in aula. Un’uscita stereofonica ausiliare del mixer è cablata alle entrate stereofoniche del riverbero, quindi i due outputs del modulo rientrano nei canali 9 e 10 del mixer per poi essere assegnati a tutte le uscite, sempre a coppie stereofoniche. Con queste brevi nozioni sul routing analogico del segnale nel sistema di diffusione, termina il capitolo dedicato agli aspetti tecnici ed esecutivi della nostra performance. In appendice saranno elencati i valori assegnati a ciascun modulo del DSP e alla matrice durante l’esecuzione delle scene, in modo tale da rendere la patch ricostruibile dal lettore. 59 CONCLUSIONI Siamo giunti alla fine di questo percorso che, attraverso un’indagine storica preliminare, ha portato alla realizzazione di una performance improvvisativa basata sul live electronics. Il lavoro di ricerca e la fase di sperimentazione pratica, atta alla costruzione della performance, sono avvenuti parallelamente; le fonti storiche dalle quali abbiamo tratto ispirazione ci hanno guidato passo dopo passo nelle scelte estetiche e nella stesura formale. Gli intenti iniziali sono stati soddisfatti, le numerose sessioni di prova hanno portato un ottimo livello d’interazione tra le parti, rendendo il dialogo musicale vivace e interessante. Performances come questa accendono i riflettori sulla pratica esecutiva e le sue possibili soluzioni. Sono tanti, infatti, gli elementi che concorrono al risultato finale, partendo dalla scelta della strumentazione adoperata, passando per l’elaborazione in tempo reale e terminando con il sistema di diffusione e spazializzazione. Se consideriamo le potenzialità degli strumenti adoperati, e la loro modularità, ci rendiamo conto di avere a che fare con un vero e proprio “iper-strumento”, la cui esecuzione può prendere le più svariate pieghe (esecuzione aleatoria, interpretazione di partiture precise, improvvisazione, riproduzione “stand-alone”), anche mediante la variazione di materiali sonori di base, spazi d’esecuzione e sistemi di diffusione. Il percorso che ha portato alla realizzazione di questa tesi e della performance è stato lungo ma avvincente. Il lavoro di coppia con il collega Yuri è servito ad arricchire le mie conoscenze, apprendendo nuove nozioni dal punto di vista tecnico e storico, e al contempo le competenze di musicista, estendendo il mio linguaggio improvvisativo con forme di comunicazione per me totalmente nuove. Per quanto riguarda la mia semplice curiosità di musicista, infatti, questo lavoro è servito a intraprendere strade da me mai percorse prima, in particolar modo grazie alla “scoperta” di Franco Evangelisti. Tuttavia, giunti a conclusione di un lavoro del genere, spesso si avverte la tentazione di ripartire da zero, facendo tesoro dell’esperienza maturata. Questa tentazione è uno stimolo per proseguire su questo percorso intrapreso; È per me molto importante continuare a sperimentare l’ambiente esecutivo, cercando di raggiungere un alto grado di estemporaneità anche sul piano formale. In conclusione, mi sento di affermare che lo studio dell’improvvisazione è l’unica strada che un musicista può percorrere per raggiungere un alto grado di consapevolezza e padronanza del materiale musicale, arrivando alla formulazione di un linguaggio fortemente personale. 60 SVILUPPI FUTURI: AMBIENTI ESECUTIVI PER LA DIDATTICA MUSICALE La scelta di utilizzare gli strumenti a disposizione per realizzare una performance estemporanea, nasce sia da una personale curiosità in merito all’improvvisazione nelle sue molteplici forme che da un’esigenza didattica, essendomi trovato per la prima volta “dall’altra parte della cattedra” rispetto a dove siede lo studente. In passato, da allievo, ho talvolta incontrato delle difficoltà nel corso dei miei studi musicali, spesso dovute a metodi d’insegnamento anacronistici e poco accattivanti per un bambino di età inferiore ai 12/13 anni. Durante una lezione presso il Conservatorio, un mio docente, parlando dei metodi didattici, accese in me una riflessione importante riguardo al processo di apprendimento dei bambini. Egli sosteneva che l’allievo andrebbe stimolato sin dalle prime lezioni a inventare, comporre piccole melodie utilizzando le nozioni apprese a lezione, come avviene per l’insegnamento delle lingue. Questo metodo, che ho sperimentato con alcuni allievi, rende lo studio più “leggero”, portando a dei risultati importanti, poiché nel corso degli studi l’allievo sviluppa delle capacità compositive, quali una maggiore consapevolezza armonica, oltre a quelle meramente tecniche, necessarie esclusivamente ai fini dell’esecuzione. Il mio collega Luca Indelli da qualche anno sperimenta un suo metodo d’insegnamento delle scale basato sull’improvvisazione. L’allievo si esercita tecnicamente sulla diteggiatura della scala suonando le note in un ordine libero, mentre il maestro lo accompagna con alcuni accordi. Anche in questo caso l’allievo sviluppa una capacità importante, che spesso non è coltivata con alcuni metodi più tradizionali: l’ascolto. La tecnologia in questo può giocare un ruolo fondamentale, essendo una potente lama a doppio taglio. Il computer e tutti i moderni apparecchi tecnologici possono diventare materiale didattico, ho notato che alcuni miei allievi ad esempio, oltre ad utilizzare applicazioni quali l’accordatore o il metronomo, registrano il loro studio con il cellulare per poi riascoltarsi oppure seguono videolezioni online. Talvolta però, è facile incorrere in informazioni errate o prive di fonti accertate. Il maestro deve essere quindi il mediatore tra l’allievo e la tecnologia, guidando lo studente al corretto utilizzo degli “strumenti”. L’odierna accessibilità economica delle apparecchiature elettroacustiche favorisce un rinnovamento dei metodi didattici; è indispensabile, a mio avviso, che gli allievi di qualsiasi strumento si approccino all’utilizzo consapevole degli strumenti elettronici sin dai primi anni di studio. 61 In un corso di musica d’insieme, per bambini di età compresa tra gli otto e gli undici anni, ho iniziato da poco a sperimentare l’utilizzo di piccoli ambienti esecutivi in MAX, notando per ora un’accesa curiosità da parte degli allievi. RINGRAZIAMENTI Prima di terminare, è per me importante oltre che doveroso ringraziare il maestro Luca Richelli, per i preziosi consigli e la sua pazienza e disponibilità. Ringrazio i maestri Giovanni Cospito, Giorgio Klauer, Marco Marinoni, Sylviane Sapir e Andrea Vigani, per quanto mi hanno trasmesso in questi anni di Conservatorio e per la loro dedizione all’insegnamento. Ringrazio i miei genitori per ogni giorno del mio cammino, per i loro sacrifici e il loro Amore. Ringrazio nonna Lina, alla quale dedico questo lavoro, per avermi insegnato sin da bambino l’importanza di vivere la cultura con gioia e leggerezza. Vorrei inoltre ringraziare Yuri, per avermi accompagnato in questo percorso di tesi, offrendomi spesso nuovi interessanti spunti di riflessione. Infine ringrazio Elisabetta, per avermi sempre incoraggiato e sorretto. 62 4. APPENDICE: SCHEMI E IMPOSTAZIONI Di seguito sono riportate le liste dei parametri assegnati al DSP, divise per scene. 4.1. SCENA I Playersmixer: • Gain in Mic 1 : 90<x<120; • Gain in Mic2 : 0; • Gain in Mod : 80<x<100; • Gain in Key : 90<x<120; • Dry Outs : 120; • Harmonizer : 110; • Pitch Shifter : 0; • Delay : 100; • Granulator : 100; • Reverb : 100; Matrix: • mtx 0 0 1 20; • mtx 0 3 1 20; • mtx 2 3 1 20; • mtx 2 7 1 20; • mtx 3 4 1 20; • mtx 3 8 1 20; • mtx 4 2 1 20; • mtx 4 4 1 20; • mtx 5 2 1 20; • mtx 5 4 1 20; • mtx 8 4 1 20; 63 • mtx 8 13 1 20; • mtx 9 4 1 20; • mtx 9 14 1 20; • mtx 10 4 1 20; • mtx 10 15 1 20; • mtx 11 4 1 20; • mtx 11 16 1 20; • mtx 12 17 1 20; • mtx 13 18 1 20; • dello 1 20; Harmonizer: • harm1 pow on; • harm1 maxdel 8250; • harm1 fbk 46.875; • harm1 gain-in 127; • harm1 gain-out 127; • harm1 mix 100; • harm1 1 pow on; • harm1 1 win 50; • harm1 1 del 375; • harm1 1 transp 2062.5; • harm1 1 gain 107; • harm1 1 pan 10; • harm1 2 pow on; • harm1 2 win 50; • harm1 2 del 750; • harm1 2 transp 93.75; • harm1 2 gain 127; • harm1 2 pan 30; • harm1 3 pow on; • harm1 3 win 50; 64 • harm1 3 del 1125; • harm1 3 transp -2250; • harm1 3 gain 110; • harm1 3 pan 80; • harm1 4 pow on; • harm1 4 win 50; • harm1 4 del 1500; • harm1 4 transp 46.875; • harm1 4 gain 90; • harm1 4 pan 110; Delay: • del1 pow on; • del1 gain-in 127; • del1 gain-out 127; • del1 mix 100; • del1 maxdel 9000; • del1 fbk 93.75; • del1 random off; • del1 1 del 46.875; • del1 1 gain 127; • del1 1 pan 20; • del1 1 pow on; • del1 2 del 187.5; • del1 2 gain 127; • del1 2 pan 50; • del1 2 pow on; • del1 3 del 562.5; • del1 3 gain 127; • del1 3 pan 80; • del1 3 pow on; • del1 4 del 937.5; 65 • del1 4 gain 127; • del1 4 pan 100; • del1 4 pow on; Granulator: • Grain separation : 100; • Grain rate variation : 20; • Grain size • Grain size variation : 20; • Grain pitch • Grain pitch variation : 20; • Stereo spread : 1; : 2; : 1; 4.2. SCENA II Playersmixer: • Gain in Mic 1 : 90<x<120; • Gain in Mic2 : 0; • Gain in Mod : 0; • Gain in Key : 90<x<120; • Dry Outs : 100; • Harmonizer : 0; • Pitch Shifter : 110; • Delay : 110; • Granulator : 100; • Reverb : 90; Matrix: • mtx 0 3 1 20; • mtx 3 2 1 20; 66 • mtx 3 8 1 20; • mtx 6 4 1 20; • mtx 6 11 1 20; • mtx 7 4 1 20; • mtx 7 12 1 20; • mtx 8 4 1 20; • mtx 8 13 1 20; • mtx 9 4 1 20; • mtx 9 14 1 20; • mtx 10 1 1 20; • mtx 10 15 1 20; • mtx 11 1 1 20; • mtx 11 16 1 20; • mtx 12 17 1 20; • mtx 13 18 1 20; • dello 1 20; Pitch Shifter: • shifter1 pow on; • shifter1 gain-in 127; • shifter1 gain-out 127; • shifter1 mix 100; • shifter1 1 pow on; • shifter1 1 gain 90; • shifter1 1 pan 30; • shifter1 1 freq 1875; • shifter1 2 pow on; • shifter1 2 gain 187.5; • shifter1 2 pan 0; • shifter1 2 freq 100; • shifter1 3 pow on; • shifter1 3 gain 70; 67 • shifter1 3 pan 50; • shifter1 3 freq -5625; • shifter1 4 pow on; • shifter1 4 gain 40; • shifter1 4 pan 110; • shifter1 4 freq -93.75; Delay: • del1 pow on; • del1 gain-in 127; • del1 gain-out 127; • del1 mix 100; • del1 maxdel 7875; • del1 fbk 46.875; • del1 random on; • del1 1 del 46.875; • del1 1 gain 127; • del1 1 pan 20; • del1 1 pow on; • del1 2 del 187.5; • del1 2 gain 127; • del1 2 pan 50; • del1 2 pow on; • del1 3 del 562.5; • del1 3 gain 127; • del1 3 pan 80; • del1 3 pow on; • del1 4 del 937.5; • del1 4 gain 127; • del1 4 pan 100; • del1 4 pow on; 68 Granulator: • Grain separation : 400; • Grain rate variation : 300; • Grain size • Grain size variation : 500; • Grain pitch • Grain pitch variation : 1; • Stereo spread : 2000; : 2; : 1; 4.3. SCENA III Playersmixer: • Gain in Mic 1 : 90<x<120; • Gain in Mic2 : 0; • Gain in Mod : 90<x<120; • Gain in Key : 0; • Dry Outs : 80; • Harmonizer : 100; • Pitch Shifter : 90; • Delay : 100; • Granulator : 90; • Reverb : 50; Matrix: • mtx 0 0 1 20; • mtx 0 2 1 20; • mtx 0 5 1 20; • mtx 2 4 1 20; • mtx 4 1 1 20; • mtx 4 4 1 20; 69 • mtx 4 9 1 20; • mtx 5 1 1 20; • mtx 5 4 1 20; • mtx 5 10 1 20; • mtx 6 11 1 20; • mtx 7 12 1 20; • mtx 8 0 1 20; • mtx 8 3 1 20; • mtx 8 13 1 20; • mtx 9 0 1 20; • mtx 9 3 1 20; • mtx 9 14 1 20; • mtx 10 4 1 20; • mtx 10 15 1 20; • mtx 11 4 1 20; • mtx 11 16 1 20; • mtx 12 17 1 20; • mtx 13 18 1 20; • dello 1 20; Harmonizer: • harm1 pow on; • harm1 maxdel 10000; • harm1 fbk 80; • harm1 gain-in 127; • harm1 gain-out 127; • harm1 mix 100; • harm1 1 pow on; • harm1 1 win 50; • harm1 1 del 30; • harm1 1 transp -2062.5; • harm1 1 gain 100; 70 • harm1 1 pan 10; • harm1 2 pow on; • harm1 2 win 50; • harm1 2 del 20; • harm1 2 transp -375; • harm1 2 gain 110; • harm1 2 pan 30; • harm1 3 pow on; • harm1 3 win 50; • harm1 3 del 50; • harm1 3 transp -2250; • harm1 3 gain 40; • harm1 3 pan 80; • harm1 4 pow on; • harm1 4 win 50; • harm1 4 del 80; • harm1 4 transp -187.5; • harm1 4 gain 60; • harm1 4 pan 110; Pitch Shifter: • shifter1 pow on; • shifter1 gain-in 127; • shifter1 gain-out 127; • shifter1 mix 50; • shifter1 1 pow on; • shifter1 1 gain 90; • shifter1 1 pan 30; • shifter1 1 freq 2062.5; • shifter1 2 pow on; • shifter1 2 gain 100; • shifter1 2 pan 0; 71 • shifter1 2 freq 187.5; • shifter1 3 pow on; • shifter1 3 gain 70; • shifter1 3 pan 50; • shifter1 3 freq 2250; • shifter1 4 pow on; • shifter1 4 gain 40; • shifter1 4 pan 110; • shifter1 4 freq 375; Delay: • del1 pow on; • del1 gain-in 127; • del1 gain-out 127; • del1 mix 100; • del1 maxdel 9000; • del1 fbk 93.75; • del1 random on; • del1 1 del 46.875; • del1 1 gain 127; • del1 1 pan 20; • del1 1 pow on; • del1 2 del 187.5; • del1 2 gain 127; • del1 2 pan 50; • del1 2 pow on; • del1 3 del 62.5; • del1 3 gain 127; • del1 3 pan 80; • del1 3 pow on; • del1 4 del 93.75; • del1 4 gain 127; 72 • del1 4 pan 100; • del1 4 pow on; Granulator: • Grain separation : 500; • Grain rate variation : 157; • Grain size • Grain size variation : 74; • Grain pitch • Grain pitch variation : 36; • Stereo spread : 500; : 19; : 1; 4.4. SCENA IV Playersmixer: • Gain in Mic 1 : 0; • Gain in Mic2 : 90<x<120; • Gain in Mod : 0; • Gain in Key : 90<x<120; • Dry Outs : 100; • Harmonizer : 0; • Pitch Shifter : 110; • Delay : 100; • Granulator : 100; • Reverb : 90; Matrix: • mtx 1 3 1 20; • mtx 3 1 1 20; • mtx 3 4 1 20; 73 • mtx 3 8 1 20; • mtx 6 4 1 20; • mtx 7 4 1 20; • mtx 8 4 1 20; • mtx 8 13 1 20; • mtx 9 4 1 20; • mtx 9 14 1 20; • mtx 10 2 1 20; • mtx 10 15 1 20; • mtx 11 2 1 20; • mtx 11 16 1 20; • mtx 12 17 1 20; • mtx 13 18 1 20; • dello 1 20; Pitch Shifter: • shifter1 pow on; • shifter1 gain-in 127; • shifter1 gain-out 127; • shifter1 mix 50; • shifter1 1 pow on; • shifter1 1 gain 127; • shifter1 1 pan 100; • shifter1 1 freq -18.75; • shifter1 2 pow on; • shifter1 2 gain 127; • shifter1 2 pan 100; • shifter1 2 freq -4.6875; • shifter1 3 pow on; • shifter1 3 gain 127; • shifter1 3 pan 80; • shifter1 3 freq 9.375; 74 • shifter1 4 pow on; • shifter1 4 gain 127; • shifter1 4 pan 100; • shifter1 4 freq 5.625; Delay: • del1 pow on; • del1 gain-in 127; • del1 gain-out 127; • del1 mix 100; • del1 maxdel 7875; • del1 fbk 62.5; • del1 random on; • del1 1 del 46.875; • del1 1 gain 127; • del1 1 pan 20; • del1 1 pow on; • del1 2 del 187.5; • del1 2 gain 127; • del1 2 pan 50; • del1 2 pow on; • del1 3 del 56.25; • del1 3 gain 127; • del1 3 pan 80; • del1 3 pow on; • del1 4 del 93.75; • del1 4 gain 127; • del1 4 pan 100; • del1 4 pow on; 75 Granulator: • Grain separation : 400; • Grain rate variation : 300; • Grain size • Grain size variation : 500; • Grain pitch • Grain pitch variation : 1; • Stereo spread : 5000; : 1; : 1; 4.5. SCENA V Playersmixer: • Gain in Mic 1 : 90<x<120; • Gain in Mic2 : 0; • Gain in Mod : 0; • Gain in Key : 90<x<120; • Dry Outs : 100; • Harmonizer : 0; • Pitch Shifter : 110; • Delay : 110; • Granulator : 100; • Reverb : 90; Matrix: • mtx 0 3 1 20; • mtx 3 2 1 20; • mtx 3 8 1 20; • mtx 6 4 1 20; • mtx 6 11 1 20; • mtx 7 4 1 20; 76 • mtx 7 12 1 20; • mtx 8 4 1 20; • mtx 8 13 1 20; • mtx 9 4 1 20; • mtx 9 14 1 20; • mtx 10 1 1 20; • mtx 10 15 1 20; • mtx 11 1 1 20; • mtx 11 16 1 20; • mtx 12 17 1 20; • mtx 13 18 1 20; • dello 1 20; Pitch Shifter: • shifter1 pow on; • shifter1 gain-in 127; • shifter1 gain-out 127; • shifter1 mix 100; • shifter1 1 pow on; • shifter1 1 gain 90; • shifter1 1 pan 30; • shifter1 1 freq 1875; • shifter1 2 pow on; • shifter1 2 gain 187.5; • shifter1 2 pan 0; • shifter1 2 freq 100; • shifter1 3 pow on; • shifter1 3 gain 70; • shifter1 3 pan 50; • shifter1 3 freq -5625; • shifter1 4 pow on; • shifter1 4 gain 40; 77 • shifter1 4 pan 110; • shifter1 4 freq -93.75; Delay: • del1 pow on; • del1 gain-in 127; • del1 gain-out 127; • del1 mix 100; • del1 maxdel 7875; • del1 fbk 46.875; • del1 random on; • del1 1 del 46.875; • del1 1 gain 127; • del1 1 pan 20; • del1 1 pow on; • del1 2 del 187.5; • del1 2 gain 127; • del1 2 pan 50; • del1 2 pow on; • del1 3 del 562.5; • del1 3 gain 127; • del1 3 pan 80; • del1 3 pow on; • del1 4 del 937.5; • del1 4 gain 127; • del1 4 pan 100; • del1 4 pow on; Granulator: • Grain separation : 400; • Grain rate variation : 300; 78 • Grain size : 2000; • Grain size variation : 500; • Grain pitch • Grain pitch variation : 1; • Stereo spread : 2; : 1; 4.6. DISPOSIZONE DEI DIFFUSORI Coppie stereofoniche di diffusori, in ordine dal fronte: S1+S2, S3+S4, S5+S6, S7+S8. 79 LISTA TRACCE CD 1. SCENA I (02:16) versione stereo; 2. SCENA II (02:00) versione stereo; 3. SCENA III (02:08) versione stereo; 4. SCENA IV (02:00) versione stereo; 5. SCENA V (02:10) versione stereo; 6. Armonica dry/wet; 7. Didgeridoo + moduli dry/wet; 8. Glockenspiel dry/wet; 9. Bell Pad dry/wet; 10. Percussioni dry/wet; 11. Moduli dry/wet; 12. Ukulele dry/wet; 13. Violoncello dry/wet; 14. Voce dry/wet; 15. Sintetizzatore LFO dry/wet. 80 BIBLIOGRAFIA • AMM, AMMMusic 1966: Le recensioni di Ondarock, 2010; • F. Bayle, Musique acousmatique : propositions... positions, Buchet/Chastel, Parigi, 1993; • Pierre Boulez, Note di Apprendistato, Einaudi, 1968; • F. Evangelisti, Dalla forma momentanea ai gruppi di improvvisazione, in programmadépliant dei concerti della Biennale Musica, Venezia 1969; anche in Di Franco Evangelisti cit., p. 122; • F. Evangelisti, Presentazione del Gruppo Internazionale di Improvvisazione Nuova Consonanza, in programma-dépliant del III Festival di Nuova Consonanza, Roma 1965; • D. Gareth Loy, C. Roads, ed. The Music Machine: Selected Readings from Computer Music Journal. MIT Press, 1992; • M. A. Gerzon, Periphony: With-Height Sound Reproduction, Mathematical Institute, University of Oxford, 1973; • P. Grossi, Intervista televisiva per il 41° Maggio Musicale Fiorentino, Firenze, 1978; • E. Hornbostel, C. Sachs, Zeitschrift für Ethnologie, 1914 e Galpin Society Journal, 1961; • D. Kavasch, An Introduction to Extended Vocal Techniques: Some Compositional Aspects and Performance Problems, contenuto in Reports from the Center, vol. 1, n. 2, Center for Music Experiment, Università della California, San Diego, 1980; • P. Klee, Pädagogisches Skizzenbuch, Neue Bauhausbücher, 1925; • A. Lanza, Il secondo Novecento, vol. 12, EDT, 1991; 81 • P. Manning, Computer and Electronic Music, Oxford University Press, 1993; • V. Mattioli, Roma 60. Viaggio alle radici dell'underground italiano. Parte seconda, Blow Up, Ed. Tuttle, 2014; • V. Mattioli, Superonda: la storia segreta della musica italiana, Baldini&Castoldi, 2016; • W. Meyer Eppler, Statistische und psychologische Klang Probleme, “Die Reihe”, 1955; • A. Schoenberg, Komposition mit 12 Tönen, 1923; • D. Smith, C. Wood, The complete SCI MIDI, 1981; • K. Stockhausen, “The British Lectures”, Institute of Contemporary Arts, Londra, 1972; • K. Stockhausen, "The Concept of Unity in Electronic Music (Die Einheit der musikalischen Zeit)", Perspectives of New Music 1, n°1 (Autunno), 1962; • K. Stockhausen, Musik im Raum (Musica nello Spazio), 1958, tad. It. di D. Guaccero, in La Rassegna Musicale, 32(4), 1961; • D. Tortora, Nuova Consonanza, Trent’anni di musica contemporanea in Italia (1959-1988), LIM, 1990; • A. Uncini, Audio Digitale, McGraw-Hill Education, 2006; • A. Vande Gorne, L’interprétation spatiale. Essai de formalisation méthodologique, rivista DEMéter, Università di Lille, 2002; • A. Vidolin, Suonare lo Spazio Elettroacustico, CSC – Centro di Sonologia Computazionale dell’Università di Padova, 2001; • A. Webern, Verso la nuova musica. Lettera a Hildegard Jone e Josef Humplik. Milano, Bompiani, 1963; 82 • R. Worby, Crackle goes pop: how Stockhausen seduced the Beatles, The Guardian, 26 Dic 2015; • E. Zwicker, The Journal of the Acoustical Society of America: Subdivision of the audible frequency range into critical bands, ed. 2, vol. 33, p. 248, 1961; SITOGRAFIA • https://en.wikipedia.org/wiki/Feature_extraction 83