Corso di Diploma Accademico di secondo livello in discipline

Corso di Diploma Accademico
di secondo livello in discipline musicali
Musica Elettronica e Tecnologie del suono
Indeterminismo e processi improvvisativi
nell’ambito della musica elettroacustica
A.A. 2015/16
Relatore
M° Luca Richelli
Tesi finale di:
Alessandro Arban
Matr. 3384
Anno Accademico 2015-2016
ABSTRACT
4
1. L’IMPROVVISAZIONE NELLA MUSICA ELETTROACUSTICA
6
1.1. PREMESSE
6
1.2. GLI ANNI ’60 E ‘70
8
1.3. GLI ANNI ‘80
17
1.4. DAGLI ANNI ’90 AD OGGI
21
2. REALIZZAZIONE DELLA PERFORMANCE
25
2.1. LIVE ELECTRONICS ED IMPROVVISAZIONE
25
2.2. ESTETICA DELLA PERFORMANCE: ISPIRAZIONI E STESURA FORMALE
27
2.3. ESECUZIONE E STRUMENTAZIONE ADOPERATA
30
2.4. LE SCENE
32
2.5. DIFFUSIONE MULTICANALE
36
3. AMBIENTE ESECUTIVO IN MAX
40
3.1. MAIN
42
3.2. INTERFACCIA ESECUTIVA
43
3.3. HARMONIZER
46
3.4. PITCH SHIFTER
49
3.5. DELAY
51
3.6. GRANULATORE
52
3.7. RIVERBERO
53
3.8. ANALISI SPETTRALE
54
3.9. SPAZIALIZZAZIONE
56
3.10. CONTROLLI E ROUTING ANALOGICO DEL SEGNALE
58
CONCLUSIONI
60
SVILUPPI FUTURI: AMBIENTI ESECUTIVI PER LA DIDATTICA MUSICALE
61
RINGRAZIAMENTI
62
4. APPENDICE: SCHEMI E IMPOSTAZIONI
63
4.1. SCENA I
63
4.2. SCENA II
66
4.3. SCENA III
69
4.4. SCENA IV
73
4.5. SCENA V
76
2
4.6. DISPOSIZONE DEI DIFFUSORI
79
LISTA TRACCE CD
80
BIBLIOGRAFIA
81
SITOGRAFIA
83
3
ABSTRACT
In questo lavoro di tesi sarà illustrato il percorso attraverso il quale, partendo da un’indagine storica,
sono giunto alla realizzazione di una live performance improvvisativa assieme al collega Yuri
Dimitrov.
La ricerca storica preliminare non ha la pretesa di essere esaustiva, riguardo tutto quanto è stato
sperimentato nell’ambito dell’improvvisazione musicale elettroacustica, bensì nasce con lo scopo di
trasmettere al lettore quelle che sono state le principali fonti d’ispirazione durante la stesura della
performance, tra le quali spiccano sicuramente l’opera di Franco Evangelisti e del suo “Gruppo di
Improvvisazione Nuova Consonanza” e gli studi sulla forma per momenti e sulla spazializzazione
compiuti da Karlheinz Stockhausen durante gli anni ’60 e ‘70.
Nella pratica esecutiva, infatti, il nostro lavoro tenta di riprendere il percorso tracciato dal gruppo di
Evangelisti, cercando di ampliarne le possibilità espressive attraverso gli strumenti di sintesi e il live
electronics.
Dal punto di vista della stesura formale, invece, è servito molto approfondire le strategie adoperate
da Stockhausen in molte sue opere composte nel periodo citato, caratterizzate dalla presenza di un
elemento d’indeterminazione che rende unica ogni esecuzione.
La seconda parte della tesi descriverà le scelte estetiche compiute e la costruzione formale della
performance, mentre l’ultimo capitolo servirà al lettore per ricostruirne l’ambiente esecutivo,
qualora volesse rieseguirla (oppure utilizzarlo per altri scopi).
La performance consiste di cinque momenti, caratterizzati dall’interazione tra diversi strumenti
acustici ed elettronici. Attraverso l’elaborazione in tempo reale dei suoni provenienti dagli
strumenti, si genera un dialogo fra timbri genealogicamente distanti, a livello morfologico,
semantico e spaziale. I timbri prodotti dagli strumenti acustici processati emulano quelli sintetici,
mentre il suono dei sintetizzatori è scolpito su imitazione dei suoni acustici. A livello semantico
interviene la pratica manuale degli interpreti, che con la propria gestualità pongono l’attenzione sul
dialogo tra essi e gli strumenti. La diffusione dei suoni, controllata dai dati estrapolati da un’analisi
spettrale in tempo reale, è in viva comunicazione con i musicisti; riflettendo nello spazio i loro
gesti, ne enfatizza il movimento.
4
In alcune conferenze tenute a Brema e Amburgo nel 1959, epoca in cui si scatenò la famosa
polemica sulla validità dell’opera aperta, parlai dei limiti che questa portava in sé e della
possibilità dei suoi ultimi sviluppi. Dovendo l’interprete completare nell’esecuzione gli schemi
che il compositore forniva, io dissi, sarebbe stato necessario l’avvento di un nuovo tipo di
esecutore che fosse anche compositore, in modo che potesse legare certi elementi musicali che,
in esecuzioni date da interpreti di tipo tradizionale, vengono resi schiavi da una prassi che tale
tipo di esecutore porta con sé. Auspicavo così una situazione più favorevole, ricordando il caso
della musica indiana: da più di duemila anni in India gli esecutori sono anche compositori,
essendo quella musica legata a forme momentanee. È da notare, altresì, che le opere cosiddette
“aperte” hanno limiti strumentali stabiliti dal compositore, risultandone l’opera aperta
soltanto ad alcuni strumenti o a più strumenti; dissi così che il limite di questa forma sarebbe
stata una specie di “summa” di elementi con i quali l’interprete o gli interpreti-concreatori
potessero agire all’istante senza una precisa determinazione strumentale, in modo che ne
risultasse un’opera spersonalizzata in senso tradizionale, quindi opera risultante dal concorso
di numero x di interpreti-compositori possibili.
Franco Evangelisti, Presentazione del Gruppo Internazionale di Improvvisazione Nuova Consonanza, in programmadépliant del III Festival di Nuova Consonanza, Roma 1965.
5
1. L’IMPROVVISAZIONE NELLA MUSICA ELETTROACUSTICA
1.1. PREMESSE
Nel 1955, il fisico e ingegnere del suono Werner Meyer Eppler fornisce una prima definizione del
termine alea, quale “procedimento il cui decorso generale è determinato, mentre le singole
componenti dipendono dal caso”1. Sebbene alcuni elementi d’indeterminazione si trovino già in
partiture di Cage e Feldman, antecedenti a tale data, soltanto a partire dagli anni ’56-’57 se ne rileva
l’assunzione da parte delle avanguardie darmstadtiane2.
La dodecafonia di Schoenberg, esposta per la prima volta dal compositore nel 19233, è il primo
forte segno di rottura con il passato, le successive generazioni di compositori cercheranno di
elaborare nuovi linguaggi personali, aventi come minimo comune denominatore l’abbandono
(parziale o totale) del sistema tonale, in favore di nuovi sistemi, costituiti alla base da una serie
numerica precedentemente determinata.
Nel 1952, a soli 29 anni dalla nascita del sistema dodecafonico, in un articolo pubblicato sulla
rivista “The Score”, Pierre Boulez dichiara4 con una certa dose di dogmatismo ingenuo (nel ’52
Boulez aveva appena 27 anni) che “Dalla penna di Schoenberg abbondano i clichés di scrittura
temibilmente stereotipi del romanticismo più ostentato e desueto[…]”.
Boulez conclude il suo articolo con un enunciato in lettere maiuscole: SCHOENBERG È MORTO.
Con lui nasce (grazie anche al contributo del suo maestro Olivier Messiaen) l’era del serialismo
integrale, tecnica compositiva che preordina uno o più parametri musicali in successioni stabilite,
chiamate serie.
Questo nuovo modo di comporre, è per Boulez l’unica via per liberare le possibilità di uno sviluppo
funzionale dell’opera che “genera ogni volta una sua gerarchia”. Come ogni moto d’innovazione, è
riduttivo stabilire con precisione un vero e proprio “iniziatore”, piuttosto è importante soffermarsi
sul percorso generale dell’arte per comprendere a fondo i sentimenti che hanno ispirato tali idee.
Sicuramente Boulez ha fatto tesoro di quanto auspicava in precedenza Webern, parlando di una
1 W. Meyer Eppler, Statistische und psychologische Klang Probleme, “Die Reihe”, pp.22-8, 1955.
2 D. Tortora, Nuova Consonanza, Trent’anni di musica contemporanea in Italia (1959-1988), LIM 1990, p. 125.
3 A.Schoenberg, Komposition mit 12 Tönen 1923.
4 P. Boulez, Note di Apprendistato, Einaudi, 1968.
4 P. Boulez, Note di Apprendistato, Einaudi, 1968.
6
musica nella quale “[…]si ha la sensazione di non essere più di fronte ad un’opera dell’uomo,
bensì della natura”5.
Parallelamente, in campo pittorico, Paul Klee afferma che “L’opera d’arte è principalmente
genesi”6, concependo essa come metafora della creazione e l’opera come “formazione della forma”.
A distanza di un decennio dal provocatorio articolo di Boulez del ’52, la crescente presenza delle
nuove tecnologie nella produzione musicale, e soprattutto nell’esecuzione live, provoca una nuova
crisi nelle accademie, la quale è il punto di partenza di questo lavoro di ricerca che si concentrerà
sulla pratica improvvisativa nell’ambito della musica elettroacustica, concludendosi con la
realizzazione di una live performance.
Gruppo di Improvvisazione Nuova Consonanza.
5 A. Webern, Verso la nuova musica. Lettera a Hildegard Jone e Josef Humplik. Milano, Bompiani, 1963.
6 P. Klee, Pädagogisches Skizzenbuch, Neue Bauhausbücher, 1925.
7
1.2. GLI ANNI ’60 E ‘70
Negli anni ’50, l’Europa ha assistito alla nascita e lo sviluppo dei primi centri di produzione
musicale elettroacustica, a Parigi (GRM), Colonia (WDR) e Milano (RAI), grazie anche al supporto
economico delle emittenti radiofoniche nazionali.
Grazie ad una maggior accessibilità economica delle nuove tecnologie, durante gli anni ’60
fioriscono nuovi centri e un maggior numero di produzioni indipendenti.
Per fornire un quadro globale di quanto accaduto in questo decennio e in quello successivo, occorre
procedere per gradi, soffermandoci sugli avvenimenti dei singoli paesi maggiormente coinvolti
nella ricerca e produzione musicale.
A circa un decennio di distanza dalla
nascita della musique concrète di Pierre
Schaeffer, la domanda che si pongono le
nuove generazioni di compositori francesi è
se sia possibile reintegrare il materiale
esterno a quello costituente la grammatica
dei suoni di Schaeffer, senza tradirne le
regole.
Boulez
concreta
critica
aspramente
definendola
la
musica
dilettantistica,
Figura 1.1 Pierre Schaeffer presso il GRM di Parigi.
riscontrando un limite nella catalogazione
dei suoni di Schaeffer.
Nel frattempo le nuove tecnologie compiono un passo avanti, permettendo ora la manipolazione in
tempo reale. Ciò provoca delle fratture nel clima formalista che si è respirato nei precedenti anni:
l’obiettivo per molti ora è il contenuto, a discapito della forma che diventa mera conseguenza della
manipolazione del materiale sonoro.
Luc Ferrari, dapprima fedele seguace di Schaeffer, getta scompiglio nel GRM (Groupe de
Recherches Musicales), producendo brani che contengono i cosiddetti “campioni”, cioè suoni
continui e imprevedibili, non tollerati dalla grammatica schaefferiana.
Dopo uno scontro iniziale, Ferrari decide di lasciare il GRM per aprire un suo studio.
Con “Presque rien IA”, Ferrari conia il termine provocatorio di “musica aneddotica”. Il brano è
composto di registrazioni effettuate nel ’67 su un’isola della Dalmazia.
8
La referenzialità dei suoni è in questo caso un valore aggiunto, poiché gli eventi sonori non sono
realmente imprevedibili, in quanto selezionati in precedenza da lui, nei momenti in cui la natura
“eseguiva” passaggi musicali.
Anche
Bernard
Parmegiani,
che si trova al GRM nel
servizio di ricerca, per un
periodo
adotta
atteggiamento
durante
la
un
informale
composizione,
lasciando che siano i processi
di manipolazione a decidere la
forma finale dell’opera, che lui
non prefigura durante il lavoro.
Nella produzione di quegli
anni, è importante ricordare lo
stretto rapporto di Parmegiani
Figura 1.2 Bernard Parmegiani al GRM.
con
la
principale
produzione
causa
del
video,
trend
surreale dei suoi brani, spesso nati come sonorizzazioni d’immagini ma fruibili anche
separatamente.
Inoltre va menzionato la passione di Parmegiani per la musica jazz e in generale per
l’improvvisazione libera, in effetti nella produzione di quegli anni è ricorrente da parte sua l’utilizzo
di materiali provenienti da repertori “pop”.
Ne sono un chiaro esempio brani come “Ponomatopeès” del ’64, “Pop Eclectic” del ’68 o “Du pop
à l’âne” del ’69, dove Parmegiani lavora con la tecnica del collage, montando tra loro passaggi
provenienti da diversi repertori (rock, jazz, classica, elettroacustica).
Negli anni ’70 Parmegiani sceglie un ritorno alla forma, avvertendola probabilmente come
un’eredità di cui deve farsi carico. La forma per lui diventa un’idea, la proiezione mentale del
risultato finale dei processi. Con questo spirito compone l’opera del ’75 “De Natura Sonorum”,
nella quale si serve del suono di diapason come metafora della scintilla primordiale generatrice di
tutti i suoni. È importante segnalare che i suoni di sintesi presenti nell’opera sono generati
dall’utilizzo di sintetizzatori a tastiera, quindi veri e propri strumenti musicali, a differenza dei più
“austeri” oscillatori a manopola presenti negli studi di Colonia e di Milano.
9
La
Germania,
nel
frattempo,
è
diventata la vera e propria patria
dell’integralismo
soprattutto
seriale,
all’enorme
dell’Internationale
grazie
influenza
Ferienkurse
für
Neue Musik di Darmstadt, i corsi estivi
di composizione attraverso i quali sono
passati numerosi compositori affermati
del secondo novecento. L’avvento
della sperimentazione elettronica in
tempo reale impone una revisione della
pratica compositiva.
Il passaggio dall’universo strumentale
a
quello
elettronico
ripropone
Figura 1.3 Karlheinz Stockhausen durante una lezione a Darmstadt.
il
problema della forma, risolto in maniera empirica, con la pratica manuale.
Stockhausen realizza “Kontakte” presso gli studi della WDR di Colonia, tra il ’58 e il ’60.
In un’intervista egli dichiara che “In the preparatory work for my composition Kontakte, I found,
for the first time, ways to bring all properties [i.e., timbre, pitch, intensity and duration] under a
single control”7.
Il titolo dell’opera si riferisce al contatto tra i suoni strumentali e quelli elettronici, ma anche ai
contatti tra i vari segmenti del brano, che il compositore chiama “momenti” (strutture con regole di
costruzione interne, indipendenti tra loro), e infine ai contatti tra i vari movimenti di
spazializzazione del suono.
Il dualismo fra “manualità” e serialità provoca una crisi in Stockhausen, che egli risolve
documentando tutti i passaggi manuali svolti in studio.
L’idea della forma per momenti si solidifica sempre di più nella mente del compositore8, che
sperimenta nelle produzioni successive nuove forme di notazione, schematiche o di cornice, che
lasciano margini di libertà all’esecutore, rendendo la percezione del tempo fluttuante.
Un brano significativo di questo periodo è sicuramente “Solo” del ’66, per strumento monodico ed
elettronica. In questo brano l’esecutore ha facoltà di scegliere l’ordine d’esecuzione delle sei
sequenze costituenti l’opera.
7 K. Stockhausen, The Concept of Unity in Electronic Music (Die Einheit der musikalischen Zeit), Perspectives of New
Music 1, n°1 (Autunno): pp.39–48, 1962.
8 K. Stockhausen, The British Lectures, Institute of Contemporary Arts, Londra, 1972.
10
Anche in Italia la scena elettroacustica vive un periodo fiorente, diversi talentuosi compositori
frequentano i corsi di Darmstadt e s’interfacciano con i colleghi europei, riportando le loro
esperienze all’interno delle loro composizioni e promuovendo la nascita di varie attività
concertistiche, che hanno lo scopo di divulgare la nuova musica al popolo italiano.
Sebbene negli anni ‘60 lo studio di Fonologia della RAI di Milano sia uno dei più all’avanguardia
in quanto a strumentazione elettroacustica (ne sono chiare testimonianze le numerose produzioni di
Luciano Berio, Bruno Maderna, Luigi Nono…), la musica contemporanea in Italia vanta un’altra
scena di prestigio, costituita da giovani compositori del Meridione, come il pugliese Domenico
Guaccero, il siciliano Aldo Clementi e il romano Franco Evangelisti. Sebbene alcuni di questi
compositori producano un piccolo numero di brani elettroacustici, è evidente l’influenza delle
sonorità elettroniche nella loro ricerca timbrica, seppur attraverso l’utilizzo di strumenti tradizionali.
Nell’ambito della produzione elettronica di Aldo Clementi, il brano Collage III del ’67, ottenuto
mediante la manipolazione di brani dei Beatles 9 , rappresenta un esempio dell’atteggiamento
informale assunto in questo periodo dal compositore catanese, in parte dovuto alla sua vicinanza ad
artisti nel campo delle arti visive, come Achille Perilli o il gruppo Forma1.
Il volto più rilevante che questa scena musicale
può vantare è tuttavia Franco Evangelisti.
Studente di composizione a Roma, sotto la guida di
Daniele Paris, frequenta i corsi estivi di Darmstadt,
dove entra in contatto con il fisico Werner MeyerEppler, affascinato dal concetto di alea nella
musica e dall’universo dell’elettronica.
“La
cosiddetta
forma
momentanea,
o
aleatoria, o mobile, o aperta, è quel
particolare tipo di forma musicale, che si è
sviluppata in questi ultimi anni, e che si
Figura 1.4 Franco Evangelisti prepara il pianoforte per
oppone con la sua speciale maniera di essere
un'esibizione del GINC.
del tutto, o in parte, “indeterminata”, allo
sviluppo della musica seriale, totalmente
determinata […]”10.
9 A. Lanza, Il secondo Novecento, vol. 12, p.135, 1991.
10 F. Evangelisti, Dalla forma momentanea ai gruppi di improvvisazione, in programma-dépliant dei concerti della
Biennale Musica, Venezia 1969; anche in Di Franco Evangelisti cit., p. 122.
11
Evangelisti mostra ben presto
una
certa
insofferenza
nei
riguardi del serialismo integrale,
trova nella premeditazione un
limite da superare, attraverso la
sperimentazione,
l’improvvisazione.
Nel
’60
colleghi
fonda,
Aldo
insieme
ai
Clementi
e
Francesco
Pennisi,
l’Associazione
Nuova
Consonanza, con l’intento di
diffondere
la
musica
contemporanea a Roma e in Italia
e, a quattro anni di distanza,
forma
il
Gruppo
Improvvisazione
di
Nuova
Consonanza (GINC).
La formazione del GINC è
Figura 1.5 "the feed-back" del 1970, album in cui il GINC sonda i terreni della
cultura Pop psichedelica di quegli anni.
composta esclusivamente da compositori-interpreti, accomunati dall’intento di sperimentare
attraverso l’improvvisazione libera nuove sonorità. Di questo gruppo fa parte per un buon periodo il
compositore Ennio Morricone, che in un’intervista11 ricorda che “La musica che facevamo era
improvvisata a partire da esercizi mirati: facevamo mesi e mesi di improvvisazione su parametri
molto precisi, ci registravamo, la sera ci riascoltavamo e ci criticavamo. Era una cosa molto
attenta”.
Il GINC si esibisce per la prima volta a Roma nel 1965 durante il III Festival di Nuova Consonanza,
con un assetto che vede Franco Evangelisti, gli americani Larry Austin, John Heineman e John
Eaton ed il tedesco Roland Kayn agli strumenti elettronici. Nelle note di programma12, Evangelisti
dichiara che “[…] Il compositore Larry Austin mi portava a conoscenza di un gruppo di esecutoricompositori che operavano in questo senso da me auspicato fin dal 1963: il “New Music
Ensemble”. Questo gruppo, che opera in California, si può considerare il primo esistente nel
11 V. Mattioli, Roma 60. Viaggio alle radici dell'underground italiano. Parte seconda, Blow Up, Tuttle Edizioni, 2014.
12 F. Evangelisti, Presentazione del Gruppo Internazionale di Improvvisazione Nuova Consonanza, in programmadépliant del III Festival di Nuova Consonanza, Roma 1965.
12
sistema occidentale che lavori su schemi veramente attuali. Per la formazione di questo gruppo
“Nuova Consonanza”, il primo del genere in Europa, la presenza di Austin è stata determinante,
così altrettanto valida la cooperazione di tutti i colleghi che ne fanno parte”.
Le successive performances del GINC sono sempre più caratterizzate dall’utilizzo di strumenti
tradizionali, fatta eccezione per una breve parentesi “pop” del gruppo, che nel ’70 cambia nome in
“The Feedback”, pubblicando un omonimo album dalle sonorità rock e psichedeliche, ottenute
grazie all’utilizzo della chitarra elettrica e ricorrendo a ritmi definiti e ossessivi.
Il GINC è stato ispiratore per altre formazioni nate in Italia in quegli anni, tra le quali spiccano i
MEV (Musica Elettronica Viva), gruppo che fonde sonorità acustiche ed elettroniche, modulando
suoni reali attraverso l’utilizzo del sintetizzatore Moog. Nel ’67 i MEV prendono parte a un
concerto, accanto a John Cage, nel quale eseguono la composizione del musicista americano “Solo
for Voice 2”, modulando la voce di Carol Plantamura con il Moog.
Parallelamente,
la
musica
estemporanea
inglese negli anni ’60 e ’70, vede nel
chitarrista Keith Rowe un’enorme fonte
d’ispirazione. Rowe inizia la sua carriera in
alcune formazioni di musica jazz, ma presto
si allontana dalla forma per ricercare un suo
linguaggio
personale,
influenzato
dalla
passione per le arti visive e dall’estetica di
Jackson Pollock.
Nel ’65 fonda gli AMM, una formazione in
Figura 1.6 Keith Rowe e la sua chitarra elettrica in laboratorio.
cui gli elementi, provenienti dalla scena jazz,
improvvisano assieme in maniera libera:
“Ciascun musicista rappresenterebbe un'attività autonoma che si sovrappone alle altre generando
una struttura cumulativa”13. L’ensemble incide nel 1966 “AMMMusic”, un disco d’improvvisazione
libera, dalle sonorità elettroacustiche (nell’organico della band sono inserite tre radio FM a
transistor), più vicino ai lavori di LaMonte Young che al free jazz di Ornette Coleman. Gli AMM e
Keith Rowe sono stati fondamentali nella nascita della musica psichedelica inglese, il leader
fondatore dei Pink Floyd, Syd Barrett, ha più volte dimostrato di ispirarsi a Rowe nella sua tecnica
chitarristica.
13 AMM, AMMMusic 1966: Le recensioni di Ondarock, 2010.
13
Nel “Nuovo Mondo”, intanto, si
respira
un’aria
fresca,
non
gravata dal peso della tradizione,
come invece accade da secoli nel
nostro continente.
Ciò permette a menti brillanti di
aprirsi
alla
sperimentazione
senza preconcetti, liberando la
creatività e il genio.
La musica contemporanea deve,
Figura 1.7 John Cage in veste di concorrente nello show televisivo italiano
a mio avviso, gran parte della sua
"Lascia o Raddoppia", insieme al conduttore Mike Bongiorno.
evoluzione all’americano John
Cage, che con le sue idee rivoluzionarie ha stravolto il ruolo del compositore, rimuovendo la scelta
dal processo creativo. Dopo un primo periodo nel quale il compositore sperimenta l’utilizzo di
formule e proporzioni matematiche, oltre la “preparazione” del pianoforte e l’inserimento
nell’organico strumentale di vari oggetti d’uso comune, Cage inizia a interessarsi al concetto
d’indeterminazione nella musica, a causa anche del suo avvicinamento alla filosofia Zen.
Dalla seconda metà degli anni ’40, compone diversi lavori utilizzando la tecnica divinatoria dell’I
Ching abbinata ad un sistema di combinazioni numeriche assegnate ai vari parametri del suono.
Eliminando la centralità del compositore all’interno dell’opera, egli distrugge l’idea europea di
musica, e questo è possibile grazie alla sua nazionalità americana, che lo svincola dal peso della
tradizione colta.
Negli anni ’50, pioniere degli Happening, Cage si concentra sulla multimedialità, realizzando dei
veri e propri “eventi” in cui lo spettatore diventa parte attiva della performance, tessendo un forte
legame tra arte e vita. “Musicircus” del ’67 vede sul palco varie formazioni che si sovrappongono
eseguendo musiche provenienti da diversi repertori; la scelta del momento in cui ogni gruppo deve
suonare avviene tramite procedure casuali. “HPSCHD” del 1969 è un lavoro multimediale dalla
durata di circa cinque ore, in cui si uniscono sette clavicembali che eseguono degli estratti
"sorteggiati" di repertorio classico e composizioni di Cage, cinquantadue cassette di segnali generati
da calcolatori, sessantaquattro proiettori ciascuno contenente cento diapositive, quaranta pellicole.
Durante la performance, il pubblico è libero di attraversare l'auditorium, entrare ed uscire. In questo
modo l’interesse singolo e centrale sull’opera è eliminato, per fornire al fruitore una vasta gamma di
elementi.
14
Nel ’65, il compositore Alvin
Lucier realizza la performance
“Music for Solo Performer”, nella
quale mette in risonanza alcune
percussioni
attraverso
dei
diffusori, che amplificano le onde
alfa emesse dal suo cervello
durante uno stato meditativo,
catturate in tempo reale mediante
l’utilizzo di elettrodi.
Nello stesso anno, la compositrice
Pauline Oliveros progetta e crea
Figura 1.8 Alvin Lucier durante l'esecuzione di "Music for solo performer".
l’Expanded Instrument System, un
sistema per l’elaborazione (in
principio analogica, in seguito anche digitale) del segnale del suo accordion in tempo reale, che
utilizza in esibizioni dal vivo dal carattere puramente improvvisativo.
Pauline Oliveros s’interessa in questi
anni alle modalità di miglioramento
del processo di attenzione applicato
all’ascolto
musicale,
importanti studi
conducendo
presso l’Università
della California a San Diego. La sua
propensione
all’improvvisazione
è
evidente anche nei suoi lavori su
supporto, come “A Little Noise in the
System” del ’66, un unico flusso
estemporaneo eseguito al sintetizzatore
Moog, senza effettuare montaggio del
nastro. Al contrario il compositore di
Los
Angeles
Morton
Figura 1.9 Pauline Oliveros ed il suo accordion.
Subotnick,
preferisce selezionare il materiale registrato nel corso d’improvvisazioni, per eseguirne un
montaggio, come nel caso di “Silver Apples of the Moon” del ’67.
15
Il panorama colto del ventennio compreso tra
la fine degli anni ’50 e quella degli anni ’70,
viaggia su un percorso simultaneo a quello
tracciato dalle correnti “pop” tutt’altro che
parallelo.
Le due strade s’incontrano, a volte coincidono
e si confondono tra loro. Mentre i Beatles,
omaggiando Stockhausen ed il suo “Gesang
der Jünglinge im Feuerofen”, compongono
esperimenti come “Revolution 9” del ’68, i loro
Figura 1.10 Syd Barrett in concerto con i Pink Floyd.
dischi vengono riprodotti ed ascoltati dai
giovani
compositori
che
frequentano
i
Ferienkurse di Darmstadt14.
Le nuove scoperte in campo tecnologico permettono l’utilizzo dello studio di registrazione come un
vero e proprio strumento musicale, di supporto alla composizione. Chi può permetterselo, acquista i
nuovi sintetizzatori e li integra nel sound della band.
I Pink Floyd sono tra i primi a inserire suoni generati elettronicamente all’interno della loro musica
psichedelica, ancora fortemente improvvisativa in questi anni.
L’interesse nell’improvvisazione è vivo anche nel mondo rock, dando vita alle nuove correnti
progressive mondiali, come la scena di
Canterbury
in
Inghilterra,
caratterizzata da gruppi come i Soft
Machine, o il Krautrock tedesco dei
Tangerine Dream e dei Can, i quali
membri Holger Czukay ed Irmin
Schmidt sono allievi di Stockhausen.
In Italia, gruppi come gli Area di
Demetrio Stratos (per il quale Cage
compone un mesostico) fondono le
sonorità
del
jazz
con
la
Figura 1.11 Il cantante Demetrio Stratos.
sperimentazione elettronica, il tutto
unito alla strabiliante ricerca vocale compiuta dal cantante di origini greche. La Factory di Andy
Warhol a Manhattan ospita feste ed eventi in cui si confrontano artisti provenienti da diverse
14 R. Worby, Crackle goes pop: how Stockhausen seduced the Beatles, The Guardian, 26 Dic 2015.
16
estrazioni, come il compositore e
polistrumentista John Cale e il
carismatico chitarrista e cantante
Lou
Reed.
L’uso
psichedeliche
è
di
droghe
senz’altro
un
amplificatore percettivo per molti
artisti,
che
in
sperimentano
questi
lunghe
anni
parti
d’improvvisazione durante i loro
brani, alla ricerca di nuovi stati di
coscienza.
Altri
invece,
come
Robert Fripp dei King Crimson,
sono
Figura 1.12 Frank Zappa dirige la Ensemble Modern durante la prima
mossi
da
una
ricerca
spirituale; in questi anni esplode,
esecuzione di "Yellow Shark", poche settimane prima della sua morte, nel
infatti, la curiosità del mondo
'93.
occidentale
verso
le
culture
orientali.
Infine c’è chi, come Frank Zappa, è interessato ad ampliare gli orizzonti musicali e a muoversi
controcorrente, spaziando tra elementi di musica contemporanea, pop, rock, jazz ed elettronica,
uniti ad una notevole dose di irriverenza e critica sociale.
Zappa compone alcuni lavori più contemporanei ispirandosi a Edgar Varèse, il quale stima l’opera
del chitarrista italo-americano.
1.3. GLI ANNI ‘80
Sul finire degli anni ’70, la ricerca nel campo
delle nuove tecnologie applicate alla produzione
musicale permette finalmente l’utilizzo del
calcolatore in tempo reale, come assistente alla
composizione ed all’esecuzione in concerto. Nel
’77 la ditta Roland introduce sul mercato il
rivoluzionario
MC-8
MicroComposer,
un
sequencer dotato di microprocessore, in grado
Figura 1.13 Roland MC-8 MicroComposer.
17
di modulare in tempo reale diversi parametri del suono e, grazie a una memoria RAM di 16 KB,
permette di programmare sequenze contenenti un massimo di 5200 eventi, rispetto ai precedenti
step sequencer che hanno un limite da otto a sedici note. Esso permette inoltre un utilizzo
polifonico, poiché è possibile assegnare più controlli in voltaggio d’altezza a un singolo canale.
Gli studi compiuti da John Chowning sulla sintesi FM nel precedente ventennio permettono lo
sviluppo di strumenti come il sintetizzatore DX7 di casa Yamaha, che uniti allo sviluppo dei più
economici chips digitali e microprocessori, aprono le porte alla generazione di musica elettronica in
tempo reale. I suoni elettronici devono essere fluidi e cangianti, per rimanere “freschi” all'orecchio.
Nella computer-music questa caratteristica è soggetta a un alto costo di calcolo, in termini di
numero di elementi richiesti in partitura e di quantità di lavoro interpretativo che gli strumenti
devono svolgere per realizzare questi suoni particolari15. Il calcolatore permette diverse soluzioni,
catalogabili in tre macro-categorie; la prima fra tutte è la musica generata ed eseguita dal
calcolatore.
Questa tipologia di computer-music nasce in realtà ben prima degli anni ’80. Compositori come
Iannis Xenakis o Gottfried Michael Koenig (il quale collabora in studio con numerosi compositori
tra i quali Stockhausen, in brani come “Kontakte” o “Gesang der Jünglinge im Feuerofen”),
sperimentano l’utilizzo del calcolatore per la costruzione di strutture matematiche applicate alla
generazione di partiture, eseguite in un primo momento dall’uomo, in seguito dalla macchina stessa.
Nei primi anni ’80 nasce il
protocollo
MIDI,
acronimo
Musical
Instrument
di
Digital
Interface,
ad opera di due progettisti della
Sequential Circuit, Dave Smith e
Chet Wood16.
Attraverso
il
MIDI
diventa
possibile il collegamento fisico tra
vari dispositivi, la praticità, la
leggerezza dei file e l’economicità
dei costi di produzione lo rendono
Figura 1.14 Dave Smith, "padre" del protocollo MIDI.
15 D. Gareth Loy, C. Roads, ed. The Music Machine: Selected Readings from Computer Music Journal. MIT Press,
p. 344, 1992.
16 D. Smith, C. Wood, The complete SCI MIDI, 1981.
18
tutt’ora uno standard molto diffuso nelle produzioni musicali di qualsiasi livello. Nel 1983 le
specifiche MIDI raggiungono il massimo livello, quindi sono presentate alla famosa fiera di Los
Angeles NAMM (National Association of Music Merchants), ottenendo un’immediata popolarità
che causa una momentanea divisione all’interno del comitato fondatore. Nel 1985 le divergenze si
risolvono, grazie all’IMA (International MIDI Association), che pubblica la versione 1.0 del
protocollo trasformandolo in uno standard. Il primo sintetizzatore dotato d’interfaccia MIDI è il
PROPHET 600 della SCI, anche se la versione definitiva del protocollo MIDI è implementata per la
prima volta dal DX7 Yamaha. Grazie a questo nuovo protocollo, diversi compositori lavorano alla
realizzazione di programmi che mappano gli eventi MIDI attraverso algoritmi, generando suoni
eseguibili attraverso una scheda audio. In questi anni è molto diffuso l’utilizzo di algoritmi basati
sulla geometria frattale. Nel corso degli anni nascono diversi programmi per la generazione di
melodie basate su un’enorme banca dati di frasi, utilizzati soprattutto per scopi didattici, quali
Band-in-a-Box o Impro-Visor.
Un’altra corrente musicale nata con il
calcolatore è la composizione algoritmica
assistita.
Diversi compositori legati all’ambito
della composizione algoritmica trovano
nel calcolatore un valido assistente, in
grado di compiere calcoli notevolmente
complessi in breve tempo. Partendo da
prime ricerche sulla sintesi vocale, Max
Mathews elabora il primo prototipo di
Figura 1.15 Max Mathews lavora alla creazione di MUSIC, presso i
laboratori Bell.
MUSIC nel ’57
17
, all’interno dei
laboratori Bell di Murray Hill, nel New
Jersey.
Dopo anni di progressi, si giunge alla prima “popolare” versione del software, MUSIC 4. James
Tenney ottiene una borsa di studio come ricercatore, il suo compito è realizzare brani elettroacustici
per verificare le prestazioni del software di Mathews. In questi anni, dopo primi esperimenti in cui
utilizza MUSIC come un sintetizzatore per la creazione di suoni nodali, Tenney è interessato al
controllo di strutture generate da fattori casuali, quindi all’automazione di processi di montaggio
mediante fogli di calcolo digitali.
17 P. Manning, Computer and Electronic Music, Oxford University Press, 1993.
19
Questo suo atteggiamento informale lo discosta dalla computer-music, prettamente algoritmica e
deterministica. All’interno dei laboratori Bell anche il compositore francese Jean Claude Risset
sperimenta l’utilizzo di MUSIC, interessato però alla riproduzione di suoni reali mediante tecniche
di sintesi. Essendo allievo di André Jolivet, Risset è in parte legato alla musica strumentale e alla
tradizionale scrittura su pentagramma. In questi anni c’è una forte reazione conservatrice in Francia,
emergono notevoli idiosincrasie tra la serialità e l’improvvisazione, problemi che, in una terra
“libera” come l’America, non trovano terreno fertile. In questo clima di libertà, Curtis Roads
elabora per primo l’utilizzo della sintesi granulare nel dominio digitale. Egli lavora su un linguaggio
basato su tre “dimensioni”, il punto, la linea e la nuvola. Il punto corrisponde a un singolo “grano”,
un evento isolato, la linea è formata dalla successione ravvicinata di più grani, mentre la nuvola è
un insieme caotico di grani che produce masse sonore mutevoli e fluttuanti.
L’ultima tra le tre macro-categorie menzionate è caratterizzata dall’improvvisazione del calcolatore.
In questo caso, la macchina si serve di algoritmi per creare un’improvvisazione su materiale
musicale esistente. Ciò è possibile attraverso una raffinata ricombinazione di frasi musicali estratte
da musiche esistenti, eseguite in tempo reale o pre-registrate. Per rendere credibile
l’improvvisazione, il calcolatore “apprende” algoritmi di analisi del materiale inserito, restituendo
nuove variazioni in “stile”. Questo processo differisce dalla composizione algoritmica, nella quale
manca l’aspetto dell’analisi del materiale musicale. Tale analisi è di tipo statistico, serve a
individuare ridondanze di frasi contenute nella banca dati. Una delle più note implementazioni di
questo tipo è OMax, un ambiente di programmazione sviluppato all’IRCAM di Parigi, che combina
l’utilizzo di OpenMusic e Max/MSP. Pietro
Grossi, pioniere della musica elettronica italiana,
primo tra l’altro a ottenerne la cattedra, nel 1980
inizia a utilizzare il sistema di sintesi del suono
IRMUS, progettato dall’Istituto di Ricerca sulle
Onde Elettromagnetiche del CNR di Firenze,
reduce dalla precedente esperienza del ’78 con le
apparecchiature del CNUCE (Centro Nazionale
Universitario di Calcolo Elettronico) di Pisa, con
Figura 1.16 Pietro Grossi e Sergio Maltagliati.
le quali sperimenta il suo primo “…tentativo di far
suonare il calcolatore a tempo indeterminato e con procedure completamente automatiche”18.
18 P. Grossi, Intervista televisiva per il 41° Maggio Musicale Fiorentino, Firenze, 1978.
20
1.4. DAGLI ANNI ’90 AD OGGI
Nel corso degli anni ’90, l’informatica entra a far
parte della vita quotidianità di ognuno e Internet
cambia per sempre la vita dell’uomo. Il mondo è
avvolto in una grande rete che mette in
comunicazione i popoli lontani, miscela le culture
e nutre di nuova linfa vitale la creatività e
l’ingegno. I computer diventano sempre più
piccoli, fino a divenire veri e propri oggetti di
design, da inserire nell’arredamento di casa.
L’incontrollabile
flusso
d’informazioni
proveniente da quello schermo permette di creare
musica nella propria stanza, importando nel
Figura 1.17 Uno dei primi Personal Computer Macintosh.
computer
suoni
campionati
ed
elettronici
provenienti dalla rete. Se, fino a poco tempo prima,
il nastro permetteva alle giovani band di effettuare delle semplici registrazioni in presa diretta, il
digitale permette di montare e rimontare il materiale a proprio piacimento. È l’era del DJ, il Disk
Jockey che muove le masse di giovani nelle
discoteche, in principio miscelando tra loro
brani su vinile, in seguito suonando in tempo
reale
mediante
l’utilizzo
di
molteplici
apparecchi. Il decennio dei ’90 si potrebbe
riassumere nella parola “Mix”: Internet è un
enorme frullatore nel quale tutto si miscela, la
musica colta si fonde con la cultura “pop”, ai
concerti si affiancano le performance, nelle
quali gli artisti mescolano più media, musica,
pittura, scultura e video-arte.
In questo calderone si ritrovano correnti
musicali molto diverse tra loro, caratterizzate da
Figura 1.18 Due consolle da DJ a confronto, una
analogica anni '70 ed una digitale anni '90.
un utilizzo molto vario delle tecnologie.
21
Il newyorkese Tod Machover, giunto a
Parigi nell’autunno del 1978, entra a far
parte
dell’IRCAM,
calorosamente
invitato da Pierre Boulez che lo vuole
come compositore in sede.
Dopo
i
primi
anni
trascorsi
a
sperimentare il sintetizzatore digitale 4X
dell’italiano
Giuseppe
di
Giugno
(considerato la prima stazione di lavoro
musicale interamente digitale per la
Figura 1.19 Tod Machover e il suo HyperCello.
sintesi e l'analisi del suono digitale in
tempo reale), Machover alimenta il
desiderio di espandere la performance dell’esecutore, elaborando così il primo concetto di Iperstrumento nel 1986. Trasferitosi al MIT (Massachussetts Insitute of Technology) come docente,
studia diversi modi di espandere le potenzialità esecutive di strumenti tradizionali, applicando
sensori di varia natura. Il sistema processa il suono proveniente dallo strumento in differenti modi,
secondo i gesti dell’esecutore. Machover è interessato inoltre a un fine didattico: i suoi iperstrumenti possono aiutare le giovani leve di musicisti nel loro percorso di apprendimento.
Sempre a un americano si deve la “scoperta” del Circuit Bending.
Con il termine Circuit Bending
s’intende
la
manipolazione
creativa di circuiti provenienti da
varie apparecchiature elettroniche
a basso voltaggio, come pedali
per
chitarra,
giocattoli
per
bambini e piccoli sintetizzatori
digitali. Modifiche di questo tipo,
talvolta casuali, enfatizzano la
spontaneità e l’indeterminabilità
dei suoni generati, tanto da
associare
questa
tecnica
alla
Noise music. La paternità di tale
invenzione
è
Figura 1.20 Reed Ghazala mentre sperimenta in studio.
generalmente
attribuita a Reed Ghazala.
22
Negli anni ’60 si accorge per caso
che un giocattolo a transistor,
venuto a contatto con oggetti
metallici, produce suoni “strani”.
Da allora Ghazala dedica la sua
vita alla produzione di nuovi
strumenti musicali di questo tipo.
Tra le varie forme d’arte nate in
questo decennio, meritano inoltre
particolare
attenzione
le
installazioni multimediali.
Tramite l’utilizzo di sensori o di
circuiti
programmati,
prendono
Figura 1.21 "Acqua Ferita", un'installazione dell'iracheno Azad Nanakeli,
vita performances di varia natura
presentata nel 2011 alla Biennale di Venezia.
nelle quali è spesso protagonista il
fruitore, che interagisce in maniera più o meno significativa con l’installazione. Spesso si tratta di
opere multimediali, dove la presenza simultanea e l’interazione fra vari media, coinvolge il
pubblico per la vasta gamma d’informazioni che esso riceve, sebbene in molti preferiscano adottare
il termine multimodale, che sposta l’attenzione sui modi di fruizione piuttosto che sul media di
provenienza.
Installazioni di prestigio sono regolarmente presentate nel corso d’importanti manifestazioni presso
mostre quali la Biennale di Venezia o la Tate Modern di Londra.
Tornando in ambiti prevalentemente
musicali,
è
doveroso
citare
la
è
un
corrente Laptronica.
La
parola
Laptronica
portmanteau prodotto dalla fusione
di Laptop ed Elettronica, indica
quindi
la
categoria
di
musica
prodotta più o meno in tempo reale
tramite
(computer
l’utilizzo
portatile).
del
In
laptop
questa
categoria rientrano differenti generi
Figura 1.22 Un'esibizione dei jazzisti Carl Craig, Francesco Tristano &
di musica elettronica, dal Live Set
Moritz von Oswald.
23
dei DJ e produttori di musica “dance”, alle nuove sperimentazioni Nu Jazz, nelle quali
l’improvvisazione di tipo jazzistico si combina con l’utilizzo di sintetizzatori e portatili per
l’elaborazione in tempo reale del segnale proveniente dai vari strumenti presenti sul palco.
Tra i vari artisti che si cimentano in questo genere di musica, spicca il norvegese Bugge Wesseltoft,
che dagli anni ’90, dopo una prima fase più tradizionale, vira su sonorità elettroniche contaminate
dalla cultura pop.
Nella “Terra di Mezzo” che
separa le installazioni dalla
Laptop
Music,
possiamo
trovare il Live Coding.
Conosciuta
anche
come
“programmazione
interattiva”, la tecnica del
Live Coding consiste nella
compilazione del software in
tempo
reale,
durante
performance.
La
parte
ambienti
degli
la
maggior
di
programmazione dedicati alla
musica
è
costituita
da
Figura 1.23 Royji Ikeda esegue il suo Test Pattern dal vivo.
“semplici” compilatori, nati per i primi computer, aventi ridotte possibilità di calcolo. Questo
genere di approccio è in realtà molto complesso per chi non conosce il linguaggio di
programmazione, perciò alcuni software integrano gradualmente alcuni controlli in tempo reale, ad
esempio utilizzando il protocollo MIDI.
Tra gli artisti di maggior rilievo in questo genere spicca Ryoji Ikeda. Compositore eccentrico e
poliedrico, nelle sue performance unisce principalmente suoni provenienti da apparecchiature
digitali a proiezioni di visual concettuali.
In “Test Pattern” del 2008 utilizza un software da lui compilato per elaborare diverse tipologie di
files, dai quali estrapola dati per la generazione di suoni “puri” (sinusoidi e rumore bianco) o di
visual composti esclusivamente da codici a barre.
24
2. REALIZZAZIONE DELLA PERFORMANCE
2.1. LIVE ELECTRONICS ED IMPROVVISAZIONE
Come naturale conclusione di un lavoro di ricerca, il musicista avverte la necessità di mettere in
pratica il suo studio, al fine di arricchire il proprio linguaggio.
Tale conclusione coincide con quella del mio percorso di studi in Conservatorio, grazie al quale ho
potuto apprendere tecniche di elaborazione e di spazializzazione del segnale audio, le quali fanno
ormai parte del mio linguaggio musicale.
Coltivo da molti anni un interesse particolare per la musica di tipo improvvisativo, sia per aspetti
musicali, sia per altri più “spirituali”.
Da sempre mi affascinano le musiche provenienti da culture extraeuropee, per via della sensazione
di libertà che si respira ascoltandole. In effetti, tali musiche sono spesso legate alla vita spirituale
dell’uomo durante le più varie celebrazioni. Nell’Europa centrale invece, l’attenzione si è sin da
subito rivolta sul ruolo centrale del compositore/genio, che padroneggia le regole del sistema
matematico-musicale al fine di comporre meravigliose opere, per divenire “immortale”.
Nel
caso
delle
musiche
tradizionali
orientali, africane, ma anche del sud
dell’Europa, spesso si ricerca, attraverso
ritmi ossessivi o lunghe improvvisazioni
modali, uno stato di trance, nel quale tutto
si fonde assieme, portando il musicista in
una condizione di “immortalità”. Tale
condizione,
poiché
diversa
basata
dalla
precedente
sull’annullamento
del
proprio ego, si sperimenta nell’attimo
Figura 2.1 La Taranta in Puglia è una musica popolare dal forte
presente, e non in un secondo momento
carattere improvvisativo, capace di condurre chi la balla ad uno
attraverso la memoria dei successori.
stato di trance.
Questo punto di vista, trasforma l’idea di musica, ampliandola da una forma d’arte a un vero e
proprio linguaggio, mediante il quale poterci rapportare con le più differenti culture senza
impedimenti linguistici.
Inoltre, improvvisare impone di rivolgere l’attenzione verso l’interno, obbligandoci a guardare
dentro noi stessi impariamo a conoscerci meglio.
25
Questa mia passione per l’improvvisazione è stata
nutrita di nuovi stimoli quando ha incontrato il
live electronics, quindi negli ultimi anni di studio
ho sperimentato la creazione di ambienti esecutivi
in MAX, che ampliassero la gamma timbricoespressiva dei miei strumenti acustici.
La ricerca timbrica è il trait d’union fra il mio
percorso e quello del collega e amico Yuri
Dimitrov, il quale ha concentrato i suoi studi sui
sintetizzatori, in particolar modo su quelli di
concezione modulare, collezionando nel tempo
alcuni moduli analogici moderni. Il suo intento
era
processare
in
tempo
reale
il
Figura 2.2 Luigi Archetti ed Ernst Thoma eseguono la
performance TRANSELEC, durante il Pod’Ring Festival
di Bienna del 2003
segnale
proveniente dai moduli e spazializzare il suono, utilizzando MAX come un modulo della sua
strumentazione.
Durante un periodo di studio è necessario suonare ed esercitarsi da soli, lo scontro con noi stessi ci
conduce a una crescita, la quale in seguito va esperita con qualcuno, poiché il dialogo favorisce un
nuovo sviluppo per il musicista. La ricerca di un collega musicista, con cui sperimentare il mio
setup, si è subito sposata con il progetto di Yuri, considerando la mia strumentazione come un
ulteriore modulo assemblabile alla sua performance.
La nostra indagine, rivolta alla ricerca di un dialogo fra timbri, genealogicamente distanti, procede
parallelamente su tre livelli: morfologico, semantico e spaziale. I timbri prodotti dagli strumenti
acustici, elaborati in tempo reale, emulano quelli sintetici generati dagli oscillatori analogici e
digitali. Allo stesso tempo, attraverso varie tecniche di sintesi e la manipolazione dell’inviluppo
d’ampiezza, il suono dei sintetizzatori è modellato su imitazione dei suoni acustici. A livello
semantico interviene la pratica manuale degli interpreti, la gestualità è da considerarsi un valore
aggiunto poiché, derivando dalla pratica strumentale, pone l’attenzione sul dialogo tra i musicisti e
quello tra loro e lo strumento. L’utilizzo di un sistema di diffusione ottofonico offre, infine, la
possibilità di allargare il campo d’indagine, donando ai suoni una posizione nello spazio e la
capacità di movimento.
26
2.2. ESTETICA DELLA PERFORMANCE: ISPIRAZIONI E STESURA
FORMALE
Per decidere la direzione da percorrere, da un punto di vista estetico, è stato necessario fare una
cernita di tutte le fonti d’ispirazione che hanno mosso i nostri studi individuali, ascoltando
registrazioni di repertorio e ricercando numerose interviste.
Ci ha subito colpito un’altra intervista rilasciata da Ennio Morricone19 (oltre quella già citata a pag.
12), nella quale il compositore, parlando di alcuni esercizi svolti dal GINC durante le prove, li
descrive come “esercizi che facevamo su un parametro unico. Esempio: gioco delle coppie;
risposta positiva all’intervento di un esecutore (vuol dire che a un mio intervento, rispondeva
l’intervento di un altro); oppure: risposta negativa (l’altro non rispondeva, o meglio rispondeva
con un altro linguaggio). E così via”.
Abbiamo deciso quindi di applicare strategie simili a quelle utilizzate dal gruppo di Evangelisti,
nelle varie fasi di stesura della performance.
Per la scelta della strumentazione abbiamo riascoltato e selezionato materiali registrati nel corso di
lunghe sessioni d’improvvisazione, come descritto nel paragrafo seguente.
Una volta selezionati i materiali migliori, il passaggio successivo è stato quello di costruire singoli
momenti musicali, da noi nominati “scene”, ciascuno incentrato su un particolare dialogo fra gli
strumenti acustici ed elettronici, talvolta a livello timbrico, talvolta ricercato nell’inviluppo
d’ampiezza.
Le tipologie di dialogo scelte sono tre: imitazione, contrasto e contrappunto; i processi d’imitazione
e contrasto, inoltre, possono avvenire per accumulazione o per rarefazione.
In un dialogo di tipo imitativo, gli strumenti emulano reciprocamente l’inviluppo d’ampiezza, la
fusione tra i timbri crea tessiture di suoni lunghi piuttosto che nuvole di eventi puntuali.
In un momento di contrasto invece, le risposte tra gli strumenti divergono per linguaggio musicale e
caratteristiche dell’inviluppo d’ampiezza.
Nel dialogo per contrappunto, nonostante le similitudini nell’inviluppo dei suoni, le voci
mantengono un alto grado d’indipendenza.
La scelta di strutturare la perfomance concentrandoci su brevi sezioni trova ispirazione negli studi
sulla Moment Form compiuti da Karlheinz Stockhausen (citati a pag. 10).
Come avviene per alcuni brani di Stockhausen, l’intento iniziale era quello di poter scegliere in
maniera estemporanea la successione temporale degli eventi.
19 V. Mattioli, Superonda: la storia segreta della musica italiana, Baldini&Castoldi, 2016.
27
Tuttavia, in un secondo momento abbiamo preferito definire l’ordine delle scene, in modo da
costruire una forma che procede in maniera quasi simmetrica dagli estremi verso il centro.
Tale decisione è stata dettata anche da un’esigenza temporale, dovendo eseguire la performance
durante la discussione della tesi in Conservatorio in un tempo limitato. Per la prima esecuzione
quindi, la durata totale sarà di circa dieci minuti, suddivisi in cinque scene della durata di circa due
minuti ciascuna. Nei paragrafi 2.3 e 2.4 saranno descritte le caratteristiche interne di ogni scena, con
rimandi agli esempi audio contenuti nel CD in allegato alla tesi.
Come anticipato, le scene sono disposte in maniera speculare; la terza scena funge da specchio
deformante di quanto avviene nei precedenti momenti, ripresentando le tipologie di dialogo
ascoltate in precedenza ma in direzione opposta:
•
SCENA I:
dialogo per imitazione, diretto verso l’accumulazione: suoni lunghi e
riverberati creano una stratificazione sempre più fitta;
•
SCENA II:
dialogo per contrasto, diretto verso la rarefazione: suoni brevi e impulsivi
formano nuvole di grani che lentamente si sfaldano perdendo l’attacco in favore di un tempo
di decadimento più lungo;
•
SCENA III:
dialogo per contrappunto: suoni sintetici e acustici dal carattere percussivo
procedono su linee indipendenti, con intersezioni rapide e irregolari;
•
SCENA IV: dialogo per contrasto, diretto verso l’accumulazione: suoni lunghi emergono
da uno sfondo granulare sempre più fitto;
•
SCENA V:
dialogo per imitazione, diretto verso la rarefazione: suoni brevi caratterizzati
da veloci modulazioni in ampiezza e in frequenza si alternano in maniera sempre più
diradata, dissolvendosi gradualmente.
28
Figura 2.3 Schema formale della performance. Sullo sfondo, spettro di un’esecuzione di prova.
La tecnica esecutiva degli strumenti acustici è incentrata sull’utilizzo di metodi di produzione
sonora non convenzionali, atti a ricercare sonorità collaterali caratterizzate dalla fisionomia degli
strumenti stessi. Questa metodologia, ampliamente impiegata dal GINC, consente di ampliare
notevolmente la gamma timbrica degli strumenti, soprattutto utilizzando vari oggetti (ad esempio
corde, chiodi, bacchette…) per sollecitare lo strumento.
Per quanto riguarda la spazializzazione dei suoni, abbiamo tratto ancora una volta ispirazione da
Stockhausen; la scelta di utilizzare un sistema di diffusione multicanale riduce in maniera
considerevole di fatto ogni possibile situazione di staticità (come descritto a pag. 36), permettendo
una migliore comprensione dei dettagli nelle singole voci provenienti dal DSP, distribuite nello
spazio d'ascolto.
Lo spostamento dei suoni è regolato da un sistema di feature extraction20: i dati estrapolati dallo
spettro e dall’inviluppo d’ampiezza dei suoni controllano la direzione degli stessi attorno
all’ascoltatore. In questo modo la spazializzazione segue i gesti dei musicisti, trasformandoli in
movimento.
20 https://en.wikipedia.org/wiki/Feature_extraction
29
2.3. ESECUZIONE E STRUMENTAZIONE ADOPERATA
La realizzazione di questa performance ha richiesto una fase preliminare di progettazione (durata
circa un anno), durante la quale abbiamo effettuato molti campionamenti dei nostri strumenti.
Abbiamo preso ad esempio il metodo di lavoro del GINC di Evangelisti 21 , riascoltando
meticolosamente le registrazioni, appena terminata una sessione improvvisativa.
La scelta di strumenti di piccole dimensioni, unita alla ripresa microfonica, ha subito permesso
l’utilizzo di una vasta gamma timbrica, ulteriormente ampliata dalle notevoli potenzialità dei
sintetizzatori utilizzati nella prima fase di sperimentazione.
In questa fase d’ascolto, sono emersi i timbri e i momenti musicali più interessanti, caratterizzati da
un forte dialogo tra i suoni. Abbiamo quindi selezionato gli strumenti definitivi, per ottimizzare i
gesti esecutivi, i calcoli delle macchine e gli spazi d’esecuzione.
Il mio setup è costituito da
strumenti
acustici
glockenspiel,
quali
un
un’armonica
cromatica, percussioni africane
in legno e in metallo e un ukulele
hawaiiano.
Con l’utilizzo di un microfono
cardioide a condensatore e un
microfono a contatto, il suono
degli
strumenti
acustici
è
catturato e inviato a MAX,
Figura 2.4 Il setup da me utilizzato durante la performance.
quindi elaborato in tempo reale e
infine diffuso.
Ciascuno strumento rientra in una diversa categoria della classificazione Hornbostel-Sachs22, il più
diffuso metodo di classificazione degli strumenti che, presentato nel 1914, comprende quattro
“famiglie”: idiofoni, membranofoni, cordofoni ed aerofoni.
21 Descritto da Morricone e riportato da Valerio Mattioli nel libro “Roma 60 - Viaggio alle radici dell'underground
italiano - Parte seconda”.
22 La classificazione Hornbostel-Sachs è stata pubblicata per la prima volta nel 1914, all’interno della Zeitschrift für
Ethnologie. Successivamente, ne è stata pubblicata una traduzione in inglese dal Galpin Society Journal, nel 1961.
30
Il Galpin Society Journal nel ‘37
include una quinta categoria, gli
elettrofoni, ovvero strumenti in grado
di generare un suono elettricamente.
Il mio collega utilizza due strumenti di
sintesi, ciascuno caratterizzato da una
differente concezione: il primo è un
sintetizzatore
costituito
concezione,
da
modulare
moduli
il
analogico,
di
recente
secondo
un
sintetizzatore digitale virtual analog,
Figura 2.5 Prima pagina dell'articolo di Hornbostel-Sachs del 1914 e
poiché la generazione del suono è
della traduzione inglese del 1961.
digitale e non con circuiti analogici.
Nonostante le differenti tecniche di sintesi utilizzate, ciò che rende distanti tra loro i due strumenti è
la presenza di una tastiera nel secondo, al contrario del modulare.
Ciò comporta un approccio gestuale e
musicale totalmente diverso, poiché nel primo
caso si è naturalmente portati ad indagare più
sul timbro che sulle altezze, lasciando che sia
lo strumento a “suonare”.
L’attenzione è quindi rivolta all’enorme
possibilità
di
cablaggio
e
quindi
di
modulazioni. La presenza di una tastiera, nel
secondo caso, focalizza presto l’attenzione
sulla
costruzione
armonico-melodica,
riponendo nuovamente le redini nelle mani
del musicista.
Figura 2.6 Strumenti di sintesi impiegati nella performance.
31
2.4. LE SCENE
Il lavoro preliminare di ascolto, analisi e selezione, ci ha condotto alla realizzazione di brevi
momenti musicali, caratterizzati dall’utilizzo di pochi strumenti per volta, nominati “scene”.
In queste scene abbiamo cercato di sondare nel dettaglio il maggior numero di possibilità offerte
dall’interazione fra i nostri strumenti e l’ambiente esecutivo in MAX.
Questi momenti non sono caratterizzati da una partitura precisa, esiste tuttavia un’idea comune
riguardante la direzione da seguire, con ampi margini di libertà.
Le scene sono collegabili tra loro oppure fruibili individualmente, come piccole miniature musicali.
La modularità nella performance assume perciò un valore estetico importante, poiché caratterizza
non solo le forme musicali, mutevoli e permutabili, ma anche le scelte compiute all’interno della
singola scena e soprattutto l’intero impianto tecnico-informatico, dagli strumenti all’ambiente
esecutivo. Dopo una serie di prove, abbiamo focalizzato l’attenzione su cinque delle scene
realizzate. Ciascuna scena è incentrata sull’utilizzo di strumenti rappresentativi di una categoria
della classificazione Hornbostel-Sachs, in dialogo con gli elettrofoni, tranne la quinta, dedicata alla
voce umana. In allegato alla tesi è possibile ascoltare una dimostrazione delle cinque scene in
versione stereofonica, oltre ai suoni dei singoli strumenti con e senza elaborazione.
La prima scena (traccia 01 del cd in allegato) è
dedicata agli aerofoni, quindi agli strumenti in
grado
di
produrre
suono
attraverso
la
generazione di colonne d’aria.
Per
questo
momento
prevalentemente
musicale,
un’armonica
a
utilizzo
bocca
cromatica, strumento affascinante poiché tra i
pochi nella sua categoria a essere polifonico,
nonché l’unico ad essere in grado di emettere
Figura 2.7 Il modello di armonica cromatica, prodotto da
Hohner, utilizzato nella performance.
suoni con ambedue le direzioni dell’aria,
ovvero sia soffiando che aspirando.
Il passaggio dell’aria all’interno dei fori,
provoca la vibrazione di piccole ance metalliche, disposte su due file parallele, in modo tale che
ogni foro sia in grado di produrre due note: la direzione dell’aria sollecita una o l’altra ancia.
32
Il timbro dell’armonica, processata da un harmonizer, crea una tessitura fluida e cangiante (traccia
06 del cd), nella quale s’innestano nuvole di grani sintetici e una lenta pulsazione ritmica, data da
un timbro simile a quello del
didgeridoo australiano (traccia 07),
ottenuto mediante sintesi sottrattiva.
La seconda scena, dedicata agli
strumenti
idiofoni,
protagonista
il
ha
come
glockenspiel,
strumento tedesco a percussione nato
nel XVIII secolo, costituito da barre
metalliche rettangolari intonate e
disposte su due file, come la tastiera
di un pianoforte.
In questa scena, il dialogo con i
sintetizzatori,
i
quali
attraverso
Figura 2.8 Glockenspiel Angel a 25 note.
wavetables e filtri producono timbri
metallici (traccia 09), è inizialmente puntuale; gradualmente, decostruendo l’inviluppo d’ampiezza
dell’oscillatore e processando il glockenspiel con un pitch shifter e un granulatore (traccia 08), gli
interventi brevi e percussivi si sfaldano, creando tessiture fluide che ricordano quelle ottenute da
J.C.Risset nei suoi esperimenti di risintesi delle campane, contenuti nel “Catalogo introduttivo dei
Suoni Sintetizzati al Computer” del 1969.
Per la scena con i membranofoni,
abbiamo preso in esame i timbri di due
percussioni
africane
differenti
nei
materiali di costruzione.
Il djembe è ricavato da un unico blocco di
legno duro, la pelle, di capra, è tesa da un
insieme di corde legate a due cerchi
metallici. La sua forma a calice consente
di ottenere una vasta gamma di suoni, dal
Figura 2.9 Da sinistra, djembe ghanese e darabouka tunisina.
grave all’acuto.
La darabouka invece ha il corpo in
33
metallo, la pelle in questo caso è tesa da due cerchi uniti da un sistema di tiranti.
Ciò rende il timbro di quest’ultima notevolmente più brillante di quello del suo parente in legno, pur
mantenendo una certa varietà di suoni, a causa delle similitudini nella forma.
Il DSP, in questo caso, racchiude i processi utilizzati nelle precedenti scene. Una serie di linee di
ritardo, con tempi molto brevi e feedback elevato, genera un filtraggio a “pettine” e una coda
intonata (traccia 10).
Il dialogo con i sintetizzatori, un generatore di forme d’onda casuali
con inviluppo percussivo e un modulo di cross-synthesis che emula
la coda di risonanza di una membrana (traccia 11), è rapido, frenetico
e in costante accumulazione.
Nella quarta scena, i cordofoni sono rappresentati dall’ukulele.
Strumento hawaiiano simile al cavaquinho portoghese, le sue piccole
dimensioni rendono molto brillante l’attacco del suono e rapido il
decadimento.
Dopo vari esperimenti ho deciso di microfonare lo strumento con un
microfono a contatto, posto a un centimetro dal ponte. La particolare
microfonazione enfatizza il suono delle corde, addolcendone
l’attacco. I processi in tempo reale sono affidati al granulatore, pitch
shifter e delay (traccia 12).
Attraverso la percussione, lo sfregamento di vari oggetti sulle corde,
l’ukulele crea delle nuvole di grani sullo sfondo, mentre in primo
piano c’è il sintetizzatore, il quale produce una forma d’onda che
ricorda quella di una grande corda sfregata da un archetto (traccia
Figura 2.10 Ukulele soprano.
13).
L’ultima scena vede come protagonista la voce, primo strumento utilizzato dall’uomo per
comunicare con la natura e i propri simili. La combinazione fra corde vocali, emissione dell’aria e
articolazione muscolare, la rende lo strumento più duttile che esista, in grado di produrre timbri
molto vari e distanti tra loro.
Nel corso dei secoli, l’utilizzo in musica della voce è mutato, per assecondare i gusti estetici delle
epoche e le esigenze tecniche (nella musica lirica, ad esempio, si utilizza una particolare
impostazione della voce che, attraverso il sostegno e l’azione del diaframma, permette alla voce di
emergere dal suono dell’orchestra).
34
Nella musica occidentale si è gradualmente
formata una tecnica vocale che ha escluso, fino
al ‘900, una vasta gamma di timbri e sonorità
ottenibili mediante le cosiddette “tecniche
vocali estese” (Extended Vocal Tecniques),
accuratamente descritte da Deborah Kavasch nel
suo articolo An Introduction to Extended Vocal
Techniques: Some Compositional Aspects and
Performance Problems23. Con “Stimmung” del
1968, Stockhausen è il primo noto compositore
occidentale a riprendere tecniche di canto
Figura 2.11 Nel canto a Tenore sardo, l'armonizzazione delle
quattro voci produce la risonanza di un'armonica comune,
creando l'illusione di una quinta voce.
armonico, molto diffuse ad esempio nelle regioni della Tuva siberiana e della Mongolia e, in forma
diversa, in altre parti del mondo (ad esempio nel canto a tenore della Sardegna). Attraverso una
modulazione della gola, della lingua e delle cavità orali, è possibile enfatizzare alcune formanti
dello spettro vocale, al fine di far emergere una componente
armonica ben distinta.
Trevor Wishart invece ha fatto dell’improvvisazione vocale al
microfono la sua peculiarità.
Registrando e selezionando materiale vocale nel corso di
lunghe improvvisazioni al microfono, Wishart processa i
suoni spesso attraverso l’utilizzo di convoluzioni spettrali e
sintesi incrociata.
Questi esempi sono stati fonte d’ispirazione per la
realizzazione
di
questo
momento
all’interno
della
performance, dove la voce umana (traccia 14) dialoga con i
filtri a formanti dei sintetizzatori (traccia 15), giocando
talvolta su veloci contrappunti, talvolta su lunghe tessiture
Figura 2.12 Trevor Wishart.
cangianti.
23 D. Kavasch, An Introduction to Extended Vocal Techniques: Some Compositional Aspects and Performance
Problems , contenuto in Reports from the Center, vol. 1, n. 2, Center for Music Experiment, Università della California,
San Diego, 1980.
35
2.5. DIFFUSIONE MULTICANALE
In
una
conferenza
tenuta
a
Darmstadt nel ’58 24 , Stockhausen
parla
già
diventato
allora
di
come
indispensabile
sia
per
la
musica elettronica aggiungere il
parametro “spazio” all’interno delle
nuove composizioni, al fine di
rimuovere la staticità derivata da
un’eccessiva
omogeneità
nelle
manipolazioni del materiale sonoro
in tutte le sue proprietà (altezza,
Figura 2.13 Stockhausen alle prese con il suo diffusore rotante, progettato
per Kontakte nel 1959.
intensità, timbro).
Inoltre
l’utilizzo
dello
spazio
aumenta l’intellegibilità dei suoni, poiché distribuendo gruppi di eventi puntuali sovrapposti, è
possibile comprendere meglio le singole voci.
L’elemento spaziale all’interno del Live Electronics non ha, tuttavia, ancora trovato una forma di
notazione universale, probabilmente perché frequentemente è il compositore stesso a curare
direttamente la regia del suono, senza contare le problematiche introdotte dall’ambiente dove
avviene
l’esecuzione,
spesso
in
contrasto, per via delle dimensioni, con
lo spazio virtuale del brano25.
È perciò necessario, secondo Francois
Bayle26, elaborare un’interpretazione che
sia utile a organizzare lo spazio acustico
secondo le caratteristiche della sala e lo
spazio
psicologico
secondo
le
caratteristiche dell’opera. Il musicista
Figura 2.14 François Bayle e il suo acusmonium al GRM di Parigi.
24 K. Stockhausen, Musik im Raum (Musica nello Spazio), 1958, tad. It. di D. Guaccero, in La Rassegna Musicale,
32(4), 1961.
25 A. Vidolin, Suonare lo Spazio Elettroacustico, CSC – Centro di Sonologia Computazionale dell’Università di
Padova, 2001.
26 F. Bayle, Musique acousmatique : propositions... positions, Buchet/Chastel, Parigi, 1993.
36
alla consolle concepisce un’orchestrazione e un’interpretazione vivente, intervenendo sul timbro,
sulla dinamica e sul movimento dei suoni nello spazio.
È interessante notare come le diversità tra filosofia concreta e sintetica si riflettano anche
nell’utilizzo dello spazio. La musica concreta tende a sfruttare lo spazio acustico esecutivo come
elemento caratterizzante, al contrario, nella musica elettronica sintetica, il compositore progetta uno
spazio virtuale. Il primo caso vince sul secondo soprattutto per ragioni economiche e pratiche: per
godere dell’ascolto di uno spazio virtuale è necessario proiettare il suono in ambienti privi di
particolari caratteristiche acustiche, quindi vanno escluse le normali sale da concerto, i teatri e gli
auditorium. Inoltre progettare uno spazio virtuale richiede una certa competenza in merito alla
programmazione, della quale i compositori/musicisti non sempre sono in possesso.
“Suonare” lo spazio richiede una notevole capacità d’ascolto, il regista del suono è ormai una figura
importantissima e determinante per la riuscita di un concerto elettroacustico.
Per questo motivo sono nate diverse “scuole” interpretative, che studiano la disposizione dei
diffusori secondo il programma da eseguire, e i giusti routing dei segnali per riprodurre i movimenti
desiderati.
Tra molte, ho trovato interessante l’approccio strutturale utilizzato dalla compositrice belga Annette
Vande Gorne. Lei “compone” lo spazio intendendolo come un luogo d’intersezione di punti, linee e
piani. I movimenti diventano
parte della forma, e sono da lei
suddivisi in figure spaziali
(dissolvenza
incrociata,
smascheramento,
accentuazione, scintillamento,
oscillazione, altalenare, onda,
rotazione, spirale e rimbalzo)27.
Volendo applicare questo tipo
di spazializzazione ai nostri
suoni, è sorta la problematica
di avere un regista del suono.
Seguendo lo spirito che ha
Figura 2.15 La compositrice belga Annette Vande Gorne.
caratterizzato la progettazione
27 A. Vande Gorne, L’interprétation spatiale. Essai de formalisation méthodologique, rivista DEMéter, Università di
Lille, 2002.
37
del DSP, ho deciso di affidare la spazializzazione a un’analisi in tempo reale dello spettro dei suoni
in ingresso.
L’analisi estrapola in tempo reale tre dati, noiseness (quantità di rumore), brightness
(concentrazione di energia spettrale nelle zone acute) e loudness (intensità sonora), i quali, una
volta riscalati, sono assegnati rispettivamente all’angolazione, all’altezza e alla distanza della
sorgente rispetto ad un punto centrale della sala: l’inviluppo spettrale dei suoni disegna il loro
movimento nello spazio.
La disposizione degli altoparlanti può assumere diverse connotazioni, in base alle esigenze e alle
disponibilità del luogo, la patch è ricalibrabile al momento, inserendo il numero dei diffusori e la
loro collocazione su coordinate polari.
L’inviluppo d’ampiezza dei suoni caratterizza molto il loro movimento nel sistema di diffusione,
producendo interessanti figure di spazializzazione, ma anche qualche piccolo problema.
Il carattere percussivo di alcuni strumenti rischia di causare dei vuoti improvvisi, seppur brevi, che
disturbano il movimento.
Durante i corsi di “Percezione uditiva dello spazio” e di “Esecuzione ed interpretazione del
repertorio elettroacustico”, si è affrontato spesso questo tipo di problema e le sue possibili
soluzioni. Parlando di Luigi Nono, il maestro Marinoni ha spiegato come il compositore veneto
utilizzasse spesso aggiungere alla spazializzazione una “amplificazione trasparente”, ovvero una
lieve diffusione dell’uscita generale in ciascun diffusore, dopo aver calibrato il sistema con un
fuoco centrale nell’ambiente d’ascolto.
Il collega Dante Tanzi, profondo conoscitore delle tecniche di regia e diffusione del suono, mi
suggeriva l’utilizzo di un “rinforzo” generale su una coppia di diffusori frontali, poiché, in effetti, i
movimenti spaziali sono percepiti maggiormente dal fronte anteriore rispetto a quello posteriore.
Infine il maestro Sapir ha più volte posto l’accento sull’importanza di un utilizzo sapiente del
riverbero, sia naturale sia artificiale. Spesso accade di dover eseguire musiche che prevedono un
utilizzo importante del riverbero, in ambienti già molto riverberanti. Trovare il giusto equilibrio non
è semplice ed implica una notevole capacità di ascolto.
Facendo tesoro dei preziosi consigli, ho trovato una soluzione che riassume ciascuna strategia. Il
riverbero del DSP è diffuso in maniera stereofonica su tutte le coppie di diffusori, coprendo quindi i
vuoti che si presentavano in precedenza, mentre l’uscita diretta di ciascuna coppia di altoparlanti è
inviata anche alla coppia stereofonica frontale, “addolcendo” la percezione dei movimenti di
spazializzazione.
38
In questo capitolo ho cercato di fornire al lettore una panoramica generale sul mio lavoro, nella
speranza di trasmettere una piccola parte del percorso che mi ha portato alla sua realizzazione.
Ho cercato di non dilungarmi troppo sugli aspetti più tecnici che riguardano la programmazione
dell’ambiente esecutivo, per mettere maggiormente in luce le ragioni che mi hanno spinto a
imboccare questo cammino, e le fonti d’ispirazione che mi hanno aiutato a percorrerlo.
Nel capitolo successivo saranno illustrati i passaggi che hanno portato alla realizzazione
dell’ambiente esecutivo in MAX, con un’attenzione particolare a ciascun modulo.
39
3. AMBIENTE ESECUTIVO IN MAX
Figura 3.1 Patch in esecuzione durante la performance.
In numerosi corsi in Conservatorio, si è frequentemente discusso con i docenti sulle svariate
modalità di programmazione degli ambienti esecutivi.
MAX è un ambiente ideale per la realizzazione di progetti artistici, poiché l'approccio nei suoi
confronti risulta abbastanza immediato anche per i non esperti di linguaggi informatici, grazie
soprattutto alla sua concezione modulare, che si sposa perfettamente con l’estetica della nostra
performance.
A differenza di ambienti più ostici, dove è richiesta la compilazione di un codice, la modularità del
linguaggio ad oggetti adoperato da MAX permette rapidamente di assemblare, modificare e
soprattutto ascoltare in tempo reale il risultato.
Tutto ciò lo rende uno strumento ideale per il controllo e la gestione del flusso audio in un live
electronics. Questa sua duttilità permette di impostare lo stile di programmazione in conformità a
quelle che sono le esigenze dell'esecutore.
40
Ad esempio, l’utilizzo di oggetti grafici
permette una maggiore accessibilità a
un utente che non abbia una particolare
familiarità
con
il
linguaggio
di
programmazione.
Per questo motivo ho deciso di
realizzare una finestra d'esecuzione,
nella quale è possibile gestire i livelli, il
routing del DSP e il lancio delle scene.
In questo modo la patch è eseguibile
anche da un interprete non pratico di
MAX, senza doversi addentrare nella
programmazione più strutturale.
Tuttavia l’interfaccia grafica comporta
Figura 3.2 Interfaccia grafica per il controllo dinamico dei livelli e delle
assegnazioni del DSP.
un maggior dispendio di energie da
parte del processore, è quindi opportuno trovare il giusto equilibrio tra praticità e velocità di
calcolo.
Il maestro Vigani, durante i corsi di composizione, ci
ha illustrato come, programmando il DSP e la
spazializzazione attraverso liste e messaggi, sia
possibile avviare processi d'elaborazione molto
complessi, con un minimo lavoro da parte del
processore.
L'utilizzo di liste e messaggi può risultare scomodo
nel caso in cui si volessero modificare dei parametri
in
maniera
dinamica,
l'organizzazione
di
mentre
cue
che
è
l'ideale
impostino
per
una
configurazione precisa del DSP.
L’approccio modulare, infine, permette infinite
Figura 3.3 Liste di dati da inviare al DSP.
possibilità di routing tra i vari effetti, i quali possono
essere racchiusi come astrazioni in singoli oggetti,
collegabili tra loro come se fossero moduli analogici. Questa strategia permette di ottenere un
ambiente esecutivo aperto a ogni soluzione, i moduli precostruiti possono essere ampliati, sostituiti,
invertiti o eliminati in qualsiasi momento.
41
3.1. MAIN
La finestra principale della patch è
costituita esclusivamente dall'insieme
dei moduli costituenti la performance:
l'interfaccia
(harmonizer,
d'esecuzione,
pitch
gli
shifter,
effetti
delay,
granulatore e riverbero), l'analizzatore di
spettro e il modulo di spazializzazione.
Cliccando su ognuno di essi è possibile
aprirli,
visionare
programmazione
e
la
modificarne
loro
i
parametri dinamicamente.
Ciascuno dei moduli non presenta né
Figura 3.4 Finestra principale della patch.
ingressi né uscite, poiché il flusso del
segnale audio e dei dati di controllo sono gestiti
tramite send e return e liste di messaggi.
Questa finestra è utile soprattutto nel caso in cui si
voglia suonare con l'ambiente esecutivo in maniera
libera, senza seguire le configurazioni prestabilite
dalla performance.
La
presenza
dell’oggetto
dac~
(digital-analog
converter) consente all’utente la selezione immediata
del sistema di input/output (scheda audio, entrate e
uscite analogiche), nonché l’impostazione della
frequenza
di
campionamento,
del
numero
di
quantizzazione e della dimensione della finesra di
buffer.
Per un funzionamento ottimale della patch, a
prescindere dal computer utilizzato, è preferibile
utilizzare una finestra non inferiore ai 512 campioni,
per non rischiare un sovraccarico di lavoro da parte
Figura 3.5 Digital-Analog Converter.
del processore.
42
3.2. INTERFACCIA ESECUTIVA
Figura 3.6 Livelli d’ingresso dei segnali audio e mandata al fronte stereofonico dell’uscita totale.
Il modulo d’interazione con la patch è studiato per ottimizzare i controlli, al fine di gestire
dinamicamente i parametri più importanti, come i livelli d’ingresso dei segnali o il routing tra gli
effetti del DSP.
Per ogni canale è presente un VU meter,
per
controllare
che
non
avvengano
distorsioni in ingresso.
I fader sono controllabili dinamicamente
tramite un hardware MIDI collegato al PC
e precedentemente mappato.
I controlli MIDI sono assegnati a coppie di
canali, uno per i miei microfoni ed uno per
i sintetizzatori di Yuri, per ottimizzare il
numero di fader da gestire durante la
Figura 3.7 ReMOTE 25SL, il controller MIDI della Novation
utilizzato nella performance.
performance.
Un terzo controllo gestisce la quantità di segnale diretto da inviare alla coppia stereo dei diffusori
frontali, in modo da “correggere” gli inconvenienti percettivi dovuti alla spazializzazione (si veda il
paragrafo 2.3).
43
Figura 3.8 Controlli sulle mandate agli effetti.
La quantità di segnale inviato al DSP è regolata da un fader per ciascun effetto; anche in questo
caso il livello è controllabile attraverso un vu meter. In questo modo è possibile gestire sul momento
eventuali problemi di dinamica, senza causare vuoti
improvvisi o clipping.
Il routing tra segnali audio ed effetti è gestito da una
matrice a quattordici colonne e diciannove righe.
Le colonne riguardano i segnali audio diretti (in
ordine dall'1 al 4 i due microfoni, i moduli e la
tastiera) e le uscite stereofoniche dei singoli effetti
(harmonizer, pitch shifter, delay, granulatore e
riverbero),
mentre
le
righe
rappresentano
la
destinazione da assegnare.
Tramite
l'oggetto
grafico
è
possibile
gestire
rapidamente il flusso del segnale, cliccando sui punti
di congiunzione fra righe e colonne, mentre per le
scene della performance le configurazioni sono
richiamate tramite messaggi, come si vedrà più
avanti.
In
una
sub-patch
è
contenuta
invece
programmazione vera e propria della matrice, nella
la
Figura 3.9 Matrice grafica per il routing degli effetti.
44
Figura 3.10 Programmazione della matrice.
quale il segnale passa attraverso una serie di send e return, i quali risparmiano l’utilizzo di cablaggi
intricati e poco comprensibili.
Le prime cinque uscite si collegano agli effetti del DSP tramite outlets, per poterne controllare il
livello in maniera dinamica, le quattro successive servono ad inviare i segnali diretti (non effettati)
alle uscite, mentre le altre sono inviate direttamente al sistema di spazializzazione.
Durante la performance occorre cambiare rapidamente, tra una scena e l’altra, la configurazione
della matrice, oltre ai parametri che riguardano gli effetti.
Per gestire tutti questi controlli, è
stato necessario semplificare il
tutto attraverso l’utilizzo di cue
richiamabili tramite la tastiera del
computer, poiché, essendo già
impegnati
nel
suonare
gli
strumenti, non è possibile gestire
a dovere troppi fader.
Figura 3.11 Partitura contenente le liste di parametri da assegnare al DSP
I numeri della tastiera, dall'uno al
durante le scene.
cinque, servono per richiamare le
configurazioni della matrice e
degli effetti di ciascuna scena. Il primo messaggio da destra inizializza gli effetti utilizzati nella
scena e azzera la matrice, il secondo e il terzo messaggio configurano il DSP con i parametri
desiderati, il quarto messaggio imposta il routing della matrice e l'ultimo assegna i parametri al
granulatore, il quale è programmato in maniera diversa dagli altri effetti.
Il tasto “invio” è assegnato all'inizializzazione dell'intero sistema, mentre il tasto “spazio” arresta la
riproduzione.
Questo sistema permette di ridurre i controlli all'essenziale, in modo tale da non dover impiegare
una terza persona alla regia del suono.
45
Un breve tempo di interpolazione
è assegnato alla matrice, così da
evitare clipping dovuti ad un
repentino
cambio
di
configurazione, che spesso può
coincidere con il decadimento
dell'inviluppo d'ampiezza generato
da effetti quali il delay o il
riverbero.
Figura 3.12 Configurazione del DSP e del routing della matrice nella scena I.
3.3. HARMONIZER
Figura 3.13 Controlli dinamici dell'harmonizer.
Per la costruzione del DSP ho preferito adoperare una programmazione basata sull’invio di liste
tramite messaggi, utilizzando frequentemente l’oggetto poly~, grazie al quale è possibile generare
diverse istanze dello stesso effetto, ottenendo così un notevole risparmio di CPU.
Alcuni degli effetti utilizzati nella performance sono stati realizzati dal maestro Andrea Vigani
presso l’IRCAM di Parigi, il quale me li ha forniti durante i suoi corsi di composizione.
46
Il primo fra questi è l’harmonizer, strumento che genera più copie del segnale in ingresso, trasposte
in altezza.
Aprendo la patch dell’effetto, si trovano i controlli dinamici dello strumento, inseriti in
un’interfaccia grafica che tuttavia non è utilizzata nel corso della performance.
L’oggetto poly~, contenuto nell’harmonizer,
richiede come argomenti un nome ed un
numero di voci, in questo caso non
modificabile dinamicamente.
Questi argomenti indicano la destinazione
(l’istanza) alla quale inviare i parametri di
controllo, attraverso le liste contenute nei
Figura 2.14 Oggetto poly~ contenuto nell'harmonizer.
messaggi delle scene.
Il poly~ riceve da un unico inlet sia il segnale da processare, sia le liste di controllo, mentre dai due
outlet invia alla matrice il segnale stereofonico risultante dal DSP.
I parametri generali sono l'attivazione dell'effetto, il tempo massimo di delay (questo harmonizer
permette di assegnare un tempo di ritardo diverso per ciascuna voce/istanza), il feedback, il
guadagno in ingresso ed in uscita dall'effetto e il missaggio fra segnale diretto ed effettato.
Scendendo maggiormente nel dettaglio, è
possibile visionare la programmazione del
poly~, al fine di poterne comprendere meglio il
funzionamento.
L'oggetto racchiude due percorsi, uno per il
segnale ed uno per i controlli, caratterizzati da
un ricco utilizzo di sub-patch, contenenti
espressioni
matematiche
e
minuziosi
accorgimenti utili ad evitare errori di calcolo e
clipping.
Ad esempio, il segnale audio passa attraverso
una
serie
di
sub-patch
che
effettuano
un'interpolazione lineare del guadagno in
Figura 3.15 Programmazione del poly~ dell'harmonizer.
ingresso.
47
In seguito il segnale è duplicato per essere
inviato al DSP vero e proprio, nonché alle uscite
dirette.
I controlli generali dell'effetto sono ricevuti e
smistati dall'oggetto route.
Essi comprendono il tempo massimo di delay e
la
quantità
di
feedback
(ciascuna
voce
dell'armonizzazione può avere un tempo di
ritardo rispetto al segnale originale), il guadagno
in ingresso e in uscita, l'attivazione dell'effetto ed
il missaggio con il suono diretto.
L'armonizzazione vera e propria del segnale
audio avviene tramite un secondo poly~,
contenuto all'interno del precedente.
In questo poly~ i messaggi di controllo, sempre
Figura 3.16 Interpolazione lineare del guadagno in ingresso.
gestiti da un oggetto route, assegnano all’effetto
valori sul panning, sul livello d’uscita, sulla
trasposizione, il ritardo e l’attivazione di
ciascuna voce, oltre che sulla dimensione
della finestra di buffer, registrata dall’effetto
per processare il segnale.
La trasposizione dell'altezza del segnale
originale avviene tramite un'alterazione
della velocità di lettura della finestra di
buffer, tecnica che richiama la metodologia
con la quale si otteneva questo effetto
nell'era
analogica,
attraverso
un'accelerazione del nastro o della velocità
del vinile.
Nonostante esistano ormai tecniche digitali
moderne, in grado di ottenere risultati
qualitativamente superiori grazie all'utilizzo
dell'analisi di Fourier, la scelta di adottare
questa metodologia si sposa meglio a livello
Figura 3.17 Il poly~ che effettua le armonizzazioni.
48
concettuale con il resto della performance, poiché l'effetto è ottenuto tramite oscillatori sinusoidali e
a “dente di sega”, assemblati ancora una volta in maniera modulare. Inoltre, tale tipologia di
programmazione è sicuramente più “leggera”, e permette al computer di eseguire il calcolo con uno
sforzo minimo. La trasposizione si compie su centesimi di tono, mentre il delay è calcolato in
millisecondi.
3.4. PITCH SHIFTER
Figura 3.18 Interfaccia grafica del Pitch shifter.
Il secondo effetto inserito nel routing è un frequency shifter, in altre parole un traspositore di
frequenza.
Anche in questo caso la polifonia ha quattro voci, però, a differenza dell’effetto precedente, la loro
esecuzione è simultanea, poiché non è presente il delay.
Come per l’harmonizer, è presente un’interfaccia grafica per il controllo dinamico dei parametri,
tuttavia le impostazioni riguardanti le scene sono inviate all’effetto tramite messaggi.
Anche qui la trasposizione è calibrata su centesimi di tono, inoltre ciascuna voce ha un controllo
sulla posizione nello spazio e sul livello d’ampiezza.
49
Il poly~ contenente l’effetto ha una
programmazione
simile
a
quella
dell’harmonizer, l’assenza del delay rende
più semplice la comprensione del percorso
del segnale audio e dei parametri di
controllo, che in questo caso sono il
guadagno in ingresso e in uscita, il
missaggio fra suono diretto ed effettato e
l’attivazione del traspositore.
L’audio in ingresso passa attraverso il
sistema
d’interpolazione
già
visto
all’interno dell’harmonizer; in seguito una
copia è inviata al poly~ traspositore, mentre
un’uscita diretta è sommata al risultato
stereofonico del processo, prima di essere
inviata al sistema di analisi e diffusione.
Figura 3.19 poly~ del pitch shifter.
La trasposizione avviene all’interno di un
altro poly~, stavolta per mezzo dell’oggetto freqshift~, il quale compie in sostanza una modulazione
ad anello, andando ad agire sul dominio del tempo.
In questo caso non è necessaria una
finestra
di
buffer,
poiché
la
modulazione avviene in tempo reale
sul segnale in entrata.
Questa
differenza
di
programmazione rende il risultato
timbricamente diverso dall’effetto
precedente, la simultaneità delle voci
fa sì che si abbia l’impressione di
ascoltare la scomposizione di un
ricco spettro nello spazio ottofonico.
Figura 3.20 L'oggetto freqshift~ contenuto nel traspositore.
50
3.5. DELAY
Per
il
modulo
apportato
di delay
alcune
ho
modifiche
rispetto all’originale del maestro
Vigani, senza però alterarne il
meccanismo
principale
di
funzionamento.
Ho scelto di poter controllare
delle bande numeriche, all’interno
delle
quali
casualmente
è
selezionato
un
valore
metronomico assegnato a una
linea di ritardo ed espresso in
millisecondi.
È
possibile
dinamicamente
inoltre
il
variare
valore
Figura 3.21 Controlli dinamici sui tempi delle linee di ritardo.
di
feedback generale e decidere il livello d’ampiezza e il panning di ciascuna linea.
Come nei precedenti effetti, il segnale
è interpolato e se ne può controllare il
bilanciamento dry/wet. Il feedback è
controllato
nel
poly~
principale,
mentre il DSP importante è sempre
contenuto in un altro poly~.
Un buffer~ registra una finestra di 512
campioni.
Attraverso questa finestra, il delay
contenuto
nel
secondo
poly~
sovrappone due copie della stessa
linea di ritardo, attraverso l’utilizzo
Figura 3.22 Il poly~ contenuto nel delay.
dell’oggetto sah~ (sample and hold).
51
Tutto ciò serve a evitare di incorrere nell’effetto Doppler, qualora cambiasse repentinamente la
velocità del delay.
Figura 3.23 Programmazione del delay. A destra la sub-patch "p vdelay~".
3.6. GRANULATORE
Il modulo di sintesi granulare è
costituito
dall’oggetto
munger~
programmato da Dan Trueman.
Gli argomenti inseriti nell’oggetto
sono la lunghezza massima del
buffer in millisecondi, il numero di
Figura 3.24 Granulatore munger~.
canali d’uscita e il numero massimo di polifonia.
In effetti, munger~ permette già da sé una spazializzazione multi-fonica.
Il risultato tuttavia era piuttosto caotico, rispetto a quello che cercavamo e siamo riusciti ad ottenere
con l’analizzatore di spettro, ovvero delle masse sonore di grani in movimento.
52
Durante la performance,
le
impostazioni
del
granulatore sono inviate
tramite una lista, la quale
è poi smistata alle varie
caselle numeriche tramite
l’oggetto unpack.
I controlli riguardano i
range
di
separazione,
Figura 3.25 Dettagli della programmazione del granulatore.
dimensione e altezza dei
grani, oltre all’apertura stereofonica.
L’effetto varia i propri parametri in maniera aleatoria all’interno dei suddetti range, creando una
vasta gamma di timbri, talvolta assai diversi tra loro.
Data la sua ricca espressività, è tra gli effetti più utilizzati all’interno della performance.
3.7. RIVERBERO
Figura 3.26 Interfaccia grafica per il controllo del modulo di riverbero.
Il modulo di riverbero, programmato partendo da Gigaverb~ di Juhana Sadeharju, presenta sette
controlli: la dimensione della stanza, l’apertura stereofonica, un coefficiente d’attenuazione, la
durata della coda, il tempo di riverberazione, la larghezza di banda del filtro (il filtraggio serve a
emulare il naturale decadimento delle frequenze acute) e le prime riflessioni.
L’effetto è costituito dall’oggetto gen~, il quale è in grado di generare numerosi processi nativi di
elaborazione del segnale audio.
53
In questo caso l’oggetto gen~ contiene un
banco di quattro delay in parallelo per le
prime riflessioni, con la possibilità di
impostare anche un pre-delay.
Ciascun delay ha un corrispettivo feedback,
il risultato stereofonico passa da un nuovo
banco di tre delay in serie, per creare la
coda.
L’uscita
ha
un
controllo
di
bilanciamento con il suono non processato.
Nel corso della performance, questo è
l’unico modulo ad essere controllato in
maniera dinamica, per poter equilibrare in
qualsiasi momento il riverbero artificiale
con
Figura 3.27 Programmazione dell'oggetto gen~ contenuto nel
quello
naturale
dello
spazio
d’esecuzione.
riverbero.
3.8. ANALISI SPETTRALE
In
questo
modulo
avviene l’estrapolazione
dei
parametri
che
andranno a controllare
la spazializzazione.
Nell’interfaccia grafica
è
presente
solo
un
controllo di guadagno
Figura 3.28 Livelli dei segnali all'interno degli analizzatori ed estrapolazione in tempo reale
dei dati di Loudness, Brightness e Noisiness.
per ogni segnale e la
visualizzazione in tempo reale dei dati di Loudness, Brightness e Noisiness ricavati dallo spettro.
54
Tutto ciò avviene grazie all’oggetto analyzer~ di
Tristan Jehan, che è inoltre in grado di estrarre il pitch
(in MIDI e in Hertz, anche polifonicamente), la banda
della scala Bark (scala psicoacustica di altezze ideata da
Eberhard Zwicker 28 , basata sulla suddivisione delle
frequenze udibili in bande critiche) interessata, il
transiente d’attacco, il valore generale d’ampiezza in
dB e infine i dati di frequenza e ampiezza delle singole
componenti sinusoidali.
Gli argomenti dell’analyzer~ sono la dimensione delle
finestre di buffer e della loro sovrapposizione, la
dimensione della finestra di analisi FFT (Fast Fourier
Transform), la tipologia di finestra (rettangolare,
Figura 3.29 L'analyzer~ in funzione durante la
Hanning o Hamming), il tempo di ritardo iniziale, il
performance.
numero di pitch da estrarre, quello dei picchi da rilevare
e da inviare in uscita e il formato d’uscita del valore sulla
scala Bark.
La Loudness è misurata attraverso l’energia spettrale, è
quindi un valore in dB, mentre la Brightness riporta un
valore in Hz corrispondente all’altezza del centroide
spettrale, cioè il punto medio dove si colloca la maggiore
intensità nello spettro.
La Noisiness invece è misurata sulla scala Bark, che in
questo caso, data la frequenza di campionamento a 44100
Hz, suddivide lo spettro in venticinque bande.
Questi tre dati sono campionati ogni 200 millisecondi
attraverso l’oggetto speedlim~, quindi riscalati nei range
richiesti dai tre parametri di spazializzazione ai quali sono
Figura 10 Assegnazione dei valori estrapolati
infine assegnati: azimuth, elevazione e distanza.
dallo spettro alla spazializzazione.
Oltre ai segnali diretti, sono soggette a questo sistema
anche le uscite stereofoniche degli effetti harmonizer, pitch
shifter, delay e granulatore.
28 E. Zwicker, The Journal of the Acoustical Society of America: Subdivision of the audible frequency range into
critical bands, ed. 2, vol. 33, p. 248, 1961.
55
3.9. SPAZIALIZZAZIONE
L’interfaccia
di
presentazione
del
modulo di spazializzazione si presenta
semplice, munita di pochi controlli. Nel
grafico a sinistra è possibile seguire i
movimenti delle singole voci nello
spazio di diffusione, mentre in quello di
destra si può configurare il numero e la
posizione dei diffusori, in conformità
con lo spazio d’esecuzione.
In alto a sinistra, è possibile eseguire un
reset del sistema e modificare il tempo
Figura
11
Strumenti
di
visualizzazione
spazializzazione.
e
impostazione
della
d’interpolazione dei movimenti, in
modo da renderli più o meno fluidi.
All’interno di una sub-patch sono contenuti i receive~ che trasportano il segnale dalle entrate dirette
e dalle uscite stereofoniche di harmonizer, pitch shifter, delay e granulatore.
Queste
entrano
nell’oggetto
ambipanning~, il quale, attraverso
il sistema Ambisonics (sviluppato
da Gerzon, Barton e Fellgett negli
anni ’70 29 ), spazializza i suoni
sulla base delle coordinate ricevute
dal modulo di analisi spettrale.
Il metodo Ambisonics, inzialmente
chiamato anche perifonìa, nasce
come tecnica di ripresa e diffusione
multicanale, mirata a immergere
l’ascoltatore in uno spazio sonoro.
Figura 12 Matrice ambipanning~ per la diffusione ottofonica.
29 M. A. Gerzon, Periphony: With-Height Sound Reproduction, Mathematical Institute, University of Oxford, 1973.
56
Il segnale è codificato vettorialmente in un
insieme
di
“armoniche
sferiche”,
quindi
decodificato nel sistema di diffusione30.
Il visualizzatore sulla sinistra dell’interfaccia
grafica mostra la posizione dell’immagine
sorgente, all’interno di un campo sferico visto
dall’alto.
L’assegnazione dei valori dello spettro alle
coordinate spaziali è stata stabilita, a seguito di
varie prove d’ascolto, in maniera arbitraria.
Figura 13 Armoniche sferiche del campo acustico.
Il fatto che i movimenti dipendano dallo spettro,
rende la spazializzazione viva e imprevedibile.
Inoltre l’assegnazione scelta si sposa perfettamente con i caratteri dei timbri, provocando dei
movimenti decisi che evocano quelli catalogati da A. Vande Gorne.
L’aggiornamento di questi valori avviene
con un’interpolazione lineare, della quale
si può controllare la velocità.
I tre valori sono quindi racchiusi in una
lista, denominata aed (azimuth, elevation,
distance), tramite l’oggetto pak.
La
lista
è
infine
diretta
all’oggetto
ambipanning~ per la decodifica e la
diffusione nel sistema, in questo caso
ottofonico.
Figura 14 Routing dei dati relativi alle coordinate spaziali.
30 A. Uncini, Audio Digitale, McGraw-Hill Education, 2006.
57
3.10.
CONTROLLI E ROUTING ANALOGICO DEL SEGNALE
Pochi controlli hardware interagiscono con la
patch via MIDI.
Otto fader del controller sono mappati secondo
quest’ordine:
•
1l
primo
fader
controlla
il
livello
d’ingresso dei microfoni;
•
•
Figura 15 Fader per il controllo dei livelli d'ingresso dei
Il secondo controlla il livello d’ingresso
microfoni e dei sintetizzatori (1, 2), delle mandate agli
dei sintetizzatori;
effetti (3, 7) e dell'uscita del fronte stereofonico (8).
Dal terzo al settimo troviamo i controlli
delle mandate agli effetti (in ordine harmonizer, pitch shifter, delay, granulatore e
riverbero);
•
L’ultimo controlla l’uscita master diretta alla coppia stereofonica di diffusori frontali.
Le otto uscite dell’oggetto ambipanning~
sono inviate alle uscite analogiche della
scheda audio, quindi collegate a un mixer
per la regia e la diffusione del suono.
I
canali
sono
suddivisi
in
coppie
stereofoniche di diffusori, partendo dal
fronte
verso
mediante
il
retro
l’utilizzo
dell’ascoltatore,
di
panning
e
assegnazione ai bus.
La somma delle otto uscite è inviata, a un
livello
molto
inferiore,
al
fronte
stereofonico, mentre il riverbero è diffuso
Figura 16 Mixer analogico per la regia del suono.
in egual misura su ciascuna coppia di
altoparlanti.
58
Figura 17 Uscita stereofonica ausiliare inviata al riverbero hardware e reinserita nel sistema di diffusione.
Nonostante sia presente un modulo di riverbero nella patch, è possibile utilizzare un hardware
esterno, qualora se ne abbia uno a disposizione.
Durante le prove in Conservatorio abbiamo avuto la possibilità di sperimentare questa soluzione,
con un riverbero Lexicon presente in aula.
Un’uscita stereofonica ausiliare del mixer è cablata alle entrate stereofoniche del riverbero, quindi i
due outputs del modulo rientrano nei canali 9 e 10 del mixer per poi essere assegnati a tutte le
uscite, sempre a coppie stereofoniche.
Con queste brevi nozioni sul routing analogico del segnale nel sistema di diffusione, termina il
capitolo dedicato agli aspetti tecnici ed esecutivi della nostra performance.
In appendice saranno elencati i valori assegnati a ciascun modulo del DSP e alla matrice durante
l’esecuzione delle scene, in modo tale da rendere la patch ricostruibile dal lettore.
59
CONCLUSIONI
Siamo giunti alla fine di questo percorso che, attraverso un’indagine storica preliminare, ha portato
alla realizzazione di una performance improvvisativa basata sul live electronics.
Il lavoro di ricerca e la fase di sperimentazione pratica, atta alla costruzione della performance,
sono avvenuti parallelamente; le fonti storiche dalle quali abbiamo tratto ispirazione ci hanno
guidato passo dopo passo nelle scelte estetiche e nella stesura formale.
Gli intenti iniziali sono stati soddisfatti, le numerose sessioni di prova hanno portato un ottimo
livello d’interazione tra le parti, rendendo il dialogo musicale vivace e interessante.
Performances come questa accendono i riflettori sulla pratica esecutiva e le sue possibili soluzioni.
Sono tanti, infatti, gli elementi che concorrono al risultato finale, partendo dalla scelta della
strumentazione adoperata, passando per l’elaborazione in tempo reale e terminando con il sistema
di diffusione e spazializzazione. Se consideriamo le potenzialità degli strumenti adoperati, e la loro
modularità, ci rendiamo conto di avere a che fare con un vero e proprio “iper-strumento”, la cui
esecuzione può prendere le più svariate pieghe (esecuzione aleatoria, interpretazione di partiture
precise, improvvisazione, riproduzione “stand-alone”), anche mediante la variazione di materiali
sonori di base, spazi d’esecuzione e sistemi di diffusione.
Il percorso che ha portato alla realizzazione di questa tesi e della performance è stato lungo ma
avvincente. Il lavoro di coppia con il collega Yuri è servito ad arricchire le mie conoscenze,
apprendendo nuove nozioni dal punto di vista tecnico e storico, e al contempo le competenze di
musicista, estendendo il mio linguaggio improvvisativo con forme di comunicazione per me
totalmente nuove. Per quanto riguarda la mia semplice curiosità di musicista, infatti, questo lavoro è
servito a intraprendere strade da me mai percorse prima, in particolar modo grazie alla “scoperta” di
Franco Evangelisti. Tuttavia, giunti a conclusione di un lavoro del genere, spesso si avverte la
tentazione di ripartire da zero, facendo tesoro dell’esperienza maturata. Questa tentazione è uno
stimolo per proseguire su questo percorso intrapreso; È per me molto importante continuare a
sperimentare l’ambiente esecutivo, cercando di raggiungere un alto grado di estemporaneità anche
sul piano formale.
In conclusione, mi sento di affermare che lo studio dell’improvvisazione è l’unica strada che un
musicista può percorrere per raggiungere un alto grado di consapevolezza e padronanza del
materiale musicale, arrivando alla formulazione di un linguaggio fortemente personale.
60
SVILUPPI FUTURI: AMBIENTI ESECUTIVI PER LA DIDATTICA
MUSICALE
La scelta di utilizzare gli strumenti a disposizione per realizzare una performance estemporanea,
nasce sia da una personale curiosità in merito all’improvvisazione nelle sue molteplici forme che da
un’esigenza didattica, essendomi trovato per la prima volta “dall’altra parte della cattedra” rispetto
a dove siede lo studente.
In passato, da allievo, ho talvolta incontrato delle difficoltà nel corso dei miei studi musicali, spesso
dovute a metodi d’insegnamento anacronistici e poco accattivanti per un bambino di età inferiore ai
12/13 anni.
Durante una lezione presso il Conservatorio, un mio docente, parlando dei metodi didattici, accese
in me una riflessione importante riguardo al processo di apprendimento dei bambini. Egli sosteneva
che l’allievo andrebbe stimolato sin dalle prime lezioni a inventare, comporre piccole melodie
utilizzando le nozioni apprese a lezione, come avviene per l’insegnamento delle lingue.
Questo metodo, che ho sperimentato con alcuni allievi, rende lo studio più “leggero”, portando a dei
risultati importanti, poiché nel corso degli studi l’allievo sviluppa delle capacità compositive, quali
una maggiore consapevolezza armonica, oltre a quelle meramente tecniche, necessarie
esclusivamente ai fini dell’esecuzione.
Il mio collega Luca Indelli da qualche anno sperimenta un suo metodo d’insegnamento delle scale
basato sull’improvvisazione. L’allievo si esercita tecnicamente sulla diteggiatura della scala
suonando le note in un ordine libero, mentre il maestro lo accompagna con alcuni accordi. Anche in
questo caso l’allievo sviluppa una capacità importante, che spesso non è coltivata con alcuni metodi
più tradizionali: l’ascolto.
La tecnologia in questo può giocare un ruolo fondamentale, essendo una potente lama a doppio
taglio. Il computer e tutti i moderni apparecchi tecnologici possono diventare materiale didattico, ho
notato che alcuni miei allievi ad esempio, oltre ad utilizzare applicazioni quali l’accordatore o il
metronomo, registrano il loro studio con il cellulare per poi riascoltarsi oppure seguono videolezioni online. Talvolta però, è facile incorrere in informazioni errate o prive di fonti accertate.
Il maestro deve essere quindi il mediatore tra l’allievo e la tecnologia, guidando lo studente al
corretto utilizzo degli “strumenti”.
L’odierna accessibilità economica delle apparecchiature elettroacustiche favorisce un rinnovamento
dei metodi didattici; è indispensabile, a mio avviso, che gli allievi di qualsiasi strumento si
approccino all’utilizzo consapevole degli strumenti elettronici sin dai primi anni di studio.
61
In un corso di musica d’insieme, per bambini di età compresa tra gli otto e gli undici anni, ho
iniziato da poco a sperimentare l’utilizzo di piccoli ambienti esecutivi in MAX, notando per ora
un’accesa curiosità da parte degli allievi.
RINGRAZIAMENTI
Prima di terminare, è per me importante oltre che doveroso ringraziare il maestro Luca Richelli, per
i preziosi consigli e la sua pazienza e disponibilità.
Ringrazio i maestri Giovanni Cospito, Giorgio Klauer, Marco Marinoni, Sylviane Sapir e Andrea
Vigani, per quanto mi hanno trasmesso in questi anni di Conservatorio e per la loro dedizione
all’insegnamento.
Ringrazio i miei genitori per ogni giorno del mio cammino, per i loro sacrifici e il loro Amore.
Ringrazio nonna Lina, alla quale dedico questo lavoro, per avermi insegnato sin da bambino
l’importanza di vivere la cultura con gioia e leggerezza.
Vorrei inoltre ringraziare Yuri, per avermi accompagnato in questo percorso di tesi, offrendomi
spesso nuovi interessanti spunti di riflessione.
Infine ringrazio Elisabetta, per avermi sempre incoraggiato e sorretto.
62
4. APPENDICE: SCHEMI E IMPOSTAZIONI
Di seguito sono riportate le liste dei parametri assegnati al DSP, divise per scene.
4.1. SCENA I
Playersmixer:
•
Gain in Mic 1 : 90<x<120;
•
Gain in Mic2 : 0;
•
Gain in Mod : 80<x<100;
•
Gain in Key
: 90<x<120;
•
Dry Outs
: 120;
•
Harmonizer
: 110;
•
Pitch Shifter : 0;
•
Delay
: 100;
•
Granulator
: 100;
•
Reverb
: 100;
Matrix:
•
mtx 0 0 1 20;
•
mtx 0 3 1 20;
•
mtx 2 3 1 20;
•
mtx 2 7 1 20;
•
mtx 3 4 1 20;
•
mtx 3 8 1 20;
•
mtx 4 2 1 20;
•
mtx 4 4 1 20;
•
mtx 5 2 1 20;
•
mtx 5 4 1 20;
•
mtx 8 4 1 20;
63
•
mtx 8 13 1 20;
•
mtx 9 4 1 20;
•
mtx 9 14 1 20;
•
mtx 10 4 1 20;
•
mtx 10 15 1 20;
•
mtx 11 4 1 20;
•
mtx 11 16 1 20;
•
mtx 12 17 1 20;
•
mtx 13 18 1 20;
•
dello 1 20;
Harmonizer:
•
harm1 pow on;
•
harm1 maxdel 8250;
•
harm1 fbk 46.875;
•
harm1 gain-in 127;
•
harm1 gain-out 127;
•
harm1 mix 100;
•
harm1 1 pow on;
•
harm1 1 win 50;
•
harm1 1 del 375;
•
harm1 1 transp 2062.5;
•
harm1 1 gain 107;
•
harm1 1 pan 10;
•
harm1 2 pow on;
•
harm1 2 win 50;
•
harm1 2 del 750;
•
harm1 2 transp 93.75;
•
harm1 2 gain 127;
•
harm1 2 pan 30;
•
harm1 3 pow on;
•
harm1 3 win 50;
64
•
harm1 3 del 1125;
•
harm1 3 transp -2250;
•
harm1 3 gain 110;
•
harm1 3 pan 80;
•
harm1 4 pow on;
•
harm1 4 win 50;
•
harm1 4 del 1500;
•
harm1 4 transp 46.875;
•
harm1 4 gain 90;
•
harm1 4 pan 110;
Delay:
•
del1 pow on;
•
del1 gain-in 127;
•
del1 gain-out 127;
•
del1 mix 100;
•
del1 maxdel 9000;
•
del1 fbk 93.75;
•
del1 random off;
•
del1 1 del 46.875;
•
del1 1 gain 127;
•
del1 1 pan 20;
•
del1 1 pow on;
•
del1 2 del 187.5;
•
del1 2 gain 127;
•
del1 2 pan 50;
•
del1 2 pow on;
•
del1 3 del 562.5;
•
del1 3 gain 127;
•
del1 3 pan 80;
•
del1 3 pow on;
•
del1 4 del 937.5;
65
•
del1 4 gain 127;
•
del1 4 pan 100;
•
del1 4 pow on;
Granulator:
•
Grain separation
: 100;
•
Grain rate variation : 20;
•
Grain size
•
Grain size variation : 20;
•
Grain pitch
•
Grain pitch variation : 20;
•
Stereo spread
: 1;
: 2;
: 1;
4.2. SCENA II
Playersmixer:
•
Gain in Mic 1 : 90<x<120;
•
Gain in Mic2 : 0;
•
Gain in Mod : 0;
•
Gain in Key
: 90<x<120;
•
Dry Outs
: 100;
•
Harmonizer
: 0;
•
Pitch Shifter : 110;
•
Delay
: 110;
•
Granulator
: 100;
•
Reverb
: 90;
Matrix:
•
mtx 0 3 1 20;
•
mtx 3 2 1 20;
66
•
mtx 3 8 1 20;
•
mtx 6 4 1 20;
•
mtx 6 11 1 20;
•
mtx 7 4 1 20;
•
mtx 7 12 1 20;
•
mtx 8 4 1 20;
•
mtx 8 13 1 20;
•
mtx 9 4 1 20;
•
mtx 9 14 1 20;
•
mtx 10 1 1 20;
•
mtx 10 15 1 20;
•
mtx 11 1 1 20;
•
mtx 11 16 1 20;
•
mtx 12 17 1 20;
•
mtx 13 18 1 20;
•
dello 1 20;
Pitch Shifter:
•
shifter1 pow on;
•
shifter1 gain-in 127;
•
shifter1 gain-out 127;
•
shifter1 mix 100;
•
shifter1 1 pow on;
•
shifter1 1 gain 90;
•
shifter1 1 pan 30;
•
shifter1 1 freq 1875;
•
shifter1 2 pow on;
•
shifter1 2 gain 187.5;
•
shifter1 2 pan 0;
•
shifter1 2 freq 100;
•
shifter1 3 pow on;
•
shifter1 3 gain 70;
67
•
shifter1 3 pan 50;
•
shifter1 3 freq -5625;
•
shifter1 4 pow on;
•
shifter1 4 gain 40;
•
shifter1 4 pan 110;
•
shifter1 4 freq -93.75;
Delay:
•
del1 pow on;
•
del1 gain-in 127;
•
del1 gain-out 127;
•
del1 mix 100;
•
del1 maxdel 7875;
•
del1 fbk 46.875;
•
del1 random on;
•
del1 1 del 46.875;
•
del1 1 gain 127;
•
del1 1 pan 20;
•
del1 1 pow on;
•
del1 2 del 187.5;
•
del1 2 gain 127;
•
del1 2 pan 50;
•
del1 2 pow on;
•
del1 3 del 562.5;
•
del1 3 gain 127;
•
del1 3 pan 80;
•
del1 3 pow on;
•
del1 4 del 937.5;
•
del1 4 gain 127;
•
del1 4 pan 100;
•
del1 4 pow on;
68
Granulator:
•
Grain separation
: 400;
•
Grain rate variation : 300;
•
Grain size
•
Grain size variation : 500;
•
Grain pitch
•
Grain pitch variation : 1;
•
Stereo spread
: 2000;
: 2;
: 1;
4.3. SCENA III
Playersmixer:
•
Gain in Mic 1 : 90<x<120;
•
Gain in Mic2 : 0;
•
Gain in Mod : 90<x<120;
•
Gain in Key
: 0;
•
Dry Outs
: 80;
•
Harmonizer
: 100;
•
Pitch Shifter : 90;
•
Delay
: 100;
•
Granulator
: 90;
•
Reverb
: 50;
Matrix:
•
mtx 0 0 1 20;
•
mtx 0 2 1 20;
•
mtx 0 5 1 20;
•
mtx 2 4 1 20;
•
mtx 4 1 1 20;
•
mtx 4 4 1 20;
69
•
mtx 4 9 1 20;
•
mtx 5 1 1 20;
•
mtx 5 4 1 20;
•
mtx 5 10 1 20;
•
mtx 6 11 1 20;
•
mtx 7 12 1 20;
•
mtx 8 0 1 20;
•
mtx 8 3 1 20;
•
mtx 8 13 1 20;
•
mtx 9 0 1 20;
•
mtx 9 3 1 20;
•
mtx 9 14 1 20;
•
mtx 10 4 1 20;
•
mtx 10 15 1 20;
•
mtx 11 4 1 20;
•
mtx 11 16 1 20;
•
mtx 12 17 1 20;
•
mtx 13 18 1 20;
•
dello 1 20;
Harmonizer:
•
harm1 pow on;
•
harm1 maxdel 10000;
•
harm1 fbk 80;
•
harm1 gain-in 127;
•
harm1 gain-out 127;
•
harm1 mix 100;
•
harm1 1 pow on;
•
harm1 1 win 50;
•
harm1 1 del 30;
•
harm1 1 transp -2062.5;
•
harm1 1 gain 100;
70
•
harm1 1 pan 10;
•
harm1 2 pow on;
•
harm1 2 win 50;
•
harm1 2 del 20;
•
harm1 2 transp -375;
•
harm1 2 gain 110;
•
harm1 2 pan 30;
•
harm1 3 pow on;
•
harm1 3 win 50;
•
harm1 3 del 50;
•
harm1 3 transp -2250;
•
harm1 3 gain 40;
•
harm1 3 pan 80;
•
harm1 4 pow on;
•
harm1 4 win 50;
•
harm1 4 del 80;
•
harm1 4 transp -187.5;
•
harm1 4 gain 60;
•
harm1 4 pan 110;
Pitch Shifter:
•
shifter1 pow on;
•
shifter1 gain-in 127;
•
shifter1 gain-out 127;
•
shifter1 mix 50;
•
shifter1 1 pow on;
•
shifter1 1 gain 90;
•
shifter1 1 pan 30;
•
shifter1 1 freq 2062.5;
•
shifter1 2 pow on;
•
shifter1 2 gain 100;
•
shifter1 2 pan 0;
71
•
shifter1 2 freq 187.5;
•
shifter1 3 pow on;
•
shifter1 3 gain 70;
•
shifter1 3 pan 50;
•
shifter1 3 freq 2250;
•
shifter1 4 pow on;
•
shifter1 4 gain 40;
•
shifter1 4 pan 110;
•
shifter1 4 freq 375;
Delay:
•
del1 pow on;
•
del1 gain-in 127;
•
del1 gain-out 127;
•
del1 mix 100;
•
del1 maxdel 9000;
•
del1 fbk 93.75;
•
del1 random on;
•
del1 1 del 46.875;
•
del1 1 gain 127;
•
del1 1 pan 20;
•
del1 1 pow on;
•
del1 2 del 187.5;
•
del1 2 gain 127;
•
del1 2 pan 50;
•
del1 2 pow on;
•
del1 3 del 62.5;
•
del1 3 gain 127;
•
del1 3 pan 80;
•
del1 3 pow on;
•
del1 4 del 93.75;
•
del1 4 gain 127;
72
•
del1 4 pan 100;
•
del1 4 pow on;
Granulator:
•
Grain separation
: 500;
•
Grain rate variation : 157;
•
Grain size
•
Grain size variation : 74;
•
Grain pitch
•
Grain pitch variation : 36;
•
Stereo spread
: 500;
: 19;
: 1;
4.4. SCENA IV
Playersmixer:
•
Gain in Mic 1 : 0;
•
Gain in Mic2 : 90<x<120;
•
Gain in Mod : 0;
•
Gain in Key
: 90<x<120;
•
Dry Outs
: 100;
•
Harmonizer
: 0;
•
Pitch Shifter : 110;
•
Delay
: 100;
•
Granulator
: 100;
•
Reverb
: 90;
Matrix:
•
mtx 1 3 1 20;
•
mtx 3 1 1 20;
•
mtx 3 4 1 20;
73
•
mtx 3 8 1 20;
•
mtx 6 4 1 20;
•
mtx 7 4 1 20;
•
mtx 8 4 1 20;
•
mtx 8 13 1 20;
•
mtx 9 4 1 20;
•
mtx 9 14 1 20;
•
mtx 10 2 1 20;
•
mtx 10 15 1 20;
•
mtx 11 2 1 20;
•
mtx 11 16 1 20;
•
mtx 12 17 1 20;
•
mtx 13 18 1 20;
•
dello 1 20;
Pitch Shifter:
•
shifter1 pow on;
•
shifter1 gain-in 127;
•
shifter1 gain-out 127;
•
shifter1 mix 50;
•
shifter1 1 pow on;
•
shifter1 1 gain 127;
•
shifter1 1 pan 100;
•
shifter1 1 freq -18.75;
•
shifter1 2 pow on;
•
shifter1 2 gain 127;
•
shifter1 2 pan 100;
•
shifter1 2 freq -4.6875;
•
shifter1 3 pow on;
•
shifter1 3 gain 127;
•
shifter1 3 pan 80;
•
shifter1 3 freq 9.375;
74
•
shifter1 4 pow on;
•
shifter1 4 gain 127;
•
shifter1 4 pan 100;
•
shifter1 4 freq 5.625;
Delay:
•
del1 pow on;
•
del1 gain-in 127;
•
del1 gain-out 127;
•
del1 mix 100;
•
del1 maxdel 7875;
•
del1 fbk 62.5;
•
del1 random on;
•
del1 1 del 46.875;
•
del1 1 gain 127;
•
del1 1 pan 20;
•
del1 1 pow on;
•
del1 2 del 187.5;
•
del1 2 gain 127;
•
del1 2 pan 50;
•
del1 2 pow on;
•
del1 3 del 56.25;
•
del1 3 gain 127;
•
del1 3 pan 80;
•
del1 3 pow on;
•
del1 4 del 93.75;
•
del1 4 gain 127;
•
del1 4 pan 100;
•
del1 4 pow on;
75
Granulator:
•
Grain separation
: 400;
•
Grain rate variation : 300;
•
Grain size
•
Grain size variation : 500;
•
Grain pitch
•
Grain pitch variation : 1;
•
Stereo spread
: 5000;
: 1;
: 1;
4.5. SCENA V
Playersmixer:
•
Gain in Mic 1 : 90<x<120;
•
Gain in Mic2 : 0;
•
Gain in Mod : 0;
•
Gain in Key
: 90<x<120;
•
Dry Outs
: 100;
•
Harmonizer
: 0;
•
Pitch Shifter : 110;
•
Delay
: 110;
•
Granulator
: 100;
•
Reverb
: 90;
Matrix:
•
mtx 0 3 1 20;
•
mtx 3 2 1 20;
•
mtx 3 8 1 20;
•
mtx 6 4 1 20;
•
mtx 6 11 1 20;
•
mtx 7 4 1 20;
76
•
mtx 7 12 1 20;
•
mtx 8 4 1 20;
•
mtx 8 13 1 20;
•
mtx 9 4 1 20;
•
mtx 9 14 1 20;
•
mtx 10 1 1 20;
•
mtx 10 15 1 20;
•
mtx 11 1 1 20;
•
mtx 11 16 1 20;
•
mtx 12 17 1 20;
•
mtx 13 18 1 20;
•
dello 1 20;
Pitch Shifter:
•
shifter1 pow on;
•
shifter1 gain-in 127;
•
shifter1 gain-out 127;
•
shifter1 mix 100;
•
shifter1 1 pow on;
•
shifter1 1 gain 90;
•
shifter1 1 pan 30;
•
shifter1 1 freq 1875;
•
shifter1 2 pow on;
•
shifter1 2 gain 187.5;
•
shifter1 2 pan 0;
•
shifter1 2 freq 100;
•
shifter1 3 pow on;
•
shifter1 3 gain 70;
•
shifter1 3 pan 50;
•
shifter1 3 freq -5625;
•
shifter1 4 pow on;
•
shifter1 4 gain 40;
77
•
shifter1 4 pan 110;
•
shifter1 4 freq -93.75;
Delay:
•
del1 pow on;
•
del1 gain-in 127;
•
del1 gain-out 127;
•
del1 mix 100;
•
del1 maxdel 7875;
•
del1 fbk 46.875;
•
del1 random on;
•
del1 1 del 46.875;
•
del1 1 gain 127;
•
del1 1 pan 20;
•
del1 1 pow on;
•
del1 2 del 187.5;
•
del1 2 gain 127;
•
del1 2 pan 50;
•
del1 2 pow on;
•
del1 3 del 562.5;
•
del1 3 gain 127;
•
del1 3 pan 80;
•
del1 3 pow on;
•
del1 4 del 937.5;
•
del1 4 gain 127;
•
del1 4 pan 100;
•
del1 4 pow on;
Granulator:
•
Grain separation
: 400;
•
Grain rate variation : 300;
78
•
Grain size
: 2000;
•
Grain size variation : 500;
•
Grain pitch
•
Grain pitch variation : 1;
•
Stereo spread
: 2;
: 1;
4.6. DISPOSIZONE DEI DIFFUSORI
Coppie stereofoniche di diffusori, in ordine dal fronte: S1+S2, S3+S4, S5+S6, S7+S8.
79
LISTA TRACCE CD
1.
SCENA I
(02:16) versione stereo;
2. SCENA II
(02:00) versione stereo;
3. SCENA III
(02:08) versione stereo;
4. SCENA IV
(02:00) versione stereo;
5. SCENA V
(02:10) versione stereo;
6. Armonica
dry/wet;
7. Didgeridoo + moduli dry/wet;
8. Glockenspiel
dry/wet;
9. Bell Pad
dry/wet;
10. Percussioni
dry/wet;
11. Moduli
dry/wet;
12. Ukulele
dry/wet;
13. Violoncello
dry/wet;
14. Voce
dry/wet;
15. Sintetizzatore LFO
dry/wet.
80
BIBLIOGRAFIA
•
AMM, AMMMusic 1966: Le recensioni di Ondarock, 2010;
•
F. Bayle, Musique acousmatique : propositions... positions, Buchet/Chastel, Parigi, 1993;
•
Pierre Boulez, Note di Apprendistato, Einaudi, 1968;
•
F. Evangelisti, Dalla forma momentanea ai gruppi di improvvisazione, in programmadépliant dei concerti della Biennale Musica, Venezia 1969; anche in Di Franco Evangelisti
cit., p. 122;
•
F. Evangelisti, Presentazione del Gruppo Internazionale di Improvvisazione Nuova
Consonanza, in programma-dépliant del III Festival di Nuova Consonanza, Roma 1965;
•
D. Gareth Loy, C. Roads, ed. The Music Machine: Selected Readings from Computer Music
Journal. MIT Press, 1992;
•
M. A. Gerzon, Periphony: With-Height Sound Reproduction, Mathematical Institute,
University of Oxford, 1973;
•
P. Grossi, Intervista televisiva per il 41° Maggio Musicale Fiorentino, Firenze, 1978;
•
E. Hornbostel, C. Sachs, Zeitschrift für Ethnologie, 1914 e Galpin Society Journal, 1961;
•
D. Kavasch, An Introduction to Extended Vocal Techniques: Some Compositional Aspects
and Performance Problems, contenuto in Reports from the Center, vol. 1, n. 2, Center for
Music Experiment, Università della California, San Diego, 1980;
•
P. Klee, Pädagogisches Skizzenbuch, Neue Bauhausbücher, 1925;
•
A. Lanza, Il secondo Novecento, vol. 12, EDT, 1991;
81
•
P. Manning, Computer and Electronic Music, Oxford University Press, 1993;
•
V. Mattioli, Roma 60. Viaggio alle radici dell'underground italiano. Parte seconda, Blow
Up, Ed. Tuttle, 2014;
•
V. Mattioli, Superonda: la storia segreta della musica italiana, Baldini&Castoldi, 2016;
•
W. Meyer Eppler, Statistische und psychologische Klang Probleme, “Die Reihe”, 1955;
•
A. Schoenberg, Komposition mit 12 Tönen, 1923;
•
D. Smith, C. Wood, The complete SCI MIDI, 1981;
•
K. Stockhausen, “The British Lectures”, Institute of Contemporary Arts, Londra, 1972;
•
K. Stockhausen, "The Concept of Unity in Electronic Music (Die Einheit der musikalischen
Zeit)", Perspectives of New Music 1, n°1 (Autunno), 1962;
•
K. Stockhausen, Musik im Raum (Musica nello Spazio), 1958, tad. It. di D. Guaccero, in La
Rassegna Musicale, 32(4), 1961;
•
D. Tortora, Nuova Consonanza, Trent’anni di musica contemporanea in Italia (1959-1988),
LIM, 1990;
•
A. Uncini, Audio Digitale, McGraw-Hill Education, 2006;
•
A. Vande Gorne, L’interprétation spatiale. Essai de formalisation méthodologique, rivista
DEMéter, Università di Lille, 2002;
•
A. Vidolin, Suonare lo Spazio Elettroacustico, CSC – Centro di Sonologia Computazionale
dell’Università di Padova, 2001;
•
A. Webern, Verso la nuova musica. Lettera a Hildegard Jone e Josef Humplik. Milano,
Bompiani, 1963;
82
•
R. Worby, Crackle goes pop: how Stockhausen seduced the Beatles, The Guardian, 26 Dic
2015;
•
E. Zwicker, The Journal of the Acoustical Society of America: Subdivision of the audible
frequency range into critical bands, ed. 2, vol. 33, p. 248, 1961;
SITOGRAFIA
•
https://en.wikipedia.org/wiki/Feature_extraction
83