Ministero dell’Istruzione, dell’Università e della Ricerca ALTA FORMAZIONE ARTISTICA E MUSICALE Diploma Accademico di 1° Livello in TECNICO DI SALA DI REGISTRAZIONE TECNOLOGIE E FORME SOCIALI DEI SUONI DAL VINILE ALLA MUSICA LIQUIDA Diplomando: Paolo Masiero Matricola: 00136 Relatore: Prof. Ing. Matteo Costa Anno Accademico 2012 – 2013 Indice Introduzione …………………………………………………………………………………………………. 3 1. IL PERIODO ANALOGICO 1.1. La materializzazione della musica ………………………………………………………. 5 1.2. Nascita della riproducibilità tecnica ……………………………………………………. 6 1.3. La rivoluzione elettrica e l’avvento della radio ………………………………….. 12 1.4. Dal 78 giri al microsolco in vinile ……………………………………………………... 20 1.5. Nastro magnetico: scissione tra produzione e riproduzione ………………... 25 1.6. Stereofonia, musicassetta e Walkman ……………………………………………….. 29 2. IL PERIODO DIGITALE 2.1. La smaterializzazione della musica …………………………………………………... 39 2.2. La digitalizzazione e il suo primo supporto: il Compact Disc ………………. 41 2.2.1. Supporti digitali in alta definizione: SACD e DVD-Audio ……………….. 48 2.3. La compressione del segnale audio digitale: l’MP3 ……………………………. 54 2.4. Le tecnologie digitali di distribuzione e di consumo ………………………….. 58 2.4.1. I media: radio, TV, podcasting ………………………………………………………. 59 2.4.2. I canali: streaming e download …………………………………………………….. 61 2.4.3. L’hardware: il lettore MP3 e l’iPod ………………………………………………... 65 2.4.4. L’hardware: il telefono cellulare …………………………………………………… 68 2.5. Diritto d’autore nell’era digitale ……………………………………………………….. 71 2.6. L’ultima frontiera della musica ……………………………………………………..….. 75 2.6.1. User Generated Content e Social Network …………………………………… 75 2.6.2. Musica liquida in alta definizione ………………………………………………. 79 Conclusioni ………………………………………………………………………………………………… 84 Bibliografia …………………………………………………………………………………………………. 86 Elenco siti web ………………………………………………………………………………………….... 87 Introduzione “Rivoluzione Digitale”: negli ultimi anni non si parla d’altro, soprattutto in campo musicale. Fenomeni come il file sharing e l’MP3 hanno proiettato la musica al centro del discorso sociale. Ne hanno fatto il simbolo di una nuova era non priva, però, di complicazioni come la ridefinizione del ruolo dell’industria e dei media tradizionali. Più che di “rivoluzione” è più corretto parlare di “evoluzione”: infatti, i modelli di produzione, distribuzione e consumo della musica mantengono una forte continuità con le caratteristiche che hanno contraddistinto il periodo analogico. Dallo scontro fra il pessimismo dei discografici, per i quali la pirateria digitale decreta la fine della musica e l’entusiasmo dei consumatori, che vedono nel digitale la liberazione dalle costrizioni del mercato, emerge un panorama complesso dove il digitale “rimedia” le forme precedenti e ne rielabora i linguaggi, tecniche e forme sociali: il vecchio Walkman si trasforma nell’oggetto di culto iPod, i videoclip non si trovano più su MTV ma su YouTube, alla produzione industriale si affianca lo User Generated Content, le nuove band non si fanno più conoscere solo suonando ma anche sulle pagine di MySpace. Questo lavoro si propone di descrivere ed analizzare, innanzitutto, gli aspetti tecnologici nell’ultimo secolo, passando in rassegna le tappe principali di questo processo che oltre aver visto importanti protagonisti, ha permesso alla musica, dapprima di diventare “materiale” ed essere impressa su supporti fisici, successivamente, verso la fine degli anni Ottanta, con l’avvento del digitale, di “smaterializzarsi” in sequenze di numeri, consentendo la sua propagazione nello spazio incontrollato della rete. Un occhio di riguardo è stato dato anche alla formazione dell’industria musicale e all’evoluzione dei media, data la loro sempre maggiore cooperazione e multidimensionalità, e, infine, al ruolo del consumatore, 3 che, in qualità di anello finale della catena, ha il compito di decretare o meno il successo dei prodotti proposti. Struttura della tesi La tesi è strutturata in due capitoli. Il primo ripercorre le tappe che hanno contraddistinto il Periodo Analogico: dalla rivoluzionaria invenzione del fonografo ad opera di Thomas Edison, avvenuta nel 1877, fino ai giorni nostri, caratterizzati dalla diffusione dell’ultimo supporto analogico, la compact cassette e il Walkman, un’oggetto, che come vedremo, diverrà molto più che un semplice player musicale. Il secondo descrive il Periodo Digitale e tutte le tecnologie ad esso collegate, dalla nascita del compact disc fino ad arrivare alla musica liquida, cioè priva di un vero e proprio supporto, passando per la compressione MP3, senza tralasciare il ruolo dell’industria e i risvolti sociali che tutto questo ha comportato. 4 1 IL PERIODO ANALOGICO 1.1 La materializzazione della musica Si può ipotizzare che nel sistema mediatico della musica moderna esistano sostanzialmente due grandi periodi tecnologici, uno analogico e uno digitale. Tra questi vi è una forte continuità, sia in termini di linguaggio, sia per quanto riguarda le forme industriali, culturali e sociali: produzione, diffusione e consumo. Il cosiddetto periodo analogico va dalla fine dell’Ottocento agli anni Ottanta del Novecento. A segnarne la nascita è Thomas Edison con l’invenzione del fonografo (1877): con esso nasce anche la possibilità di fissare la materia musicale su un supporto fisico. Fino ad allora la musica esisteva solo nell’atto della sua esecuzione e nella sua trascrizione mediante linguaggi convenzionali. La materializzazione si sviluppa lungo buona parte del Novecento; il disco in vinile, dopo il fonografo, il grammofono di Berliner (1894) e lo sviluppo della radiodiffusione, ha varie vite, su diversi formati: a 78 giri, a 33 giri, a 45 giri. A questi formati si aggiunge, negli anni quaranta, la cassetta magnetica. L’indiscutibile beneficio che il progresso tecnologico sta generando, porta ad una fondamentale conseguenza: la trasformazione della musica in merce. La nascente industria discografica così si trasforma, passando da un modello di business basato sui diritti d’autore ad uno basato sulla vendita dell’oggetto musicale: il disco. Poco più tardi si forma il sistema dei media musicali, prima con la radio, poi con la TV, a cui si aggiunge, l’editoria musicale. La comunicazione della musica diventa così un intreccio di diffusione intermediatico del messaggio, che circola da un media all’altro: l’industria pubblica un 5 disco; l’artista tiene i concerti; le radio ne passano i brani; la TV ne ospita l’esecuzione nei programmi; la stampa ne parla con recensioni, notizie e interviste. Il tentativo dell’industria è di usare il sistema dei media musicali come vetrina per i propri prodotti: rendere “visibile” un disco, tramite i mezzi di comunicazione, equivale a venderlo più facilmente. Da questo periodo fino agli anni ottanta, l’industria non si preoccupa soltanto di produrre musica e artisti da immettere sul mercato, tenta anche di controllare gli strumenti tecnologici necessari alla produzione (tecnologie di registrazione) sia quelli necessari alla sua riproduzione (ciò che serve all’utente per ascoltare la musica). Così facendo, tramite la tecnologia, l’industria estende il proprio dominio su entrambi i poli della comunicazione musicale, gli artisti-produttori e gli ascoltatori-riproduttori, ponendosi come insostituibile mediatore comunicativo e tecnologico. 1.2 Nascita della riproducibilità tecnica La prima vera invenzione in grado di recepire l’informazione sonora, fu il fonoautografo, ideato dal francese Édouard-Léon Scott de Martinville intorno al 1857. L’apparecchio era costituito da un corno che convogliava il suono su una membrana su cui era fissata una setola di maiale. Il processo di trasduzione avveniva tracciando una linea modulata dalla variazione di pressione dell’aria, determinando la creazione di una registrazione grafica delle onde sonore. Poiché il dispositivo non era in grado di riprodurre, venne utilizzato soltanto per indagini a scopo scientifico sulla natura dei suoni. 6 Figura 1. Esemplare di fonoautografo L’inconveniente della riproduzione trovò risoluzione circa vent’anni più tardi grazie all’americano Thomas Alva Edison dove, nel suo laboratorio a Menlo Park, nel New Jersey, diede origine al fonografo. Quasi casualmente, mentre lavorava ad un dispositivo sulla riproduzione del codice morse, scoprì che la rotazione di un cilindro ad una certa velocità emetteva delle vibrazioni simili al timbro della voce umana. L’apparecchio era composto da un cornetto acustico che incanalava le onde sonore verso una membrana metallica, la quale, vibrando, incideva un solco, attraverso una punta (detta anche stilo), su un sottile foglio di stagno avvolto ad un cilindro rotante. L’operazione di lettura avveniva riportando il cilindro nella posizione iniziale, facendo ripercorrere allo stilo il solco inciso. Edison, tentò subito la commercializzazione concentrandosi più sull’utilizzo professionale piuttosto che domestico, essendo, a suo dire, di più facile collocazione. Egli pensò quindi di diffonderlo come dittafono per imprenditori e 7 manager, uno strumento per prendere appunti vocali, registrare conversazioni e riunioni. Figura 2. Thomas Edison e la sua invenzione: il fonografo L’invenzione non tardò a mettere in moto l’intelligenza creativa di altri tecnici che si dedicarono al suo perfezionamento. Tra questi la coppia Chichester Bell e Charles Tainter che, affascinati dalla nuova tecnologia sulla riproduzione della voce, condussero diversi esperimenti sull’opera di Edison, concretizzando le loro ricerche nel grafofono, un apparecchio molto simile ma nel contempo decisamente migliore rispetto al fonografo. La superficie del cilindro, infatti, non era più di carta stagnola, riutilizzabile solo poche volte, ma di cartone ricoperto di cera, consentendo una migliore incisione e una notevole riduzione del rumore di fondo, la manovella era sostituita da un’azione a pedale e la capacità di registrazione raggiungeva i due minuti. Brevettato il 27 giugno 1885, il grafofono ottenne un successo tale da indurre Edison a riconsiderare le potenzialità della sua invenzione, così, il 16 giugno 1888, fece la sua apparizione The Perfect Phonograph. Il materiale di riproduzione era 8 migliorato in qualità, confermando il cilindro di cera, opportunamente potenziato per sostenere un numero maggiore di utilizzi. Nel frattempo, il mondo della registrazione si era arricchito di un nuovo ritrovato: il grammofono. Brevettato nel novembre 1887, venne realizzato da Emile Berliner un tedesco emigrato negli Stati Uniti. La vera rivoluzione fu la sostituzione del cilindro rotante con un disco piatto, inizialmente di vetro poi di zinco, da cui, con opportuni trattamenti, riuscì ad ottenere un “negativo”, ossia una matrice dalla quale ricavare delle copie “positive” in gommalacca. Stava per nascere l’industria discografica: un accordo tra le detentrici dei principali brevetti tecnici del settore, la Edison National Phonograph, la Victor Talking Machine Company e la Columbia Phonograph Company, istituirono il cartello che diede vita alla produzione in serie del supporto. Figura 3. Emile Berliner con il suo grammofono 9 L’operazione di Berliner fu, fin da subito, l’orientamento verso il mercato domestico e alla sua dimensione ludica, egli, infatti, previde anche la duplicazione su larga scala; a quel punto a decretare il successo furono i consumatori che, come sempre, compiono delle scelte, sia pure all’interno di una fitta reta di condizionamenti. L’innovazione tecnica, in questo caso, si rispecchiò in una metamorfosi sociale altrettanto grande: fu la prima volta in assoluto che un dispositivo di comunicazione venne utilizzato nella sfera privata per il divertimento e l’intrattenimento delle persone. Al cambiamento nel quadro tecnologico, dovuto all’introduzione di strumenti di produzione di massa, dovette inevitabilmente corrispondere un netto mutamento negli usi e nelle abitudini. Già nel 1890 diverse società americane cominciarono ad utilizzarlo come strumento per la diffusione di sottofondi musicali nei luoghi pubblici. Il motivo per cui Edison sottovalutò l’aspetto consumer del fonografo fu probabilmente l’ambiente e l’epoca in cui visse. Egli fu influenzato dalle precedenti innovazioni su cui si era concentrato lo sviluppo (telegrafo e telefono) e che avevano trovato successo nell’ambito business. L’interesse dei consumatori verso i recenti apparecchi d’intrattenimento era lento ma deciso e la possibilità di poter ascoltare musica nelle proprie abitazioni era un attraente richiamo; già il pianoforte, infatti, era parte integrante dell’ambiente domestico ritenuto strumento di svago ma soprattutto simbolo di appartenenza sociale. L’introduzione del grammofono nelle case ebbe conseguenze sconvolgenti: trovato l’uso più appagante, i consumatori scoprirono una sensazione della loro vita che era rimasta per molto tempo inesplorata; il grammofono rispose ad un bisogno che si era creato in quegli anni, cresciuto silenziosamente ed esploso con fragore in un unico istante. L’impiego domestico scatenò l’esigenza di strutture e strumenti di svago e portò al compimento il processo di creazione di una 10 mentalità del “tempo libero” come un momento da dedicare all’evasione dalla vita quotidiana. Il grammofono fu anche considerato il simbolo della diffusione della musica jazz in tutti gli strati della società, elevandola, di fatto, a “musica colta” in contrapposizione a quella che fu la sua vera origine. Il bisogno crescente d’intrattenimento unito alle nuove forme musicali produrrà in seguito la nascita e la diffusione della danza. Figura 4. Esemplare di grammfono del 1920 11 1.3 La rivoluzione elettrica e l’avvento della radio Nonostante le prime ipotesi sulla presenza di fenomeni fisici legati all’elettricità apparvero già nell’antica Grecia, fu soltanto tra il XIX e il XX secolo che gli studi giunsero a delle applicazioni concrete. Determinante, fu la scoperta della correlazione tra elettricità e magnetismo ipotizzata dal fisico danese Hans Christian Ørsted. In seguito il britannico Michael Faraday, il francese André-Marie Ampere e lo scozzese James Clerk Maxwell, tramite i loro trattati, dettero un apporto sostanziale allo sviluppo della nuova forma di energia. Fu una vera e propria rivoluzione. L’elettricità rimpiazzò buona parte dei vecchi sistemi energetici favorendo uno spunto che coinvolse settori come l’industria, le comunicazioni e i trasporti contribuendo notevolmente a migliorare la qualità della vita. È in questo periodo, infatti, che l’interesse verso la possibilità di telecomunicare1 si intensifica: invenzioni come il telegrafo e il telefono gettano le basi per quel processo di trasformazione della struttura produttiva che si estenderà per tutto il secolo. Inizialmente concepito per la diffusione della voce umana attraverso il telefono, il microfono diverrà uno strumento rilevante anche per la futura tecnologia di registrazione. I primi esemplari furono i modelli cosiddetti a carbone, poiché il loro principio di funzionamento era basato sulla vibrazione di due contatti, appunto in carbone, che sfruttando una variazione di pressione e tramite una resistenza, generavano una corrente ai due elettrodi posti alle loro estremità. La paternità si 1 La telecomunicazione è l’attività di comunicare a distanza per mezzo di dispositivi e/o infrastrutture implementanti particolari tecniche di trasferimento dell’informazione. 2 Con il termine mica si definisce una serie di minerali allumino-silicati complessi, i cui cristalli tendono a 12 deve al già noto Emile Berliner sebbene la Corte Suprema degli Stati Uniti d’America, nel 1892, designò ufficialmente Thomas Edison come proprietario del brevetto. Figura 5. Emile Berliner e il primo microfono a carbone Di estrema importanza per lo sviluppo definitivo del microfono (e non solo) fu l’introduzione della valvola termoionica. Strutturalmente simile alla lampadina a incandescenza, tale valvola permetteva, grazie ad una fonte esterna di energia, l’amplificazione del segnale in ingresso. Fu il primo componente elettronico “attivo” realizzato dall’uomo. 13 Se fino ad allora, gli apparecchi di registrazione avevano utilizzato diaframmi in mica2 capaci di restituire un intervallo variabile tra le 350 e le 3000 vibrazioni al secondo, l’avvento dei nuovi sistemi consentì l’estensione dello spettro da 100 a 5000 vibrazioni al secondo, rendendo il suono estremamente più chiaro all’orecchio umano. Gli studi su elettricità e magnetismo decretarono, di lì a poco, un’ulteriore vittoria: la comunicazione senza fili. Riprendendo un’osservazione di Nicola Tesla, il bolognese Guglielmo Marconi, intuì che le onde elettromagnetiche potevano essere utilizzate per trasmettere messaggi a distanza, senza collegamento. l’ausilio Ignorato di dal cavi di ministero italiano competente, nel 1896 Marconi fu costretto a recarsi in Inghilterra sia per Figura 6. Valvola termoionica del 1904 brevettare il suo sistema, sia per garantirsi le condizioni migliori per il prosieguo delle sue ricerche. Sostenuto dal governo inglese, rese la radiotelegrafia una realtà con trasmissioni che coprirono distanze sempre maggiori arrivando, il 12 dicembre 1901, a compiere il grande salto: riuscì a trasmettere e a ricevere la prima emissione attraverso l’oceano Atlantico. Anche in questo caso un’invenzione moderna non è solo frutto del genio individuale ma il collegamento di più scoperte operate da più persone. L’inventore 2 Con il termine mica si definisce una serie di minerali allumino-silicati complessi, i cui cristalli tendono a delaminarsi su una superficie, provocandone la tipica struttura a scaglie. La mica possiede notevoli proprietà termiche e chimiche, ragion per cui viene spesso utilizzata in ambito industriale. È stata usata per la realizzazione di diaframmi contenuti nelle testine dei grammofoni. 14 moderno è, infatti, una figura diversa da quella del secolo scorso: non un artigiano o un teorico ma quasi un manager, un imprenditore poiché la capacità di trovare l’utilità migliore prevale sulla realizzazione tecnica dell’oggetto. Per questo, ciò che più di tutto rende difficile l’attribuzione della scoperta dell’apparecchio radiofonico a Marconi, sta nel fatto che, come Edison per il fonografo, non fu in grado di intuire le potenzialità della sua creazione. Figura 7. Guglielmo Marconi e il primo prototipo di radio Marconi non comprese che inconsapevolmente aveva creato un apparecchio per la comunicazione di massa, cioè capace di diffondere un messaggio a moltissimi riceventi. Egli, infatti, cercò per anni di eliminare quello che considerava il “difetto” della sua invenzione: non poter effettuare trasmissioni sicure da punto a punto, volendo pertanto eliminare il broadcasting. Dopo aver fondato la Marconi Company con finalità di ricerca e produzione nel campo dell’ingegneria elettronica, lo stesso Marconi mirò all’espansione, sottovalutando però le difficoltà di ordine burocratico e tecnico. L’idea era quella di monopolizzare il suo prodotto in tutti gli stati in cui era diffuso, cosa che 15 indusse paesi come Francia e Germania a sviluppare brevetti alternativi per le loro comunicazioni radio evitando così il pagamento degli oneri. Conseguenza di ciò fu la creazione di standard nazionali rendendo impossibile la corrispondenza tra nazioni diverse. Sarà solo più tardi, con l’avvento della Prima Guerra Mondiale, che si ricorrerà ad uno standard internazionale per la comunicazione radio. Ben presto l’assetto radiofonico trovò una regolamentazione, cosicché si formarono due principali modelli: quello inglese caratterizzato dal controllo statale dell’emittenza e quello americano che, al contrario, favoriva la libera concorrenza (con l’obiettivo di escludere Marconi). Negli Stati Uniti c’era molta enfasi intorno al concetto che chiunque potesse costruirsi il proprio baracchino e diffondere messaggi in piena libertà senza pagare tasse o canoni, così alla nascita della KDKA, prima emittente ufficiale e professionale, molti esemplari di radio erano già presenti sul territorio. Figura fondamentale del periodo fu David Sarnoff, un russo emigrato negli Stati Uniti, operatore telegrafico nell’azienda di Marconi, divenuto famoso per aver intercettato le comunicazioni di soccorso del Titanic mentre questo affondava, il quale, nel 1916, elaborò quella che venne definita la sua “profezia” ovvero la realizzazione di un modello di radio con un utilizzo che all’epoca sembrava impensabile. Egli scriveva: Ho in mente un piano di sviluppo che farebbe della radio un apparecchio d’uso domestico, come lo sono il grammofono o il pianoforte. L’idea è di portare nelle case la musica attraverso la radio. Il ricevitore può avere la forma di una semplice music box ed essere in grado di ricevere un certo numero di lunghezze d’onda diverse con la possibilità di cambiare azionando semplicemente un interruttore o premendo un bottone. La scatola musicale avrà un amplificatore o un altoparlante telefonico incorporato. Eventi d’importanza nazionale potranno essere ricevuti in contemporanea. Si potranno trasmettere le partite di baseball installando un apparecchio allo stadio. Questa soluzione è particolarmente interessante per 16 i contadini e per chi vive fuori città. Acquistando una radio music box, essi potrebbero ascoltare concerti, letture, musica e recital.3 Poco tempo dopo uscì sul mercato la Radio Music Box. Non fu progettata per essere uno strumento utile ai professionisti ma un mezzo per l’ambiente familiare, molto curata nei particolari per potersi integrare con stile nell’arredamento casalingo. Interessante fu come la musica fece da propaganda per la diffusione in larga scala dell’apparecchio: un’inversione di soggetto rispetto a quello che accadrà in seguito. Figura 8. David Sarnoff nel 1930 Fino alla metà dell’800 la musica era stata qualcosa di elitario che girava nei circoli culturali, nei salotti buoni per persone facoltose, mentre alla “gente comune” rimaneva la musica popolare che veniva tramandata ed eseguita in pubblico. La radio, di fatto, abolì questo privilegio sociale creando così 3 Cfr. in: G.L. Archer (1938) 17 l’opportunità di beneficiarne senza nessuna limitazione e comodamente nella propria abitazione. L’azione che la musica intraprende per la diffusione dell’apparecchio radiofonico si riflette sulla musica stessa tramutandola da forma d’arte straordinaria e raffinata in qualcosa di quotidiano, obbligata a soddisfare anche individui meno colti. La radio ebbe un grande sviluppo tra le due guerre trovando un tacito accordo col cinema. A quest’ultimo venne riconosciuto il monopolio dello spettacolo visivo e il dominio nella sfera pubblica; la radio si occupava invece dello spettacolo sonoro e dell’intimità nell’ambito privato. Sarà il cinema sonoro a rompere questo patto non scritto e violare il territorio della radio con il film “The jazz singer” del 1927. Il secondo conflitto però esaltò nuovamente il ruolo della radio: fu uno strumento efficace e allo stesso tempo indispensabile per le comunicazioni tra soldati o alla popolazione. A pace avvenuta si crearono condizioni minime di benessere che favorirono la diffusione di radio e televisori. Figura 9. Radio utilizzata dalle truppe americane durante la Seconda Guerra Mondiale 18 Figura 10. L’importanza della radio nella vita domestica Grazie anche all’invenzione del transistor da parte dei laboratori Bell, nel 1948, la radio si miniaturizza e, fornita di pile, diventa anche trasportabile; in un secondo tempo, troverà posto anche all’interno delle autovetture divenendo compagno insostituibile nella vita quotidiana di ogni persona. All’inizio la radio venne accolta con scetticismo nell'ambiente dello spettacolo e, in particolare, in quello musicale. Ne fu esempio il “memorabile rifiuto” del più celebre direttore d’orchestra della prima metà del Novecento, Arturo Toscanini, il quale, in un primo momento, non accettò che le sue esecuzioni fossero trasmesse dalla radio. Il caso, e l’evoluzione tecnologica, vollero che, pochi anni dopo, proprio Toscanini finisse per diventare il musicista più conosciuto al mondo proprio grazie alle trasmissioni radiofoniche. Nel 1937, infatti, fu posto alla direzione di un’orchestra, creata appositamente per lui dall’emittente NBC 19 (National Broadcasting Company) di New York, che lo fece conoscere a un pubblico vastissimo e composto non solo da appassionati. Ciò nonostante, Toscanini mantenne sempre un atteggiamento critico nei confronti della musica trasmessa o riprodotta sul disco. Questo si spiega soprattutto con la sua biografia: nato nel 1867, la concezione della musica era legata in modo indissolubile a quella esperienza dal vivo che nessun strumento tecnologico avrebbe mai potuto sostituire. Ben diverso, ovviamente, fu l’atteggiamento delle generazioni di musicisti che nacquero quando la musica riprodotta o trasmessa attraverso la radio iniziava ad avere un ruolo di primaria importanza. Il caso più emblematico fu quello del pianista canadese Glenn Gould, deciso assertore della performance in studio e, in linea con questa convinzione. Nel 1964 decise di rinunciare all’esibizione dal vivo per dedicarsi in modo esclusivo alla musica registrata, considerando la registrazione un vero e proprio atto interpretativo capace di conferire qualcosa di nuovo e di diverso alla musica. In quel contesto, lo studio di registrazione iniziava a essere considerato come una sorta di strumento innovativo al servizio della musica. L’esempio più noto di questa tendenza è rappresentato dai Beatles, che al culmine del loro successo, decisero di abbandonare l’esecuzione dal vivo scegliendo il disco come mezzo di espressione più originale e autentico. 1.4 Dal 78 giri al microsolco in vinile Nel periodo tra le due guerre mondiali, vi fu una forte crescita di aziende operanti nel settore musicale, sia nella produzione di apparecchi, sia come primitive case discografiche. Le due più importanti furono la Victor Talking Machine Company, che rilevò la Berliner Gramophon e la Columbia Phonograph. 20 Emile Berliner, che per primo concepì il disco a piastra circolare, stabilì la velocità di rotazione intorno ai 70 giri al minuto; tuttavia, a distanza di anni, non era ancora stato creato uno standard univoco che regolava i supporti musicali provocando così un disagio non indifferente ai consumatori, ma anche ai produttori. Fu solo nel 1925 che si raggiunse l’accordo per la standardizzazione della velocità che venne fissata a 78 giri al minuto (anche se in America differiva leggermente dal resto del mondo: 78,26 contro 77,92). In seguito la velocità nominale ha dato origine al soprannome del supporto, ovvero il 78 giri. I dischi erano fatti inizialmente in lamina di metallo ricoperta di gommalacca, con diametro di 10 pollici, estremamente fragili con una capacità di circa 3 minuti (poco più tardi la Columbia introdusse, con i double disc record, la possibilità di registrare sui due lati del disco aumentando così la durata a 6 minuti). Le prime tecniche d’incisione non prevedevano l’ausilio dei nuovi strumenti Figura 11. Pubblicità del double disc record elettrici come microfoni e amplificatori ma sfruttavano il vecchio sistema meccanico utilizzato da Berliner con il grammofono. È il 1931 quando la RCA-Victor presenta il primo microsolco a 33 giri, la cui diffusione effettiva comincerà tuttavia diversi anni più tardi, per affermarsi stabilmente solo nella seconda metà del Novecento. Inizialmente era un 78 giri con dimensioni aumentate a 12 pollici e velocità di rotazione ridotta a 33 ⅓ giri al minuto garantendo, in questo modo, un tempo di registrazione di quasi 30 minuti per lato (per questo motivo fu battezzato anche Long Playing). 21 Figura 12. Intrattenimento domestico con il disco LP La principale caratteristica che ha permesso un incremento della durata sta nell’adozione della tecnica chiamata “passo variabile”. Questo processo consisteva nel variare lo spazio tra le spire del solco in funzione delle modulazioni del suono invece di mantenerle costanti come succedeva in precedenza, permettendo in tal modo un utilizzo più efficiente della superficie del disco. In pratica, in presenza di una modulazione molto forte, il tracciato del solco si allargava mentre, nel caso contrario, quando le modulazioni erano più deboli, il tracciato risultava rettilineo. Tra i perfezionamenti subiti dal disco, alla ricerca di una sempre maggiore fedeltà, l’utilizzo del nuovo materiale, il cloruro di polivinile, rappresenta un punto determinante. La sua struttura molecolare permette l’attenuazione del rumore di fondo aumentando la gamma dinamica sonora e nel contempo permette 22 l’incisione di un solco più sottile, caratteristica che abbinata alle nuove tecniche di registrazione ha portato alla crescita dello spettro riproducibile. Ma come si è arrivati a trovare il giusto compromesso tra praticità e qualità? Certo mantenendo un diametro di 12 pollici i 33 ⅓ giri al minuto non sono casuali: la riduzione al di sotto di questa soglia comporterebbe una diminuzione della velocità lineare (cioè la quantità di superficie letta dalla puntina ad ogni giro del disco) tale da compromettere la qualità del suono, in modo particolare quando ci si avvicina al centro del disco. In effetti, il tratto percorso dalla puntina nel bordo esterno del disco è poco più di 90 centimetri, mentre al centro di soli 35, dunque mantenendo costante la velocità angolare a 33 ⅓ giri al minuto, la velocità lineare varia dai 50 centimetri al secondo all’esterno a meno di 20 centimetri al secondo al centro. Questo implica la necessità di custodire la stessa quantità di informazioni nel minor spazio possibile, per questo il diametro dell’ultima spira non deve essere inferiore ai 10,6 centimetri, causa una drastica perdita nella qualità del segnale. Nel 1945 la Columbia Records introdusse negli Stati Uniti il formato 45 giri, affiancando sul mercato l’affermato 78 giri. Come materiale venne utilizzato il già collaudato PVC (polivinilcloruro) mentre la dimensione si ridusse a 7 pollici, migliorando l’aspetto pratico del supporto. Furono stampati generalmente su entrambi i lati e potevano contenere due brani, ciascuno della durata massima di circa 4 minuti: la loro funzione fu probabilmente quella di occuparsi della promozione dei cosiddetti “singoli” destinati soprattutto all’ambiente radiofonico. Infatti, il 45 giri, non fu soltanto un disco: fu anche il simbolo di un periodo, la proiezione di un’epoca e soprattutto un modo ben preciso di fruire la musica, in linea con l’affermazione sempre più estesa della “musica di plastica”, ossia la musica leggera, le canzoni veloci usa e getta, l’effimero successo dell’estate. 23 Figura 13. Player 45 giri della RCA Victor del 1949 É il momento storico in cui il business discografico compie il grande balzo in avanti: l’ordine di grandezza delle vendite passa da migliaia a milioni con produzioni “ad hoc” per venire incontro alle esigenze culturali e di svago di tutte le fasce sociali. Indirettamente, ciò ha un effetto tellurico sulla storia della musica popolare: inizia il monopolio delle grandi case indirizzando l’aspetto musicale verso un comportamento “economicistico”. In questo senso, le “major”, tentano di dirottare i gusti del pubblico verso il proprio interesse proponendo produzioni facili e, nel contempo, accessibili a tutti. 24 1.5 Nastro magnetico: scissione tra produzione e riproduzione Mentre i primi grammofoni, come anche i fonografi, erano concepiti sia per la registrazione sia per la riproduzione, con le nuove tecniche e la continua ricerca verso una maggiore fedeltà nel prodotto discografico, si viene a creare la netta distinzione tra le macchine per l’incisione e gli apparecchi per la lettura del supporto. È in questo periodo musicalmente e tecnologicamente fertile che nascono i primi studi di registrazione, su tutti i famosissimi Abbey Road Studios di Londra, inaugurati il 12 novembre 1931 con la storica registrazione, condotta da Sir Edward Elgar nello Studio 1, di Land of Hope and Glory suonata dalla London Symphony Orchestra. Abbiamo descritto come già il microfono e la valvola termoionica abbiano gettato le basi per la nuova era tecnologica nell’avvento della radio. Altrettanto importante fu la costruzione del primo altoparlante a bobina mobile, il Magnavox Loudspeaker, per mano di Edwin Pridham e Peter Jensen, la cui prima dimostrazione pubblica avvenne il 10 dicembre 1915 al Golden Gate Park di San Francisco. In realtà, però, fu il Phonetron, il primo altoparlante dinamico ad essere messo in commercio negli Stati Uniti, trovando largo impiego nei ricevitori da tavolo, rimpiazzando definitivamente la storica tromba. Nei primi anni 20 si affacciano sul mercato i primi dischi registrati con strumentazione elettrica della Western Electric e, nello stesso anno, la Warner Bros collabora con Walter J. Rich alla creazione del Vitaphone, il sistema che rivoluzionò il sonoro nella cinematografia. 25 La grande innovazione, però, fu la registrazione di impulsi elettromagnetici. I primi esperimenti risalgono al 1898, quando un ingegnere elettrico danese, Vademar Poulsen, intuì che esisteva la possibilità di incidere, su una sottilissima bava d’acciaio, le pulsazioni generate da una bobina magnetizzata. Tuttavia, fu solo nel 1927 che venne rilasciato il primo brevetto per un apparecchio Figura 14. Vitafono capace di registrare su supporto magnetico. Nel 1928, anche BASF e AEG, due compagnie tedesche, stavano lavorando insieme per sviluppare il progetto di Fritz Pfleumer che illustrava la possibilità di utilizzare polvere magnetica su supporti di plastica e carta; il risultato fu il magnetofono, uno dei primi esempi di registratore che impiegava come supporto un nastro magnetico. Il principio di funzionamento prevedeva la raccolta del segnale tramite un microfono che, modulando una corrente elettrica, variava il flusso di un’elettrocalamita, detta testina di registrazione, aderente alla quale scorreva un filo o un nastro che si magnetizzava in rapporto al flusso, conservando tale magnetizzazione. Questo nuovo apparecchio si dimostrò subito più efficace del vecchio sistema, tanto da divenire ben presto uno standard per le registrazioni radiofoniche nella Germania nazista. 26 Figura 15. Magnetofono AEG del 1935 Durante la Seconda Guerra Mondiale le truppe tedesche, disponevano di apparecchi di registrazione all’avanguardia, che solo a conflitto terminato furono individuate dalle forze alleate. In carica all’esercito americano, Jack Mullin fu il primo a scoprirle e renderle note anche oltre oceano. Mullin lavorò intensamente, nel corso degli anni successivi, puntando al miglioramento degli apparecchi, prestando particolare attenzione all’utilità che questi potessero avere nella sonorizzazione dei film. Fu durante una dimostrazione pubblica sulle potenzialità del nastro magnetico, che il direttore tecnico di Bing Crosby, noto cantante e presentatore radiofonico statunitense, si interessò all’apparecchio di Mullin, chiedendogli di preparare una sessione di prova della trasmissione utilizzando il suo dispositivo. Fu subito un 27 successo tanto che l’emittente ABC consentì a Crosby di pre-registrare su nastro il programma The Bing Crosby Show, uno dei più popolari negli Stati Uniti. Crosby investì un’ingente somma per finanziare la costruzione di registratori a nastro, commissionando la Ampex, che già riforniva gli studi della ABC con il modello mondiale 200A, nella elevandola leader fabbricazione di strumenti di registrazione a bobina. Crosby, quindi, passò alla storia come pioniere della messa in onda in differita, Figura 16. Jack Mullin negli studi della ABC con l'Ampex 200A ma non tanto per motivazioni di ordine tecnologico o per spirito di innovazione, ma per esigenze personali: egli, infatti, preferiva giocare a golf nell’orario in cui era fissata la diretta del suo show. Incurante della componente tecnologica, Crosby, aveva una ben chiara percezione di come il registratore potesse conciliare utile e dilettevole in maniera simultanea. Per anni il magnetofono è rimasto un apparecchio impiegato esclusivamente nell’ambito professionale come studi di registrazione, radiofonici e televisivi, mentre il disco in vinile persisteva incolume come supporto per l’uso consumer, anche se ormai i tempi erano maturi per l’indirizzamento del nastro anche verso questa rotta. 28 1.6 Stereofonia, musicassetta e Walkman Il principio della stereofonia si basa sull’analisi psicoacustica che descrive come l’essere umano riesce ad individuare la provenienza di un suono dalla differenza di tempo e di intensità che intercorre tra la sorgente sonora e i padiglioni auricolari. Detto ciò, qualcuno pensò intelligentemente di applicare questo principio anche alla registrazione e alla diffusione della musica. Già nel 1881, Clément Ader, un ingegnere elettrico francese, presentò all’Esposizione Internazionale di Parigi il tèâtrophone, un sistema che permetteva il collegamento audio dell’Opéra con degli apparecchi telefonici posti anche a distanza di chilometri così da permettere l’ascolto remoto dello spettacolo. Figura 17. Raffigurazione del sistema Teatrophone 29 Una serie di microfoni posti sul palcoscenico, consentivano di ottenere una sorta di stereo binaurale. L’impianto, infatti, richiedeva ben tre linee telefoniche per funzionare: una per il trasmettitore destro, una per il sinistro e una per la comunicazione con l’operatore del centralino. Il tèâtrophone, veniva installato negli hotel, nelle caffetterie, nei club e altri luoghi di incontro pubblico, Includeva un servizio di fonogiornale che trasmetteva a intervalli regolari, notiziari della durata di cinque minuti. Questo sistema ebbe una buona diffusione in Europa e persistette fino all’avvento della radio. Figura 18. Alan Blumlein in una sala d'incisione La consacrazione della stereofonia arrivò nel 1931 quando l’ingegnere inglese Alan Blumlein, impiegato alla EMI, sviluppò la tecnica del “suono binaurale”. La storia narra che Blumlein fosse al cinema con la moglie, quando sollevò le sue perplessità sulla diffusione del sonoro, annunciandole, poco più tardi, di avere la 30 soluzione per porre rimedio a quello che definiva “un problema”. Infatti, le sue ricerche, si concentrarono principalmente sull’ambiente cinematografico, cercando di costruire la spazializzazione del suono in funzione dell’immagine sullo schermo. La soluzione fu semplice: registrare con una coppia di microfoni e riprodurre con altrettanti altoparlanti, ottenendo così due simultanee ma separate immagini sonore. Con opportuni trattamenti si ottenne la possibilità di conferire una giusta locazione panoramica a rumori di sottofondo, dialoghi e musiche. Il primo film distribuito commercialmente con una colonna stereo fu Fantasia di Walt Disney, uscito nel 1940 utilizzando il “Fantasound” sound system. Questo sistema si avvaleva di una pellicola a parte per il sonoro, che scorreva in sincronismo con la pellicola che portava la fotografia; esso comprendeva quattro tracce ottiche a doppia larghezza: tre avevano inciso rispettivamente canale destro, sinistro e centrale, mentre la quarta era un brano di “controllo” delegato alla gestione dei tre canali audio. Nonostante il lavoro stesse riscuotendo notevoli risultati, soprattutto nel cinema, la EMI era preoccupata per l’utilizzo nella sfera commerciale: la scarsa disponibilità economica dell’epoca non avrebbe di certo attirato gli acquirenti verso apparecchi che, implementando la nuova struttura stereofonica, sarebbero risultati troppo costosi. Fu anche per questo che la stereofonia temporeggiò la sua diffusione nell’industria discografica, settore nella quale prese il sopravvento soltanto verso la fine degli anni Cinquanta. Uno dei primi prodotti stereo ad essere commercializzati fu il Bel Canto Stereo Demonstration, un disco in vinile multicolore traslucido contenente delle dimostrazioni panoramiche effettuate durante una giornata a Los Angeles con la narrazione di Jack Wagner. 31 Figura 19. Il Bel Canto Stereo Demonstration disc All’inizio degli anni Sessanta vi erano tutti i presupposti per l’introduzione di un nuovo e rivoluzionario supporto musicale, frutto della recente scoperta del nastro magnetico nell’ambiente di registrazione. È il 1963 quando il colosso olandese Philips presenta la compact cassette al Radio Show di Berlino. In realtà ci fu un precedente tentativo da parte della RCA datato 1958 con la commercializzazione della cosiddetta cartuccia RCA, ma il risultato non fu quello sperato probabilmente a causa dei costi o per lo scetticismo dei consumatori che all’epoca preferivano acquistare i vecchi e collaudati vinili 33 e 45 giri. 32 Figura 20. Philips compact cassette C-90 La cassetta Philips era costituita da un guscio di materiale plastico dove, all’interno, scorreva il nastro magnetico che conteneva l’informazione sonora su quattro tracce suddivise in due stereo per lato. La lunghezza del nastro veniva solitamente espressa in minuti, indicando la durata complessiva della riproduzione considerando entrambi i lati: i più diffusi erano il C64 (23 minuti per lato), C60 (30 minuti per lato), C70, C74, C90 e C120. I punti di forza del nuovo supporto, però, erano altri: l’audiocassetta era più compatta e più resistente del disco in vinile ma soprattutto consentiva, per la prima volta, l’incisione domestica. Era possibile registrare la propria voce, i rumori di un ambiente, i pezzi preferiti trasmessi dalla radio, creandosi delle vere e proprie compilation4 secondo i gusti musicali di ciascuno. Nella cassetta, a differenza del disco, erano presenti le due funzioni fondamentali che sono alla base di qualsiasi sistema comunicativo: la lettura e la scrittura. 4 Una compilation è una successione di brani di uno o più artisti, prelevati da pubblicazioni differenti e riunite nella stessa. 33 Figura 21. Cassetta Stereo 8 Dopo vari tentativi, nel 1966, Motorola, su commissione della Ford Motor Company, realizzò un progetto che inscatolava in una speciale “cartuccia” un nastro magnetico a otto tracce. Nasceva così la cassetta Stereo8, un po’ più ingombrante di un pacchetto di sigarette, ma maneggevole anche nei luoghi più disagiati, come l’abitacolo di una vettura in movimento. La mossa vincente della Philips fu quella di concedere in licenza il brevetto ad un numero elevato di produttori, soprattutto giapponesi, come Sony e Matsushita, che inserirono i magnetofoni nei nuovi sistemi di home entertainment. Da questo momento in avanti la storia della cassetta è lunga e avvincente e segnata dalla concorrenza con il supporto disco. L’esito di questa competizione fu una convivenza più o meno pacifica: il disco rimaneva sovrano per l’attitudine che dimostrava nella qualità d’ascolto, mentre la cassetta si proponeva come prodotto più versatile nelle situazioni più contingenti, non a caso diverrà successivamente il supporto per eccellenza dei sistemi portatili. 34 La pietra miliare a tal proposito fu posta dall’invenzione del Walkman, introdotto nel 1979 dalla Sony. Fu il primo apparecchio portatile pensato per l’utilizzo esclusivo del singolo individuo. Il primo modello commercializzato fu il TPS-L2, di colore blu-argento, disponibile in Giappone dal mese di luglio 1979. Nel Regno Unito il prodotto è stato lanciato in un locale di Londra, Il Regines, con il nome di Sony Stowaway, mentre negli Stati Uniti col nome Sony Soundabout. Figura 22. Sony Walkman del 1979 Con la sua sola presenza, il Walkman, ha causato il ripensamento dell’intera industria produttiva musicale e, più di tutto, ha causato mutamenti di ordine sociale offrendo un ulteriore strumento alle nuove generazioni (tendenzialmente i 35 maggiori consumatori di musica) per distinguersi e isolarsi, costruendo sempre più una cultura del privato, immagine che non a caso la Sony ha utilizzato per promuovere l’oggetto. L’opportunità di coprire luoghi dove prima era impensabile poter ascoltare musica, come ad esempio i luoghi pubblici, era uno dei suoi punti di forza e con la sua introduzione sul mercato ebbe inizio la rimonta della cassetta sul disco in vinile. La prova della sua importanza si manifesta con la mole di studi socio-culturali di cui è stato oggetto, poiché proprio in virtù del suo status di tipico artefatto culturale, lo studio della sua storia può offrire la possibilità di comprendere come abbia giocato un ruolo fondamentale nella cultura della musica e della società. Si parla di un oggetto che è stato riempito di significati poiché padroneggiato da un certo segmento di consumatori, infatti, i significati come gli usi non sono inscritti negli oggetti ma costruiti e prodotti attraverso pratiche culturali. Figura 23. Pubblicità Sony Walkman 36 Il Walkman è stato il primo medium concepito per l’uomo moderno, lo strumento che mette in scena l’isolamento e l’esistenza di un universo personale immerso in quello comunitario. Chi sia stato l’inventore del Walkman all’interno della Sony è oggetto di pareri contrastanti. Diverse fonti attribuiscono la sua ideazione a Akio Morita altri, invece, accostano l’invenzione a Matsura Ibuka rispettivamente fondatore e presidente onorario della società nipponica. Mentre regna l’incertezza sul protagonista della vicenda, è ben noto il motivo che portò alla nascita dell’apparecchio: la crisi del mercato dei registratori per audiocassette, che costrinse la Sony a produrre un sistema d’ascolto rivoluzionario, più appetibile, concentrando gli sforzi sulla portabilità. Oltre a tutto ciò, il Walkman, poiché definito oggetto simbolo della nuova generazione orientata all’isolamento, è stato anche definito “perturbatore dell’equilibrio sociale”. Furono in molti, infatti, a qualificare il sistema come superfluo. Come sostiene Jean Baudrillard, la cultura materialista non ha come valore primario l’uso ma l’identità: il consumo di cultura materiale non è importante per la soddisfazione che può generare ma per l’attività di differenziatore socio-culturale che possiede, comportandosi quindi come un comunicatore.5 Il consumo è un sistema di significati che funziona come un linguaggio, da questo ne discende che i bisogni non sono individuali ma culturali. Anche Alberto Abruzzese ha affermato che uno degli elementi fondamentali per comprendere il Walkman è il suo legame con la musica rock e quindi con la cultura metropolitana. 6 Esso è stato anche parte del processo di saturazione spaziale, infatti, dopo quello domestico e quello dell’automobile, ha permesso 5 Baudrillard (1988) 6 A. Abruzzese “L’immaginario individuale” (1990) 37 l’estensione delle reti comunicative a tutti i tempi e luoghi possibili, simboleggiando la rinnovata multimedialità dell’attore sociale. 38 2 IL PERIODO DIGITALE 2.1 La smaterializzazione della musica Negli ultimi anni è cresciuto il predominio della tecnologia digitale nella musica, nel settore professionale come nell’amatoriale. Il personal computer, sempre più potente, amichevole ed economico, viene dotato di periferiche e programmi specifici e diventa il nuovo "strumento musicale" in grado di assistere il musicista nello svolgimento delle più svariate attività: dalla ricerca astratta alla produzione commerciale. Il termine musica elettronica che fino alla fine degli anni settanta identificava un settore della musica contemporanea con precisi ambiti linguistici ed estetici, con l’avvento degli anni ottanta perde progressivamente questa identità per assumere un significato di pura connotazione tecnica, data l’ampia diffusione del mezzo informatico in tutti i generi musicali. Allo stato moderno la musica, in qualità di fortissimo catalizzatore delle attenzioni e dei desideri umani, si sta ponendo come pioniere di nuovi assetti tecnologici. E' chiaro già da tempo, come le nuove tecnologie digitali abbiano continuato il processo di atomizzazione della musica iniziato con l'audiocassetta (quando i singoli brani cominciavano ad essere svincolati dagli album grazie all'opera degli utenti) e ne abbiano iniziato uno nuovo: quello della smaterializzazione. I contenuti della musica, dunque, hanno cominciato a diventare immateriali, cioè dei dati transitabili da un supporto ad un altro. 39 Con il termine musica liquida7 si contraddistingue il processo di svincolamento dei brani dal supporto fisico, della musica che viaggia da computer alla rete e viceversa per finire su lettori portatili, telefoni cellulari o altri computer ancora, musica che viene acquistata o scambiata senza finire su supporti fisici, ma rimanendo un'entità astratta legata unicamente al nome del file. Questo processo di smaterializzazione ha come corollario una proliferazione di mezzi di riproduzione e mette in risalto come la tecnologia digitale rompa il binomio classico servizio/piattaforma fisica. Per la musica digitale (proprio per la sua essenza binaria) non esiste un meccanismo di riproduzione standard: i dati musicali viaggiano da dispositivo a dispositivo, anche se il computer rimane il punto di raccordo in questo fitto reticolo tecnologico. La musica liquida cerca un posizionamento nel mondo reale e il computer costituisce solo un tramite. I file scambiati o scaricati generalmente sostano sul disco rigido del computer per finire su lettori portatili o di nuovo su CD. Sempre più i singoli dispositivi, dai telefoni cellulari ai lettori mp3, tentano di liberarsi dal legame con il computer per essere totalmente autonomi nel rifornirsi di musica, grazie anche alla possibilità di connettersi alla rete tramite i sistemi wireless. Tutte le principali tecnologie nel passaggio dall'analogico al digitale si liberano dai supporti fisici e quindi dai vincoli che li legano a determinati dispositivi, è la legge del digitale, linguaggio universale delle nuove tecnologie in grado di funzionare su una molteplicità di piattaforme. Quella della “musica liquida” è una delle metafore più utilizzate per leggere l’evoluzione digitale dei suoni. Questa metafora ha forti analogie con quella della “modernità liquida” elaborata da Zygmunt Bauman: la società, in questa fase storica, sta passando da modelli solidi e hardware, con relazioni ben codificate, a modelli fluidi e software, con relazioni più indefinite tra gli individui. Allo stesso modo, la musica liquida è contrassegnata dall’indebolimento della sua istituzione centrale, la discografia, e dall’emergere di una nuova rete di attori industriali, di relazioni sociali (le comunità on line di ascoltatori e fan) che accedono alla musica attraverso i nuovi canali telematici, “navigando” in un mare di suoni. 7 40 2.2 La digitalizzazione e il suo primo supporto: il Compact Disc In campo musicale, la digitalizzazione consiste nello spezzettare un’onda sonora continua in tante parti minuscole (campionamento), trasformando quindi un segnale analogico e continuo nelle unità discrete del linguaggio binario, ovvero in una serie di 0 e 1. Questo processo avviene tramite l’ADC (Analogue to Digital Converter), che ha il compito di prelevare “campioni” dalle infinitesimali porzioni dell’onda sonora analogica. Il numero dei campioni prelevati in un intervallo temporale viene detto frequenza di campionamento. La profondità (bit depth), invece, è il parametro con cui si misurano le sequenze di 0 e 1 che rappresentano l’informazione sonora, e quindi l’accuratezza del campionamento. Più alto è il numero di bit, maggiore è la quantità di numeri che rappresentano l’onda sonora e quindi la fedeltà della conversione. Il suono digitale viene riprodotto tramite un DAC (Digital to Analogue Converter), che produce tensioni elettriche proporzionali ai campioni digitali, secondo la frequenza utilizzata. I registratori digitali, rispetto ai sistemi analogici, consentono dei sostanziali accorgimenti, quali: • L’eliminazione del rumore di fondo tipico delle registrazioni a nastro analogiche; • Una riproducibilità del segnale sempre ottimale, poiché ogni copia del sonoro digitale è un’esatta copia della sequenza di numeri, quindi virtualmente identica alla prima (il cosiddetto “master”); • Una maggiore versatilità in termini di editing e montaggio. 41 Da questo punto di vista, è fondamentale il passaggio dalla registrazione a nastro a quella su hard disk. Quest’ultimo diventa un archivio potenzialmente enorme di informazioni sonore manipolabili in modo virtuale all’infinito con la stessa qualità di partenza, laddove sovraincidere su nastro significava perdere una parte del segnale originario. Fondamentalmente, la registrazione digitale del suono è simile a quella analogica. Entrambe si basano sul principio della trasduzione (ovvero la trasformazione dell’onda sonora in un’altra forma), dell’immagazzinamento e della creazione di uno strumento che sia in grado di invertire tale processo, tramutando nuovamente l’energia in suono. L’orecchio umano stesso è un trasduttore: attraverso una serie di dispositivi trasforma un segnale fisico (le vibrazioni sonore) in uno elettrico (le stimolazioni neurali che producono la sensazione uditiva). Il processo di digitalizzazione dei contenuti è identico a quello di altre forme espressive. Un esempio è la foto digitale: viene “scattata” in modo analogico tramite una serie di lenti che catturano la luce e le sue sfumature, quindi l’informazione viene fissata su pellicola analogica e poi digitalizzata tramite un convertitore (scanner) o trasformata direttamente in una sequenza di numeri dalla macchina fotografica. In entrambi i casi, i numeri che compongono l’immagine digitale devono essere decodificati per poterne generare una versione visibile e/o stampabile. La storia del Compact Disc inizia dalla Philips che, già nei primi anni settanta, era alla ricerca di un nuovo supporto portatile e robusto per immagazzinare dati. Nonostante il neonato digitale fosse molto promettente, molti erano convinti che l’analogico fosse ancora la scelta migliore, soprattutto in virtù della (massima) qualità alla quale si era giunti in quel periodo. Pochi anni dopo alla Philips si aggiunse la Sony, in una quasi incredibile joint-venture finalizzata alla definizione di uno standard condiviso per il nuovo formato. Molti erano i parametri da scegliere, e i due team di ricercatori facevano proposte spesso contrastanti. Solo su una sembrava esserci già da subito un accordo di massima: la capacità di 60 42 minuti di registrazione sonora, corrispondenti ad una certa quantità di byte memorizzabili a seconda di alcune caratteristiche puramente tecnologiche da determinare (nello specifico, frequenza di campionamento e profondità di quantizzazione, dati che generano il vero e proprio bit-rate del flusso digitale). A questi 60 minuti, mediante varie tipologie di codifica, seguivano le proposte di un certo diametro per il compact disc: Philips spingeva per i 115 mm e Sony per i 100 mm, quasi certamente pensando già allo sviluppo di lettori portatili. Poi, improvvisamente, nel 1980 la capacità fu modificata in 74 minuti e 33 secondi, un dato completamente inusuale: i 60 minuti erano pensati per rivaleggiare con gli LP e sembravano sufficienti per poter stipare anche le registrazioni più lunghe (opere, ad esempio) su più dischi, mantenendo comunque contenuta la dimensione del supporto fisico. Lo standard scelto inizialmente e poi modificato (il cosiddetto “Red Book”, versione espressamente dedicata al sonoro del generico compact disc), in nessun modo si riferisce direttamente al tempo di registrazione; esso fissa però parametri tecnici piuttosto precisi sulla natura dei “solchi” incisi sul disco, e stabilisce anche delle precise fasce di tolleranza. La motivazione del cambiamento è tanto semplice quanto Figura 24. Presentazione del Compact Disc curiosa: “Il tempo di riproduzione fu determinato da Beethoven”, seppur dopo la sua morte. 43 Figura 25. Joop Sinjou (Philips) e Akio Morita (Sony) confrontano i rispettivi player Compact Disc La moglie di Norio Ohga, vice presidente della Sony, suggerì al marito di scegliere una capacità che ben si sposasse con uno dei brani di musica classica più noto: la nona sinfonia di Beethoven. Norio Ohga, che aveva studiato al Conservatorio di Berlino, probabilmente non fu dispiaciuto di questo consiglio, che peraltro consentì di tornare a riflettere su altri problemi che riguardavano ulteriori parametri importanti da decidere per il nuovo formato. In particolare, la lettura della nona considerata all’epoca “di riferimento” era quella del 1977 di Herbert von Karajan con i Berliner Philharmoniker, circa 66 minuti di musica. Non incidentalmente, lo stesso Karajan fu impegnatissimo nello sviluppo di questa nuova tecnologia, attento come sempre nella sua carriera alla possibilità di diffondere la sua opera nel miglior modo possibile, e ne firmò il debutto nel 1981 con la Sinfonia delle Alpi di Richard Strauss, il primo vero test di compact-disc fisicamente realizzato (curiosamente, il primo a finire sugli scaffali fu “Visitors” degli ABBA). Si pensò di controllare quale fosse la più lunga registrazione della 44 nona sinfonia di Beethoven disponibile in commercio. La risposta fu quasi immediata: la celebre registrazione EMI di Wilhelm Furtwängler, registrata dal vivo a Beyreuth nel 1951. Alcune fonti affermano che questa interpretazione fosse anche la preferita dalla moglie del vice-presidente della Sony. In ogni caso, essa era particolarmente lunga, ben più dei soliti 65-70 minuti di una tipica nona, ma la fama di Furtwängler era così grande che i 74 minuti e 25 secondi della registrazione (più le pause tra le tracce) furono scelti come standard per il compact disc. Per memorizzare una tale quantità di musica senza ricorrere a sacrifici qualitativi era necessario aumentare il diametro del supporto agli attuali 120 mm. Nella realtà dei fatti ci fu dunque certamente qualche altro motivo molto importante che permise una simile scelta. Il più probabile di questi è che la Sony spingesse per i 120 mm sapendo che la Philips aveva già preparato tutti i mezzi necessari alla fabbricazione dei supporti da 115 mm ed era dunque molto avanti. È allora ipotizzabile che pur di tornare in una condizione di parità la Sony cercò di imporre una capacità di registrazione maggiore, giustificando questa necessità con l’esistenza di un’importantissima incisione musicale che non sarebbe stata contenuta in un singolo disco. Nonostante, probabilmente, il merito (o la colpa) dei 74 minuti e 33 secondi non sia unicamente di Beethoven, ma piuttosto delle difficoltà della Sony a tenere il passo di Philips, fu effettivamente la nona di Furtwängler, con la sua strana durata, a determinare la capacità musicale dei compact disc. Fino al 1988, ad ogni modo, non fu possibile utilizzare tutti quei minuti per ragioni puramente tecnologiche che impedivano di sfruttare pienamente lo standard: solo in quell’anno la storica nona di Furtwängler riuscì a vedere la luce su un unico disco. Successivamente, vennero definiti anche gli altri aspetti tecnici del nuovo supporto. Venne utilizzata la codifica Pulse Code Modulation (PCM), già adottata nel settore delle telecomunicazioni, con frequenza di campionamento fissata a 44.100 campioni per secondo (44.1 kHz), tuttora in vigore. Due furono i motivi alla base di 45 questa scelta. Il primo si rifà al teorema di Nyquist-Shannon, secondo il quale la frequenza di campionamento deve essere almeno il doppio della frequenza più elevata percepibile dall’orecchio umano, ovvero 20 kHz. Il secondo motivo è legato invece a una questione di spazio: il sample rate scelto rappresentava la capacità massima di informazioni che potevano essere memorizzate su nastro (il supporto dell’epoca poi sostituito dal CD). Si decise inoltre che ogni singolo campione fosse archiviato come dato binario a 16 bit (corrispondenti a 2 byte), che offrono una gamma dinamica del suono pari a 96 decibel (ad ogni bit infatti corrisponde una gamma dinamica di 6 dB). Figura 26. Sony D-50. Uno dei primi modelli di CD player portatile Tutte le informazioni del CD vengono immagazzinate su dei microsolchi incisi su un supporto di plastica. A differenza del disco in vinile, che contiene un’unica lunga scanalatura a spirale, il CD contiene micro-scanalature “discrete”, rappresentando la sequenza di bit, che vengono lette da un raggio laser. 46 Entrambi, quindi, si basano sullo stesso principio: un disco su cui ci sono incise delle informazioni, che vengono decodificate facendolo girare e leggere da una testina (una punta di diamante per il vinile, il laser per il CD). La maggiore fedeltà e la virtuale indistruttibilità del supporto digitale hanno spinto l’industria discografica, negli anni ottanta, a un’opera di riconversione del catalogo nel nuovo formato. L’operazione si è trasformata in una sorta di panacea per i bilanci. L’idea si è rivelata davvero una medicina in grado di risolvere un periodo di stagnamento dell’industria: rivendere ai consumatori ciò che già hanno, senza ulteriori costi di produzione che non siano quelli di riversamento nel nuovo formato. Su queste premesse, il CD e il digitale hanno progressivamente affiancato e poi sostituito l’analogico, tanto da rendere il vinile un oggetto per appassionati. Sicuramente, questa graduale sostituzione ha migliorato le condizioni del consumo sonoro, ma le ha anche modificate profondamente: un disco in vinile è certamente fragile ma questa sua caratteristica l’ha sempre reso, nell’immaginario collettivo, un oggetto da avere e custodire, non replicabile e non duplicabile. Questa affezione verso l’oggetto sembra essersi persa con il CD, che essendo di piccole dimensioni sacrifica notevolmente la parte iconica (la copertina) e poiché indistruttibile, non necessita di particolari attenzioni. La storia del CD è la perfetta rappresentazione della convergenza dei contenuti verso un unico spazio. Infatti, data la possibilità di operare con diversi codici espressivi, gli artisti e l’industria iniziano progressivamente a lavorare creando una fusione di linguaggi: realizzare un album non significa necessariamente produrre un CD di soli suoni, ma creare un supporto in cui la musica può essere fruita insieme a parole e immagini. Un altro supporto di registrazione che non è mai riuscito a convincere i consumatori è stato il Minidisc, sviluppato dalla Sony con l’idea di sostituire la cassetta a nastro e probabilmente con l'intento di raggiungere la sua stessa popolarità. Quando, nel 1992, fu introdotto sul mercato il primo modello, aveva in apparenza tutte le carte in regola per riuscire nello scopo. Schiacciato dal CD e 47 dalla musicassetta, rimase un supporto di nicchia, anche se ancora oggi è molto utilizzato nelle radio. 2.2.1 Supporti digitali in alta definizione: SACD e DVD-Audio L’origine dei supporti in alta definizione va ricercata, soprattutto, focalizzando il periodo storico in cui furono ideati. Nel 1998, Sony e Philips erano già al lavoro per l’introduzione di un nuovo supporto che potesse permettergli il rinnovamento delle royalty, dato che il brevetto sul Compact Disc era in scadenza. La tecnologia digitale, inoltre, aveva compiuto enormi progressi negli ultimi anni, spingendo i due colossi ad investire le loro risorse nel perfezionamento del supporto già esistente. Nacque così il Super Audio CD (SACD). Esteriormente simile al Compact Disc, il SACD, adotta una tecnologia chiamata Direct Stream Digital (DSD), un sistema di codifica, messo a punto dal tandem Sony/Philips, che utilizza una risoluzione ad un singolo bit con una frequenza di campionamento pari a 2.8224 MHz (stabilita dopo opportune verifiche che imposero un incremento di almeno 64 volte la frequenza di 44.1 kHz utilizzata nel CD). Con queste prerogative, il SACD, si propone di ridurre al minimo i fenomeni di distorsione legati alla quantizzazione con architettura PCM, introdotti durante la fase di conversione. L’esito di questa scelta ha consentito un incremento della gamma dinamica (120 dB), della larghezza di banda (fino a 100 kHz) oltre che un netto miglioramento della qualità del segnale da riprodurre. Figura 27. Rappresentazione digitale di un'onda con PCM e DSD 48 Sebbene i primissimi esemplari furono concepiti per la sola riproduzione stereofonica, il SACD è compatibile per l’audio multi-canale (massimo 6 canali). Per fare ciò, si è reso necessario convertire i dati DSD in formato Direct Stream Transfer (DST), applicando un algoritmo di compressione di tipo lossless, riducendo lo spazio sul disco fino al 60%, e di conseguenza, il bitrate necessario in fase di lettura, raggiungendo la capacità di 70-80 minuti di riproduzione. In questo senso, va fatta una precisazione. Il SACD necessita di un player specifico per decifrare il sistema DSD (eccezion fatta per il SACD ibrido che implementa un livello con tecnologia PCM, quindi riproducibile dai comuni lettori CD, ovviamente perdendo le caratteristiche di alta definizione) che, non supportando il “down-mixing” da multi-canale a stereo, obbliga alla scrittura separata delle due matrici nel disco. Figura 28. Modello che illustra un SACD ibrido 49 Consapevoli della facilità di duplicazione dei CD, Sony e Philips hanno inoltre integrato, nel nuovo standard, un sistema anti-copia basato su “watermarking” digitale, denominato Pit Signal Processing (PSP), ovvero un’aggiunta di segnali al messaggio originario, difficilmente falsificabili e, opzionalmente, visibili anche a occhio nudo; una tecnica che ricorda quella della filigrana nelle banconote. In commercio è possibile trovare il SACD in tre tipologie: • Single-layer: costituito da un unico livello, detto high-density layer (HD layer) con capacità di 4.7 GB e codifica DSD; • Dual-layer: costituito da due distinti HD layers con capacità complessiva di 8,5 GB e codifica DSD (creato soprattutto per incrementare la dimensione e quindi la durata del contenuto musicale del single-layer); • Ibrido: formato da un HD layer con capacità di 4.7 GB e codifica DSD, e da un livello con codifica PCM a 16bit/44.1 kHz. Ma se il SACD, unito al sistema DSD, viene presentato come un supporto dalle caratteristiche innovative, rivoluzionarie, che rasentano la perfezione, è lecito chiedersi come mai la sua diffusione nel mercato musicale sia rimasta un punto interrogativo, lasciando al CD il ruolo indiscusso di “contenitore musicale”. La verità è che il sistema progettato da Sony/Philips si è dimostrato tutt’altro che efficiente sotto molti aspetti. Vediamone alcuni: • Per trasferire l’energia del rumore di fondo, generata dal campionamento a 1 bit, fuori dalla banda udibile, viene utilizzato un apposito algoritmo di filtraggio detto noise-shaping, che limita la banda passante reale intorno ai 50 kHz, inoltre, la gamma dinamica decresce rapidamente a frequenze superiori i 20 kHz; • Apparecchiature e software digitali presenti negli studi di registrazione, operano quasi esclusivamente con codifica PCM (fatta eccezione per qualche sistema come Pyramix che sfrutta la tecnologia Digital eXtreme 50 Definition (DXD) con una risoluzione di 24 bit/352.8 kHz, molto più adattabile alla fase di editing o sistemi come SADiE, Tascam, Genex che sfruttano il sistema DSD nativo) quindi, nella maggior parte dei casi, per realizzare un SACD si converte il master finale nel dominio DSD soltanto nella fase di authoring; • Il SACD supporta il multi-canale soltanto nella modalità 5.1. Per usufruire di qualsiasi altra configurazione, vengono associati dei file “vuoti” ai canali non selezionati; • Per beneficiare appieno delle qualità sonore del supporto è necessario investire una somma considerevole in tutti gli anelli della catena di riproduzione: dal player agli altoparlanti; • Non è mai stato integrato nei Personal Computer un sistema in grado di decifrare il DSD: una vera limitazione se si pensa che oggigiorno è uno dei mezzi più utilizzati per l’ascolto di musica; • Gli attributi di cui dispone il SACD, non attraggono l’acquirente, poiché costretto ad una spesa supplementare rispetto al CD, per un disco (parliamo di musica pop/rock “supercompressa” che risulta la più influente nel mercato) che nella maggior parte dei casi viene ascoltato in stereofonia con impianti hi-fi di bassa qualità. Per ovviare ai problemi di ordine tecnico, la Sony sperimentò un formato denominato DSD-Wide, mantenendo inalterata la frequenza di campionamento ma utilizzando una risoluzione a 8 bit, avvicinandosi più ad un’architettura PCM anche se completamente compatibile con la tecnologia DSD; tuttavia il supporto non risulta mai uscito dai laboratori. Il DVD-Audio nasce per contrastare il SACD, basandosi però, su una tecnologia completamente differente. Rappresenta la soluzione alternativa per l'audio in alta definizione proposta dal cartello DVD (Matsushita e altri) con il forte contributo 51 della Meridian Audio, società molto impegnata nello sviluppo di tecnologie audio digitali. Il DVD-Audio è un’effettiva evoluzione del CD a standard PCM. Utilizza come supporto, appunto, il DVD sviluppato per contenuti video, ma già all'origine pensato per altri scopi (dal nome Digital Versatile Disc). La risoluzione può essere a 16 a 20 o a 24 bit, mentre le frequenze di campionamento accettate sono 44.1/48/88.2/96/176.4/192 kHz. Naturalmente questa scelta ha comportato un forte incremento dimensionale dei dati e quindi dello spazio occupato sul disco (che comunque ha una capacità di 8.4 GB, ben 12 volte quella del CD). Un grande vantaggio del DVD-Audio sta nella capacità di gestire fino a un massimo di 8 canali audio, liberamente configurabili dall’utente (anche se nella realtà, tranne poche eccezioni, vengono utilizzate le configurazioni standard). È possibile, infatti, ottenere diverse combinazioni, come riportato nella tabella seguente. Per sfruttare tutte le possibilità del multi-canale, l’audio PCM viene memorizzato tramite l’integrazione di un algoritmo di compressione lossless, senza cioè alcuna perdita di dati, messo a punto dalla Meridian, chiamato appunto Meridian Lossless Packing (MLP), garantendo un rapporto di compressione inferiore rispetto al 52 sistema DTS utilizzato nel SACD. L’encoder MLP risulta indispensabile nella riproduzione stereo a sample rate di 176.4 e 192 kHz e in multi-canale a frequenze superiori gli 88.2 kHz, mentre a 24 bit 44.1/48 kHz in multi-canale e 24 bit 88.2/96 kHz in stereofonia è possibile scrivere in modalità non compressa. Inoltre, i lettori DVD-Audio sono in grado di effettuare il “downmix” da 5.1 a stereo, secondo dei parametri impostati in fase di authoring, qualora il sistema d’ascolto fosse sprovvisto di setup surround. I dischi DVD-Audio generalmente includono contenuti extra come video, interviste, sottotitoli, immagini, presentazioni, tutti selezionabili da un apposito menù; per questo, come per la selezione della configurazione multi-canale, è doveroso il collegamento del lettore ad un apparecchio televisivo. Come il SACD, il DVD-Audio è provvisto di un meccanismo di protezione contro la duplicazione non autorizzata, chiamato Content Protection for Prerecorded Media (CPPM) che utilizza una chiave di blocco digitale, opportunamente decifrata dal riproduttore abilitato alla lettura. Queste caratteristiche hanno, fin da subito, reso il DVD-Audio superiore a qualsiasi altro supporto, anche se per qualche motivo è stato definito un supporto “mai nato”; uno svantaggio, già all'origine, era l’incompatibilità con il CD (i DVD-Audio non possono essere letti dai comuni lettori CD). Un problema relativo nell’ambiente domestico, dove potrebbe essere presente un lettore DVD di ultima generazione, ma più pesante in mobilità (Car Audio e player portatili) dove non risultano notizie di riproduttori compatibili. Non meno importante, infine, è la contiguità con il “pericolosissimo” PC, su cui è possibile installare software in grado di duplicare il formato DVD, varcando tranquillamente il blocco creato dal CPPM. Da qui, forse, il timore delle case discografiche sull’adozione di un supporto dalla copia semplice e alla portata di tutti. Interessante lo studio condotto dal Journal of the Audio Engineering Society sul confronto tra CD 16 bit/44.1 kHz con il DVD-Audio 24 bit/192 kHz: su 60 ascoltatori sottoposti ad un totale di 554 test nell’arco di un anno, nessun 53 soggetto è stato in grado di distinguere fra qualità CD e HD. Tuttavia gli autori dello studio dichiararono che “virtualmente tutti i SACD e DVD-Audio suonano molto meglio del CD”. Questo, però, è dovuto solamente ad una migliore qualità dell’incisione, del mixaggio e della produzione artistica nelle registrazioni che vengono successivamente proposte da etichette discografiche nei supporti ad alta definizione. Oggi, sia il SACD che il DVD-Audio, continuano la loro realtà commerciale nei mercati di “nicchia”, utilizzati prevalentemente come supporto per la musica classica, che ricopre soltanto il 3% del mercato musicale, destinato all’ascoltatore “più attento” ad apprezzarne le caratteristiche. Tuttavia il futuro della musica su supporto sembra dirigersi verso della tecnologia Blu-ray, anche se la sensazione sia di una ormai inevitabile estinzione. 2.3 La compressione del segnale audio digitale: l’MP3 La fase digitalizzazione della musica successiva al CD è la cosiddetta compressione, strettamente connessa all’avvento dell’era Internet e dello scambio di musica on-line. Comprimere un segnale audio significa rimuovere le parti superflue (ad esempio quelle non percepibili dall’orecchio umano) consentendo una drastica riduzione delle dimensioni del file (conservando comunque una riproduzione accettabile) a tutto vantaggio dello spazio di memorizzazione e del tempo di trasferimento nella rete. Quando si parla di file audio compresso, si indica, in maniera quasi implicita, il formato che più di tutti si è imposto nell’ambiente consumer e non: l’MP3. L’MP3 consente la compressione di file musicali con un compromesso tra qualità del suono e risparmio di dimensioni mai raggiunte. La compressione viene effettuata seguendo algoritmi appositi studiati dall’MPEG (Moving Picture Expert 54 Group), una joint-venture che lavora sotto la direzione dell’ISO (International Organization for Standardization) e della IEC (International Electrotechnical Commission). Questo gruppo di ricercatori ha creato degli standard per la trasmissione del video e dell’audio al fine di poter trasmettere immagini e suoni nella miglior qualità e con la minore occupazione di banda possibile. Lo standard MPEG però, è una base generica, applicabile sia ai filmati che ai suoni, sul quale sono stati sviluppati successivamente dei livelli (layer) addizionali, in grado di potenziarne le possibilità. Le intenzioni erano rivolte soprattutto alla televisione del futuro: lo standard, infatti, doveva comprimere così tanto da permettere l’invio dei dati su canali di trasmissione molto lenti e, forse, nessuno pensava a quello che sarebbe potuto accadere. In effetti, non è accaduto molto fino al 1991, quando all’interno di un gruppo di ricerca formatosi nel 1985 ad Erlangen (Germania) chiamato “Fraunhofer IIS”, dal nome del ricercatore tedesco Joseph von Fraunhofer, vissuto a cavallo tra Settecento e Ottocento, viene sviluppato un piccolo software (con relativo player) per la codifica del formato MP3: il Layer 3. Più precisamente, fa parte degli standard MPEG 1 e MPEG 2; da qui la definizione corretta degli MP3 presenti in rete, ovvero MPEG 1 Layer 3 e non MPEG 3. A questo punto non è più necessario possedere hardware dedicato e costoso per sfruttare le caratteristiche dell’MP3, è sufficiente un qualunque PC, anche se la velocità di codifica dipende molto dalla potenza della CPU utilizzata. La compressione non esegue alla perfezione tutti i tipi di compiti; per la musica ne serve un tipo particolare. Lo Zip, ad esempio, che si usa comunemente per la compressione generica, è un formato che comprime tutti i tipi di file allo stesso modo. Non è possibile comprimere ulteriormente lo stesso file, perché Zip è un tipo di compressore non distruttivo (lossless), quindi, non supera un certo limite. Allo stesso modo, se si decomprime (ossia si ri-trasforma nel file originale) un file compresso con Zip, rimane esattamente inalterato, fino all'ultimo bit. 55 L'MP3 dal canto suo utilizza un tipo di compressione distruttiva (lossy). Non è più possibile, una volta trasformato un file in MP3, tornare al file originale. Il segreto, quindi, è quello di riuscire a eliminare quello che non serve e conservare l’indispensabile. Con l’MP3 non varia la qualità di ascolto, ma la struttura reale della traccia. L'MP3 applica modelli di compressione che si basano sulla psicoacustica, cioè sui limiti dell’apparato uditivo umano. Durante la codifica (definita Perceptual Coding) vengono, quindi, eliminate tutte le parti definite ridondanti dall’algoritmo di compressione. Figura 29. Diagramma a blocchi del sistema Perceptual Coding Le parti del mezzo di registrazione che contengono dati non udibili potrebbero essere utilizzate per contenere dei dati al contrario percepibili; in questo modo è possibile ridurre considerevolmente lo spazio necessario alla memorizzazione delle informazioni audio, senza alcuna perdita nella qualità. Oltretutto l’MP3 utilizza una codifica detta headerless ossia "senza testata". I file Zip, ad esempio, hanno una testata, cioè, per poterli codificare, il programma deve tornare all'inizio del file e ispezionare una "mappa" che gli permette di riportarlo alle dimensioni originali. L’MP3 è organizzato diversamente; i file MP3 sono divisi in singoli pacchetti detti frames, ognuno di essi ha il suo piccolo header iniziale che gli permette di essere identificato. Questo significa che la lettura di un file MP3 può essere iniziata in qualsiasi punto del file stesso, 56 all'inizio, alla fine, al centro, o in qualunque altro punto. Tutto ciò per un file musicale è molto importante, permette una serie di applicazioni, come juke-box elettronici, oppure l’ascolto di musica direttamente da Internet in tempo reale (sempreché la velocità di riproduzione e quella di trasferimento siano compatibili), operazioni che con un sistema senza queste caratteristiche non sarebbero possibili. Questo oltretutto permette di utilizzare file MP3 in modi anche molto avanzati. Partendo dal fatto che ogni piccolo frame ha la sua etichetta, se ai pacchetti musicali si aggiungono altri pacchetti con un'etichetta diversa, il lettore MP3 non li legge e passa avanti, consentendo di inserire in questi pacchetti (che tecnicamente si chiamano tag ID3) informazioni come, ad esempio nome della traccia, dell'autore, dell’album di provenienza, l'anno di pubblicazione, il genere e così via. E' anche l'unico modo per fornire più dati possibili al file MP3 senza doverle necessariamente inserire nel nome del file stesso. L'entità della compressione applicata durante la codifica del segnale è definita da un parametro denominato bitrate, che indica la quantità di bit necessari a rappresentare un secondo di musica. Un bitrate di 128 kbit indica 128 kbit al secondo. Ovviamente un bitrate più alto equivale a qualità migliore e a dimensioni di file maggiori. Se il tipo di segnale da comprimere lo permette, durante la codifica alcune parti vengono elaborate con un bitrate inferiore, lasciando liberi alcuni bit che possono essere utilizzati per altre parti. Questo permette un'ulteriore ottimizzazione in termini di dimensioni. Il bitrate standard è quello già citato come esempio di 128 Kbit, che equivale a circa 1 megabyte (106 byte) al minuto. Permette il raggiungimento di un fattore 12 di compressione e un buon compromesso tra spazio occupato e qualità del suono. Volendo ottenere compressioni maggiori si può diminuire la frequenza di campionamento dai 44,1 kHz del file originale a 22 kHz o addirittura a 11 kHz e ridurre le tracce da stereo a mono. L'ultimo passaggio, prima della creazione del file, è costituito dalla codifica di Huffman. Si tratta di un algoritmo di compressione che agisce esclusivamente sui 57 dati. Una delle operazioni svolte in questa fase consiste nel riconoscimento di sequenze ricorrenti, in modo da ridurne ulteriormente le dimensioni. Ad esempio, se c'è un singolo suono semplice e ripetitivo, la codifica percettiva potrà comprimerlo in maniera limitata, mentre la codifica matematica sarà molto più utile. E' il caso di alcuni brani dance, dove certe sequenze di suoni si ripetono identiche per l'intera durata o per buona parte del brano. In questo caso la porzione ripetuta può essere riconosciuta e codificata una sola volta, con un notevole risparmio in termini di dimensioni. Se, al contrario, vi sono diversi suoni sovrapposti, sarà molto più utile la codifica percettiva rispetto a quella matematica. Con questo sistema l’MP3 può riuscire a comprimere un file audio, come si è detto in precedenza, fino a 12 volte: ciò significa che un album di 800 megabyte può diventare di 80 e che una singola canzone può occupare solo alcuni mega costituendo un ottimo apparato per la circolazione della musica attraverso le tecnologie e le reti telematiche fino al consumatore. 2.4 Le tecnologie digitali di distribuzione e di consumo Ai giorni nostri la musica arriva alle orecchie degli ascoltatori sostanzialmente in due modi: attraverso i supporti acquistabili in negozio oppure attraverso la distribuzione su diversi media, vecchi e nuovi che siano. Internet ha riaggregato buona parte dei canali precedenti di diffusione della musica. In un sito musicale è possibile trovare una parte informativa e verbale (la stampa), uno streaming audio e video (radio e TV), è possibile comprare una registrazione (il disco) e assistere ad una performance (il concerto). Un sito Internet aggiunge a questo sistema la multimedialità, ovvero la compresenza di diverse forme espressive nello stesso spazio, e l’interattività, cioè la possibilità di costruirsi un proprio percorso all’interno di una serie di scelte possibili. 58 Con l’avvento della digitalizzazione e soprattutto di Internet si è reso indispensabile, per i media, adeguare i loro meccanismi di distribuzione. Le aziende che operano nel settore musicale, quindi, hanno iniziato a produrre contenuti sfruttabili su diversi canali proprio per fronteggiare l’esponenziale crescita nell’utilizzo del World Wide Web. Questo aggiornamento del sistema, si è tradotto in una sempre maggiore onnipresenza della musica, che, così facendo, arriva alle nostre orecchie in modi molto diversi: dalla radio accesa nei negozi e dalle TV sintonizzate con emittenti musicali nei bar, per arrivare alle suonerie dei telefonini che riciclano l’ultimo successo pop di classifica così come il motivo di una sinfonia. 2.4.1 I media: radio, TV, podcasting Radio e televisione, pur con diversi atteggiamenti di resistenza, hanno intrapreso un percorso analogo nella fase di digitalizzazione, svoltosi in una duplice direzione: l’introduzione di forme digitali su canali analogici e il tentativo di creare, invece, una configurazione del canale totalmente digitale, come il satellite, utilizzato sia da radio che da TV. Sia nel caso televisivo che in quello radiofonico, le forme di convivenza tra digitale e analogico si basano su un processo di compressione: il segnale viene codificato in forma digitale, trasmesso attraverso le normali frequenze radio e decodificato in uscita. Il processo è simile a quello avvenuto all’ampliamento della banda Internet: si sfrutta un canale analogico già esistente (in quel caso il telefono, con le linee ISDN e ADSL), comprimendovi il segnale in formato digitale per ampliarne la portata. La compressione del segnale consente di ampliare il numero di canali trasmissibili, che nell’analogico è fisicamente limitato. La possibilità di utilizzare le tecnologie digitali per ampliare l’offerta sembra essere una delle costanti dell’avanzamento tecnologico di radio e TV, così come 59 l’idea che il digitale consenta di ampliare il servizio implementandolo con attributi multimediali. Mettere in piedi una web radio, per esempio, è semplice e poco dispendioso e lo si nota già dal fatto che in rete esiste una quantità incredibile di emittenti ordinate per genere musicale, per periodo o anche solo dedicate ad un singolo artista. In campo televisivo il cartello delle emittenti videomusicali è assai evidente. In Italia, ad esempio, esistono delle reti “in chiaro” con palinsesto principalmente dedicato alla rotazione o alla promozione musicale come la storica MTV e la recente Deejay TV. Grazie al satellite e al digitale terrestre, le offerte si sono moltiplicate: la piattaforma Sky, dal 2004 operativa anche in Italia, offre diversi canali, alcuni con programmazione a tema o semplicemente la proiezione in video delle emittenti radiofoniche. Possiamo notare come “tematizzare” sia la parola chiave nel processo mediatico, allestendo l’offerta con un modello d’intrattenimento secondo format suddivisi per genere musicale. Un tipo di offerta che in America, grazie alla TV via cavo, è presente da molto tempo. Più lampante il caso delle cosiddette NetTV: emittenti celebri e non, hanno già, da qualche anno, reso possibile la visione on-line del palinsesto terrestre tramite lo streaming, che può essere live consentendo la visione della diretta, mentre on demand offrendo la possibilità di poter rivedere in qualsiasi momento qualsiasi contenuto, essendo il tutto memorizzato su server. Ciò nonostante, il monopolio dell’audiovisivo in Internet, dal 2005, appartiene al modello YouTube: un sito che dà la possibilità di caricare e condividere ogni genere di video, sia quello creato artigianalmente del singolo utente (il cosiddetto user generated content), sia la digitalizzazione di un contenuto trasmesso da media analogici come la televisione. L’esponenziale aumento di visite e di utenti iscritti, ha di fatto sancito YouTube come mezzo di divulgazione videomusicale più diffuso nella rete, costringendo l’industria musicale a focalizzare la promozione dei loro prodotti 60 proprio sul noto portale, accrescendo, di conseguenza, l’investimento da parte delle aziende, disposte a pagare profumatamente l’apposito spazio pubblicitario. La variabile, dunque, è quella della multipiattaforma e dell’interattività, quindi della fruizione su richiesta, offrendo contemporaneamente contenuti per più spazi mediali, scaricabili automaticamente sul proprio computer da sfogliare a piacere dall’utente: questo descrive appieno le funzionalità del sistema podcasting. 2.4.2 I canali: streaming e download L’applicazione delle tecnologie digitali alla musica non ha significato soltanto rimodellare il sistema preesistente, ha letteralmente definito l’apertura di nuovi canali attraverso i quali far viaggiare la musica stessa. La smaterializzazione in file della musica consente di farla viaggiare attraverso cavi e di spostarla da un angolo all’altro del pianeta nel giro di pochi minuti: basta un semplice click per acquistare un disco e scaricarlo nel nostro hard disk. La distribuzione digitale è stato un processo lento e complesso, fortemente limitato dai canali stessi: la musica digitalizzata è compressa ma richiede pur sempre spazio e tempo per essere scaricata. Contemporaneamente ai diversi formati di compressione, è stata necessaria quindi un’evoluzione dei canali, cioè della banda. Evoluzione che è stata molto più lenta: l’MP3 è diventato, già alla fine degli anni novanta, lo standard di compressione della musica, ma solo nei primi anni del duemila le connessioni a banda larga (dall’ADSL alla fibra ottica) hanno iniziato a diffondersi nel tessuto sociale. La prima distinzione nel campo della distribuzione digitale della musica è tra ascolto da remoto e lo scaricare, ovvero fra lo streaming e il downloading. Il primo è la modalità tipica dei media on-line, una sorta di rimediazione attraverso Internet del broadcasting tradizionale di radio e TV. Il contenuto, il cui accesso è subordinato all’essere on-line, arriva su richiesta dell’utente attraverso la rete, ma rimane ancorato alla fonte: in parole povere, con l’interruzione del flusso, 61 all’utente non rimane nulla. Tra i numerosi siti che mettono a disposizione lo streaming musicale, Spotify è sicuramente il più conosciuto al mondo. Basta creare un semplice account per usufruire dell’infinito catalogo musicale; naturalmente la formula gratuita permette un massimo di dieci ore mensili di ascolto, mentre sottoscrivendo l’abbonamento, è possibile rimuovere questo vincolo e poter ascoltare i brani in MP3 “alta qualità” con bitrate di 320 kbps. Figura 30. Screenshot della piattaforma Spotify Il downloading è invece la base della distribuzione digitale della musica. Il file viene trasferito dalla fonte alla destinazione e li rimane per utilizzi futuri: nuovi ascolti, masterizzazioni o trasferimenti su altri computer. L’utente deve essere collegato solo per il tempo necessario al trasferimento del file, che si renderà disponibile in un secondo momento anche pur non essendo connessi alla rete. La quantità di banda necessaria per i due processi è pressoché equivalente ma il fenomeno del downloading riscuote un’attrattiva maggiore, probabilmente per la finalità: a trasferimento avvenuto si è possessori di un contenuto, che potrebbe divenire anche un bene materiale. 62 I fenomeni che hanno espresso la potenzialità della distribuzione della musica sono i cosiddetti sistemi peer-to-peer, o P2P. Software che consentono di mettere in contatto singoli utenti, che si possono scambiare il materiale attraverso la rete (file sharing). Il processo che questi sistemi mettono in atto è chiamato anche disintermediazione, poiché permette di scavalcare i canali di distribuzione tradizionali, grazie all’uso della rete informatica. Napster è stato l’esempio più clamoroso di questa tipologia tecnologica digitale applicata alla musica: un caso che ha messo in discussione problemi più ampi, legati soprattutto ai contenuti e al copyright poiché artefice del fenomeno della “duplicabilità” facilitata e della trasferibilità immediata. Fondato nel 1999 dall'allora diciannovenne Shawn Fenning, Napster permetteva la condivisione di porzioni del proprio hard disk, consentendo quindi lo scambio gratuito di file, soprattutto musicali. Il sistema, però, non era un peer-to-peer puro, poiché a gestire lo scambio dei file era un sistema di server centrali che mantenevano la lista dei sistemi connessi e dei file condivisi, mentre le transazioni vere e proprie avvenivano direttamente tra i vari utenti. La parabola di Napster finisce in tribunale con la chiusura del software che vive però oggi sotto nuove spoglie: un musicstore con un archivio di 2 milioni di canzoni al quale si accede previa registrazione e pagamento di un abbonamento. In realtà, dopo la mole di discorsi sociali seguiti al fenomeno Napster, il panorama della distribuzione digitale si è evoluto: non solo un aumento nella divulgazione di materiale illegale (cioè senza pagamento agli aventi diritto), ma anche un canale parallelo alla tradizionale vendita nei negozi. Nuovi software che, sul modello dei P2P, consentono di accedere alla musica da remoto comprandola, unendo le tecnologie digitali alla consueta idea della vendita, che è la base stessa dell’industria discografica. 63 Figura 31.Screenshot della piattaforma Napster Mentre il P2P, pur con i già citati problemi di ampiezza di canali, sono diventati un fenomeno tra il 1999 e il 2000, si è dovuto attendere il 2003 per il debutto del primo “negozio” on-line di musica che abbia avuto un successo rilevante: iTunes Store. Con questo “store digitale”, Apple ha riunito tutti i cataloghi delle principali major (BMG Music, EMI, Sony Music, Universal e Warner Bros), più una buona fetta di etichette indipendenti, partendo da un’offerta di 500.000 brani e arrivando, ai giorni nostri, a un catalogo di oltre 20 milioni di canzoni. Il costo del singolo brano varia da 0,69 € a 1,29 €, mentre l’intero album viene offerto a partire dalla cifra di 9,99 €. 64 Figura 32. Screenshot di iTunes Store È interessante notare come tutti i sistemi di distribuzione digitale della musica siano, in qualche modo, non solo interattivi, ma anche multimediali e convergenti: integrano diverse forme comunicative (associando immagini e parole alla musica) e puntano all’utilizzo di diversi contenuti su terminali come lettori MP3, smartphone e tablet. 2.4.3 L’hardware: il lettore MP3 e l’iPod Il processo più interessante e significativo della digitalizzazione del sistema di comunicazione musicale è proprio quello che riguarda le tecnologie di consumo, strettamente collegato con quelle della distribuzione. Il vero motore dell’innovazione tecnologica, industriale e sociale, già a partire dagli anni ottanta con il Walkman, sono i lettori portatili. Questo diviene ancor più evidente quando, verso fine anni novanta, la Rio introduce il primo lettore MP3 65 portatile con il modello PMP300. La smaterializzazione della musica si completa: i file musicali compressi escono per la prima volta dal computer. Figura 33. Il Rio PMP300. Primo lettore MP3 della storia Di fatto, il primo lettore MP3 è un mini computer in grado di ricevere file da PC, archiviarli in una memoria riscrivibile e riprodurli mediante le cuffie. La memoria è assai limitata (massimo un’ora di musica) e il processo è meno immediato rispetto al predecessore analogico: trasferire i file nel lettore è più macchinoso che inserire una cassetta o un CD nel Walkman. Il lettore MP3 diventa, nel giro di qualche anno, un fenomeno di massa. Nel 2000 compaiono i primi lettori portatili ad alta capienza: degli hard disk che possono contenere e leggere diversi gigabyte di dati, ma che possono pesare anche quasi mezzo chilo. In questo scenario, c’è un caso che merita di essere analizzato più attentamente. Si tratta dell’iPod, il lettore musicale presentato nel 2001 dalla Apple Inc., e parte integrante di un sistema di gestione informatica della musica che comprende anche il software iTunes. L’iPod non è certamente l’unico lettore digitale sul 66 mercato, però, complice l’abilità della Apple nelle strategie di comunicazione, l’iPod è diventato, nell’immaginario collettivo, il simbolo della musica digitale. Una delle caratteristiche storiche della Apple è quella di rendere esteticamente curati e meno freddi oggetti informatici come il computer. I suoi lettori digitali di musica non fanno eccezione a questa regola, seppure in modo meno marcato. L’entrata di Apple nel panorama della musica digitale risale al gennaio 2001, con la presentazione di iTunes, software di gestione musicale per piattaforma Macintosh, con funzionalità da player: riproduzione e masterizzazione di CD. A questo prodotto, nell’ottobre 2001, si aggiunge la prima versione dell’iPod8; un modello da 5 GB di capienza, completamente bianco e assai leggero (circa 200 grammi, la metà dei diretti concorrenti); compatibile solo con il sistema Mac e inizialmente venduto a 400 dollari. La capienza viene espansa fino a 20 GB nel giro di pochi mesi, ma solo nel 2003 si arriva all’esplosione commerciale: la compatibilità con il sistema PC, molto più diffuso del Mac, soprattutto in Europa. Contemporaneamente viene presentata anche la versione Windows di iTunes, trasformandolo da semplice player multimediale a software integrato con cui compiere diverse operazioni: digitalizzare la musica, trasferirla sull’iPod e infine poterla pure acquistare. L’immissione sul mercato di un lettore totalmente digitale, filosoficamente figlio del Walkman ma tecnologicamente discendente dal PC, è una grossa novità, i cui effetti superano quelli sulle forme di consumo. È il tassello mancante che completa le possibilità della distribuzione digitale: avere file musicali ha un senso nel momento in cui esiste uno strumento per sfruttarli ovunque, senza essere ancorati all’ingombrante computer. Sia iTunes che iPod sono derivati da progetti di altre aziende. iTunes è stato sviluppato sulla base di un software chiamato SoundJam MP, prodotto da una piccola azienda, la Casady and Greene. L’iPod, invece, nasce da un’idea, inizialmente proposta a Philips e RealNetworks, di Tony Fadell, il primo a pensare di utilizzare hard disk più piccoli prodotti dalla Toshiba in modo da rendere più leggeri i Walkman digitali. 8 67 Figura 34. Il primo modello Apple iPod 2.4.4 L’hardware: il telefono cellulare La telefonia mobile ha una divulgazione assai più considerevole del lettore MP3. Eppure solo negli ultimi anni è diventato chiaro come il telefonino rappresenti la frontiera più avanzata del lettore musicale digitale. Dal 2003, a divenire un grosso introito per la discografia, è stato un mezzo alquanto anomalo per la riproduzione della musica in formato digitale: le suonerie dei telefonini. Da quelle che riproducevano artigianalmente un brano di Beethoven o l’ultima canzone di successo si è passati alle suonerie polifoniche, ormai disponibili per ogni brano musicale. Giampiero Di Carlo riassume bene la questione in un articolo con queste parole: 68 Se traggo una canzone da un album, cosa ottengo? Un singolo. Se da quel singolo sottraggo le parti vocali, cosa ottengo? Un brano strumentale. Se da quel brano strumentale tolgo parecchi “strati sonori”, lasciandolo comunque perfettamente riconoscibile con una qualità paragonabile a quella del CD singolo originario, cosa ottengo? Un file digitale compresso. Quanto costa un file digitale? Tra 0,70 e 0,99 euro. Se dal file digitale elimino sette ottavi della sua dimensione, portandolo ad una durata di 30 secondi, cosa ottengo? Una suoneria. Quanto costa una suoneria? Due o tre euro. Di Carlo rappresenta le contraddizioni di questo nuovo formato della musica, un mercato che dal 2005, secondo il rapporto dell’International Federation of Phonographic Industries, genera introiti per 400 milioni di dollari. La musica sui telefonini è la nuova frontiera dell’ascolto e non solo per quanto riguarda le suonerie. Questo movimento coinvolge tanto i produttori di telefonini, quanto le compagnie telefoniche, l’industria discografica e i media musicali. I primi introducono sul mercato modelli sempre più avanzati, in grado di eseguire diverse funzioni oltre a quelle ormai consolidate, inserendo la possibilità di ricevere e riprodurre filmati e musica; infatti, la maggioranza dei modelli integra la possibilità di riprodurre file MP3. Le compagnie telefoniche, a loro volta, fanno a gara nell’offrire sempre più contenuti, acquistandoli da fornitori di contenuti specializzati e adattandoli alle proprie infrastrutture tecnologiche (come l’UMTS, che consente lo streaming audio e video). Industrie e media musicali fanno a gara nell’offrire contenuti come canzoni e videoclip. Già nel 2005, Nokia strinse un accordo con Microsoft, offrendo un servizio di download, previo pagamento, di musica direttamente sul telefonino e, nel 2006, lanciò una linea di cellulari “musicali”, che oltre alle funzioni di chiamata, implementavano un capiente (4 GB) riproduttore di file digitali. Sempre nel 2005 la Sony (fusasi con Ericsson nel settore telefonico) rispolverò il marchio Walkman per una serie di telefonini, dotati anch’essi di lettore MP3 incorporato. Apple non stette di certo a guardare e presentò il Rokr (“rocker”), un telefonino, prodotto in collaborazione con Motorola, che integrava una versione portatile di 69 iTunes. Il successo non fu quello sperato, così Apple decise di lanciare un prodotto totalmente rivoluzionario: l’iPhone, un iPod video con funzioni di telefono e organizer. Figura 35. Motorola Rokr e Sony Ericsson W810 Il telefonino diventa così una sorta di terminale avanzato (il cosiddetto smartphone, telefono intelligente) con il quale compiere diverse operazioni: dall’ascolto di musica alla visione di videoclip fino al collegamento alla rete Internet tramite sistema wireless. La sfida della convergenza e dell’integrazione tra terminali è quella che Steve Jobs (co-fondatore di Apple, scomparso nel 2011) ha affrontato con il suo iPhone, oggi giunto alla quinta generazione: far convivere all’interno dello stesso oggetto diverse funzioni, con pari potenza e semplicità d’uso. Nell’attesa della commercializzazione dell’iPhone, il mercato era dominato da telefonini economici che incorporavano l’ascolto della musica digitale tra le funzioni di base, che si affiancavano ai lettori musicali puri, senza una vera e propria sovrapposizione. Oggi questa sovrapposizione sembra proprio sia avvenuta, anzi, il prodotto all-in- 70 one, è divenuto un oggetto irrinunciabile nella vita di tutti i giorni. Sarebbe impensabile, in effetti, portare appresso un apparecchio diverso per ogni funzione che lo smartphone riesce ad adempiere. Figura 34. La collezione Apple iPhone 2.5 Diritto d’autore nell’era digitale Il periodo digitale porta con sé, oltre agli innumerevoli benefici a livello tecnologico, anche una grossa piaga, che coglie quasi impreparata l’industria musicale: la duplicazione e la distribuzione illegale dei prodotti fonografici. La grande sfida del business musicale, diviene quindi, quella di combattere (o quantomeno ostacolare), il commercio “pirata” dei propri prodotti, adottando, come prima mossa, il sistema dei Digital Rights Management (DRM). Letteralmente significa gestione dei diritti musicali e costituisce un insieme di tecnologie applicate alla protezione dei contenuti tutelati dal diritto d'autore, quindi, studiati 71 ad hoc per il controllo della distribuzione e dell'utilizzo delle opere. I DRM sfruttano i seguenti principi: • Certificazione di proprietà: permette di identificare la copia originale e, quindi, anche le eventuali copie illegali dei file. Nel caso di un file audio, prima di essere sottoposto a compressione, vengono inserite delle informazioni aggiuntive sul diritto d’autore utilizzando una tecnica chiamata PCM watermarking; • Controllo d’accesso: per controllare la regolarità dell’accesso al contenuto di un file, viene aggiunto uno speciale marcatore all’interno del file originario tramite una tecnica chiamata bitstream watermarking, che ha lo scopo di garantire l’originalità. Il file risultante da questo processo può essere riprodotto solo sui lettori che sono in grado di riconoscere le informazioni di codifica ed è possibile riprodurlo solo per il numero di volte stabilito in fase d’acquisto; • Controllo delle copie illegali: permette di risalire all’iniziale possessore del file originale, in modo da consentire l’individuazione di eventuali violazioni del diritto d’autore, permettendo l’attuazione di misure preventive di protezione legale. Meccanismo di controllo dell'accesso, quindi, è una misura tecnologica che richiede l'applicazione delle informazioni, o di un procedimento, con l’autorizzazione del titolare del diritto d’autore o del titolare dei diritti connessi. In sostanza, comprando un brano musicale attraverso la mediazione dell’industria, si accettano determinate condizioni d’uso per mezzo di alcuni codici informatici inscritti nel file. Ciò nonostante, il metodo di protezione perfetto non è ancora stato trovato e, di fatto, ogni piattaforma usa un DRM diverso, spesso rendendo incompatibili i file da un sistema all’altro. 72 Steve Jobs, con una lettera aperta pubblicata sul sito della Apple nel 2007, ha proposto l’abolizione dei sistemi DRM, puntando il dito contro le case discografiche: la tesi di Jobs è che iTunes deve criptare i propri prodotti su imposizione delle major e che la Apple non può svelare il proprio sistema DRM, impedendo così la comunicazione del sistema iTunes/iPod con altri sistemi; egli scriveva: Sono le case discografiche a dover rinunciare ai DRM, non la Apple che ne sarebbe felicissima. Gli effetti delle parole di Jobs non tardarono ad arrivare; dopo qualche settimana, la EMI, una della quattro major, sottoscrisse la proposta, stipulando un accordo per vendere la propria musica su iTunes senza DRM, con una qualità maggiore (256 kb/s) tramite un servizio denominato iTunes Plus. Così industria e artisti mettono a disposizione il loro catalogo musicale a una sorta di provider come Apple o OD2. I nuovi servizi di distribuzione digitale lavorano come aggregatori di musica digitale, riunendo etichette o singoli artisti e fornendo un servizio al consumatore: si pongono come nuovi intermediari della musica, garantendo all’industria quella competenza tecnologica che le manca per gestire un servizio efficiente. Un’interessante alternativa al modello iTunes è PlayLouder: web company dedita alla musica indipendente, che nel 2005 ha stretto un’alleanza con la Sony BMG per la creazione di PlayLouder MSP (Music Service Provider), un servizio di condivisione ad abbonamento, basato sul concetto del P2P, legalizzato e trasposto in un ambiente protetto dal DRM. Con questo servizio, pagando 27 sterline al mese, si ottiene la connessione ad una linea broadband9 ad alta velocità e un account di posta elettronica, ma soprattutto, il diritto di scaricare e scambiare Broadband è l’abbreviazione di Broadband Wirless Access, ossia una famiglia di tecnologie il cui scopo è quello di fornire accesso Internet ad alta velocità e senza fili su vaste aree geografiche. 9 73 musica (o altro materiale musicale) senza limitazioni, con utenti appartenenti alla stessa comunità. Anche qualche artista è sceso in campo a favore dei nuovi sistemi di distribuzione digitale. È il caso di Peter Gabriel, co-fondatore di WE7, il primo servizio che riprende un modello economico molto usato nell’apparato mediatico: il modello pubblicitario, dove a pagare i contenuti non sono solo i consumatori finali, ma degli inserzionisti pubblicitari. WE7 è un servizio di distribuzione, non disponibile in Italia, che permette a musicisti di diffondere in rete, file MP3 senza DRM, che l’ascoltatore ottiene gratis in cambio dell’ascolto di brevi spot pubblicitari che precedono l’esecuzione di ogni brano, ma che scompaiono dopo qualche ascolto. Alcuni artisti si associano all’entusiasmo generale del pubblico, ritenendo Napster artefice di una sorta di liberazione del sistema musicale; altri, al contrario, nutrono una certa preoccupazione vedendo messa in pericolo una delle loro principali fonti di guadagno. L’instaurazione di un sistema di distribuzione legale della musica, ha attenuato le ire dei musicisti più avidi. Una chiara rappresentazione del punto di vista dell’artista è ben descritta da Colin Bradbury sul sito della IFPI: Come musicista classico che incide CD per un mercato specializzato, finanzio autonomamente la produzione dei miei dischi e dipendo totalmente dalle royalties che mi paga la casa discografica. Andare in pareggio è il meglio che possa sperare in un mercato piccolo, e se una parte di ascoltatori ruba le mie esecuzioni copiandole invece di comprarle, non ho nulla nel salvadanaio per fare le successive. Il CD ha reso possibile all’ascoltatore attento di godersi molto di più la musica e concetti come passaggi radiofonici o mercati di massa per noi non hanno rilevanza. Per favore, rendetevi conto che la copia illegale è un furto come rubare un CD da uno scaffale. Possiamo suddividere in due livelli il cambiamento che ha riguardato il ruolo dell’artista nel processo di digitalizzazione e di distribuzione. Il primo è il livello creativo: la musica cessa di essere un prodotto e diventa un processo, da vendere 74 in ogni sua fase, sotto il controllo dell’artista stesso. Infatti, la rete consente di rendere pubblica, senza grossi costi, una serie di contenuti che difficilmente avrebbero trovato spazio negli scaffali dei negozi: dischi dal vivo, registrazioni di performance, brani inediti, studio diary, video blog. Il secondo è il livello economico: gli artisti che aggirano le case discografiche, usando il Web come forma di mediazione diretta verso il proprio pubblico, possono guadagnare di più e controllare direttamente l’andamento produttivo. In Italia, il caso più significativo è sicuramente quello della band Elio e le Storie Tese, che a partire dal 2004, ha iniziato a vendere direttamente la propria musica con i cosiddetti “CD Brulè”, ossia registrazioni dei concerti venduti subito dopo i concerti stessi, disponibile in versione CD o in file. Inoltre, sul sito della band, in cambio di un abbonamento, è possibile accedere e scaricare tutto il catalogo del gruppo, i cui diritti sono di proprietà del gruppo stesso. Il mondo digitale ha creato parecchio scompiglio in un sistema radicato che sembrava inattaccabile qualche anno fa; rivedere il processo di creazione/produzione è stato necessario come lo è stato porre dei rimedi al fenomeno della duplicazione illegale. 2.6 Le ultime frontiere della musica 2.6.1 User Generated Content e Social Network L’User Generated Content vuole rappresentare un fenomeno emergente: il ruolo degli utenti finali nel processo della produzione dei contenuti, siano essi didattici, scientifici, storico-artistici, ambientali, culturali, di business, di comunicazione o altro. In particolare, il fenomeno dell’UGC, rappresenta una filosofia attraverso la quale la produzione dei contenuti, svolta da soggetti specializzati (società 75 editoriali, redazioni, università ecc.) viene affiancata, e in certi casi sostituita, dalla produzione degli utenti che, per loro passione o riscontro dovuto ad una retroazione spesso in tempo reale, riescono a essere più incisivi e tempestivi del normale e tradizionale processo di produzione. L’UGC si serve di ambienti applicativi capaci di favorire questo tipo di contenuti, soprattutto attraverso servizi on-line che non necessitano di specifiche competenze tecniche. Questa trasformazione ha rappresentato una vera rivoluzione nell’ambito di diversi segmenti di mercato, primo tra tutti quello dei media (radio, televisione e carta stampata) dove il loro ruolo continua a riposizionarsi per effetto dei meccanismi di controinformazione derivante dalla presenza in rete di milioni di utenti che producono, commentano e approfondiscono news, fatti e fenomeni di qualunque natura. Per comprendere il fenomeno UGC, è necessario inquadrarlo nel fenomeno complessivo denominato Web 2.0, ovvero nella seconda generazione del web, quella che ha trasformato il modo di concepire Internet, passando da un grande contenitore di siti web e portali, in cui informazioni e conoscenze, accessibili a tutti, venivano prodotte da poche fonti capaci finanziariamente e professionalmente, a un modello di contribuzione da parte di chiunque, attraverso sistemi capaci di condividere valutazioni, punti di interesse (rating, bookmarking, tagging e socialnews) e più significativamente i propri contenuti, siano questi video (YouTube), immagini (Flickr), musica e audio in genere (Napster, eMule), testi e termini (Wikipedia), esperienze e relazioni con Blog e Social Network (Facebook, LinkedIn, MySpace, Netlog), contatti sempre collegati (Twitter). Quindi non più la gestione dei contenuti secondo un’applicazione di Content Management System a cura di un gruppo ristretto di professionisti, ma un sistema che sia sempre più aperto alla contribuzione da parte di un’utenza diffusa. Per essere UGC è necessaria una rielaborazione di un qualcosa di esistente o un contributo creativo, che non sia qualcosa che nasce come attività professionale, con il relativo riscontro economico. Il vero successo di questi nuovi processi di fruizione e 76 d’informazione, in sostanza, sta nel fatto che l’utente non è più spettatore passivo, ma protagonista e fornitore, oltre che fruitore, dell’informazione. Emblematico è stato, nel 2005, il sistema adottato dalla band Nine Inch Nails che, nel proprio sito web, ha pubblicato le canzoni dell’album With Teeth in una versione manipolabile dai fans, invitandoli a rispedire il “remix”. Nel 2008 i R.E.M. hanno messo in rete alcune riprese del loro video Supernatural Superserious, permettendo agli utenti di scaricarle in alta definizione e incitandoli a effettuare un montaggio, dando la possibilità di creare la propria versione del videoclip da caricare in un canale YouTube apposito. Sul fenomeno Web 2.0 è di particolare interesse la testimonianza di Daniele Sommavilla, vice-presidente di Nielsen Europa: Le applicazioni Web 2.0 facilitano la distribuzione dei contenuti e la socializzazione: gli utenti hanno uno stimolo particolare ad affacciarsi alla finestra dell’on-line con continuità per aggiornarsi, verificare se qualcuno ha risposto allo stimolo messo in rete, per condividere un’informazione o un’esperienza. Nel panorama emergente, meritano uno spazio particolare, i siti di video sharing, che dalla fine del 2004 ad oggi si sono moltiplicati, fornendo agli utenti servizi sempre più innovativi e personalizzati per poter condividere i propri contributi sul Web, sia a scopo puramente d’intrattenimento, sia per ottenerne visibilità e profitti. Fondato all’inizio del 2005, YouTube è senza dubbio il sito più popolare nella condivisione di file video. Il portale ha avuto una spaventosa evoluzione in soli due anni, arrivando al punto di vantare circa 20 milioni di visitatori al mese, oltre 100 milioni di video visualizzati ogni giorno e una media di 65 mila nuovi video caricati giornalmente. Notato l’effettivo potenziale del nuovo canale, le major discografiche siglarono, nel 2006, una serie di patti con YouTube per ospitare i propri contenuti a titolo gratuito, ricavando profitti dalle pubblicità. 77 Un retroscena da non sottovalutare, è come la popolarità di YouTube ha portato alla creazione di molte "celebrità Internettiane" o fenomeni di Internet, divenuti individui famosi, i quali hanno attirato su di loro molta popolarità nei paesi di appartenenza e non, grazie ai propri video. Il sito è oltretutto diventato un metodo per promuovere la propria musica. Uno dei tanti esempi è stata la band statunitense OK Go, i quali, grazie al successo dei loro video, hanno ottenuto alti ascolti nelle radio e un MTV Video Music Awards. Allo stesso modo, il video di Samuel Ferrari con la canzone YouTube School o la Campagna degli abbracci gratis, accompagnato da una musica dei Sick Puppies, ha portato notorietà sia alla band che all’evento, oltre che l'emulazione dell'iniziativa in altre parti del mondo. Non meno importante è il ruolo di MySpace, famosa comunità virtuale che nasce come strumento per la creazione di pagine personali, straordinariamente raffinate dal punto di vista dei contenuti multimediali. In esse, con minime conoscenze HTML, è possibile personalizzare il proprio spazio arricchendolo con immagini, musica e filmati. Inizialmente MySpace nacque come network sociale ma in breve tempo, attraverso la sezione Music, è diventato uno strumento di promozione fondamentale per i gruppi. Numerosi, infatti, sono gli artisti e le band che, grazie a questo spazio virtuale, sono diventati famosi in tutto il mondo ancor prima di immettere effettivamente sul mercato i loro dischi; Arctic Monkeys, Lily Allen, Mika e Cansei de Ser Sexy, solo per citarne alcuni. Ma è soprattutto l’elemento “social” a renderlo così interessante: le band possono fare amicizia attraverso la sua funzione “add friend” ed organizzare concerti e incontri facendo uso del suo sistema di messaggistica istantanea. Piattaforme come Facebook o Twitter, oggigiorno sono le più gettonate, per questo sono in continuo aggiornamento, includendo applicazioni in grado di promuovere un’idea artistica: SoundCluod ne è un esempio, offrendo un servizio di streaming delle proprie canzoni; Bandcamp viene usato per vendere direttamente musica online; CDbaby permette la vendita di MP3 praticamente su qualsiasi store mondiale. 78 Anche Twitter sarebbe in procinto di lanciare una nuova applicazione denominata Twitter Music che permetterà di scoprire nuova musica in funzione degli artisti che seguiamo sul social network. Tramite We Are Hunted, servizio già disponibile su diverse piattaforme, in grado di creare classifiche e playlist automatiche tramite una tecnologia proprietaria che scandaglia la rete analizzando i trend del momento per determinare quali sono le canzoni e gli artisti più popolari. Stiamo assistendo all’evoluzione del rapporto artista/etichetta discografica: tramite le piattaforme che il Web mette a disposizione, gran parte del lavoro di produzione e di promozione può essere svolto autonomamente dal musicista, cosa che prima spettava all’etichetta, nonostante quest’ultime continuino a garantire maggiori possibilità di raggiungere l’obiettivo. Circa 44 anni fa, nel burrascoso 1968, Andy Warhol, quasi fosse un veggente, pronunciava la sua frase più celebre: “Nel futuro ognuno sarà famoso, al mondo, per 15 minuti”. Di sicuro non si sarebbe aspettato che la sua “previsione” sarebbe divenuta una realtà a distanza di così poco tempo dalla sua scomparsa. 2.6.2 Musica liquida in alta definizione In un’epoca in cui l’industria musicale ha sancito definitivamente l’estinzione del supporto fisico (eccezion fatta per il vinile che mantiene un discreto indice di mercato, costituito principalmente da un pubblico di cultori), la tendenza, quasi forzata, dei consumatori si è spostata verso l’ormai vastissima collezione di digital stores presenti nella rete. Facilità di acquisto, immediatezza, ampia offerta e compatibilità con tutti i sistemi di riproduzione più moderna, dai dispositivi Apple (iPod, iPhone) fino ai lettori multimediali e ai personal computer di ogni marca e modello, sono i grandi vantaggi di questo modello distributivo. Ma la qualità massima disponibile, sino ad oggi, rimane comunque quella del CD. 79 Se, come sostengono alcuni audiofili, è vero il fatto che la qualità fornita dal supporto analogico (vinile e soprattutto nastro a bobina) sia superiore a quella del Compact Disc, ma che quest'ultima rimanga naturalmente più elevata rispetto a un file compresso lossy (MP3, AAC, WMA), proporre e quindi scaricare, file musicali in alta definizione, può essere una soluzione alla luce del crescente mercato virtuale. L’alta definizione (HD), in un file audio digitale, rappresenta un aumento di qualità equivalente a quello già percepito dagli utenti con l’operazione di passaggio da CD a DVD-Audio. Infatti, come nel supporto fisico, si passa generalmente da una profondità di 16 bit a una di 24 bit e dalla frequenza di campionamento di 44,1 kHz a frequenze di 88,2 o 96 kHz, fino a 192 kHz. Naturalmente, non possiamo parlare di file audio a 24bit/96kHz (o valori anche maggiori) per avere la certezza che la qualità sia tecnicamente superiore a quello del “vecchio” CD a 16bit/44.1kHz. È fondamentale che questo file sia “concepito” in HD e non frutto di un semplice upsampling, operazione ormai alla portata di qualsiasi software conseguibile a poco prezzo. È necessario che il file in questione venga registrato in forma 24/96 (o superiore) per essere certificato HD, altrimenti ci troviamo di fronte ad una sorgente per così dire “potenziata” soltanto nei numeri ma senza nessun effettivo vantaggio in termini d’ascolto. Negli ultimi anni, si è andato sempre più affermando un nuovo tipo di codec audio che ha suscitato grande interesse da parte del pubblico audiofilo più esigente: il Free Lossless Audio Codec (FLAC). Grazie all’impiego di un algoritmo di compressione lossless molto avanzato, è in grado di preservare il messaggio musicale, mantenendo inalterate le caratteristiche d’origine, riuscendo a ridurne lo spazio necessario alla sua memorizzazione di circa il 50%. La codifica FLAC riesce a gestire qualsiasi risoluzione con architettura PCM, da 4 a 32 bit; qualsiasi frequenza di campionamento, da 1 a 655.350 Hz e un intervallo di canali che va da 1 a 8, eventualmente raggruppandoli nelle configurazioni più comuni come stereo e 5.1 per comprimere ulteriormente la dimensione del file. Ecco quindi che il FLAC diviene la scelta più indicata quando si desideri salvaguardare lo spazio occupato 80 su hard disk e una rapida condivisione in rete, pur non rinunciando alla qualità sonora: caratteristica che lo ha proclamato formato audio per l’interscambio di file musicali in alta definizione sul web. In particolare vengono utilizzate risoluzioni a 24 bit/96 o addirittura 192 kHz, anche se, secondo alcuni esperti, il massimo livello di qualità disponibile si raggiunge con il formato WAV DXD in modalità stereofonica a 24 bit/352.8 kHz. Anche se il FLAC sembra essere la scelta predominante nei cataloghi in HD online, è possibile, tuttavia, trovare altri formati come Wav, Aiff, APE, ALAC di Apple, MLP di Meridian, Real Audio e altri di applicazione più marginale. Per entrare in possesso di un file audio in HD, quindi, è sufficiente collegarsi a uno dei siti che offrono questo servizio, scegliere il prodotto tra quelli presenti nel catalogo e, dopo aver effettuato il pagamento, è possibile procedere con il download nel nostro dispositivo di memoria. Possiamo individuare nel sistema di stoccaggio, i vari hardware di cui è fornito il nostro computer, come hard disk, memorie flash, dispositivi NAS, anche se a questi componenti fisici si sta affiancando anche una terza soluzione, che risponde al nome di “cloud storage”, ovvero i nostri file vengono depositati in qualche server sparso nel mondo, ma alla portata di un click e di un semplice comando. In questo senso sono rappresentative le soluzioni di Google Music, Amazon e Apple iCloud, ma tante altre si stanno affiancando ad esse, sebbene al momento non forniscono musica in alta risoluzione, anche a causa dell'enorme quantità di banda richiesta per questa operazione. Allo storage, nella catena ideale, segue il player e il controller che possono essere integrati o separati. Un esempio può essere uno dei tanti media player presenti nel sistema operativo del nostro computer o disponibili a prezzi anche molto contenuti. A volte questi media player integrano software che permettono di sfogliare le nostre librerie multimediali collegate, grazie ad una interfaccia video, per scegliere quello che vogliamo ascoltare/vedere. Da qui il segnale prende la strada del DAC per la necessaria conversione analogica. 81 Dopo un’accurata ricerca, ho potuto constatare che i siti web ospitanti file musicali in formato non compresso al momento non sono così numerosi, specialmente quelli che trattano musica HD multi-canale, anche se sembra un mercato in espansione, soprattutto all’estero. Per citarne alcuni: • HDTracks ospita file in HD (24/96 o 24/192), disponibili in formato Aiff, Alac, Wav e FLAC, di numerose etichette indie10 e major con generi che spaziano dal rock al jazz alla classica con un fornitissimo catalogo; • iTrax contiene file HD in numerosissimi formati, sia in stereo che in 5.1 di etichette indie di vario genere; • LinnRecords è un’etichetta che propone file in HD relativi al proprio catalogo che tratta prevalentemente musica jazz, acustica e classica; • High Definition Tape Transfers comprende file HD, alcuni anche in formato DXD, di musica classica e jazz; • HDmusicstore è la prima piattaforma italiana di distribuzione di “musica liquida” ad alta risoluzione. Il sito offre la possibilità di acquistare i brani in formato CD con codifica FLAC (16/44.1) oppure nel formato HD sempre con codifica FLAC a 24/96. I generi proposti sono pop, rock, classica, jazz, blues. Esistono opinioni discordanti riguardo la vendita della musica in HD. In Italia il fenomeno non sembra ancora decollato e le ragioni trovano risposta in molteplici fattori. Innanzitutto per un motivo culturale, che considera l’italiano, un ascoltatore non ancora conscio delle opportunità della rete; la maggior parte degli Il termine Indie viene utilizzato per definire tutti quegli artisti musicali che non firmano contratti con le etichette major (di solito le “quattro grandi” compagnie discografiche: Warner, Sony, Universal, EMI, che coprono il 90% del mercato discografico del pianeta). Tuttavia, non è detto che un’etichetta che si definisce indipendente garantisca un approccio libero, non orientato verso il marketing o comunque a uno stile musicale prettamente commerciale, né d’altra parte è vero che le major stesse siano orientate esclusivamente alla produzione di musica commerciale. Più comune in Italia è la definizione indipendente per identificare tale approccio, preferendo usare il termine indie per definire un genere musicale vero e proprio, comunque spesso associabile ad un approccio indipendente a livello di etichetta discografica. 10 82 acquisti di musica on-line, infatti, vengono attuate dalle generazioni più giovani, quindi molto meno interessati alla qualità dei brani ma piuttosto al costo e alla dimensione dei file. Non meno importante è sicuramente la velocità di trasmissione dati che, su una classifica mondiale, vede l’Italia all’81° posto con una media di 5.58 Mbps contro la media internazionale di 12.35 Mbps. Infatti, per scaricare file in HD (quindi con dimensioni maggiori), serve sicuramente più tempo rispetto ad uno compresso (MP3, AAC), e questo elemento sicuramente non stimola l’acquirente verso questa tecnologia. All’estero la situazione risulta migliore e vede il mercato in alta definizione in continua espansione, trovando sempre più risposta nel pubblico che si dimostra più interessato ad un ascolto più fedele. Naturalmente queste esperienze riguardano sostanzialmente un mercato “di nicchia” che annovera i generi su cui è possibile beneficiare totalmente dell’alta risoluzione, come musica classica, jazz e sessioni acustiche: un po’ come succede nel mercato in HD su supporto fisico tra SACD e DVD-Audio. 83 Conclusioni Con questo lavoro, ho voluto esaminare ed approfondire la storia delle tecnologie legate alla musica e di come queste hanno condizionato l’apparato industriale, commerciale, mediatico e soprattutto sociale ad essa correlato. La scelta dell’argomento nasce da una riflessione sul contesto storico in cui viviamo, da come le nostre vite vengono continuamente suggestionate dalle rapidissime evoluzioni in campo tecnologico, soprattutto con l’avvento del digitale, complice di aver rinnovato tutti i tracciati comunicativi, sottoponendo l’intero universo sociale allo stimolo di tecnologie sofisticate e potenti, che infrangono le antiche barriere spazio-temporali. La rivoluzione, infatti, si focalizza sull'elemento velocità: il progresso tecnologico è passato da uno sviluppo lineare ad uno esponenziale. Se poi pensiamo all’industria musicale, questa sensazione si è fatta sentire più che mai. Ho ritenuto importante iniziare il discorso dal periodo analogico, consacrato dall’invenzione del fonografo nel 1877, scoperta che ha reso possibile la registrazione e la riproduzione dei suoni, per poi creare un filo conduttore verso il periodo digitale. Infatti, più che di rivoluzione, è corretto parlare di evoluzione digitale, poiché rimane costante l’elemento imprescindibile della musica: la comunicazione. La musica, come la società, è passata da una fase hardware ad una software; in altre parole, da una solida a una liquida. La modernità solida è quella con forti punti di riferimento istituzionali. La modernità liquida è contrassegnata dall’indebolimento di queste istituzioni e da legami sociali che si fanno più indefiniti. Allo stesso, modo la musica è diventata liquida: le istituzioni “forti” del suo comparto, su tutte la discografia, hanno perso il potere totale che hanno avuto 84 fino ad oggi. La musica da hard diventa soft: si trasforma da oggetto commerciale a bene immateriale; in altre parole non è più un prodotto esclusivamente nelle mani della discografia, ma un servizio a cui si può accedere attraverso diversi canali. Siamo immersi nel vortice dell’era digitale che ci costringe a modificare situazioni con cui avevamo appena trovato familiarità. Tutto diventa obsoleto in tempi brevissimi, non esiste il tempo per l’affetto ed è di fondamentale importanza restare al passo coi tempi. Definire uno scenario a lungo termine sembra pressoché impossibile. Quello che mi sento di dire con certezza è che il futuro della musica e della sua commercializzazione sarà sempre più legato ai canali di distribuzione digitali e a forme di consumo in abbonamento; questo, nonostante l’ancora alto tasso di incidenza del fenomeno della pirateria online e l’utilizzo da parte di un utente su quattro dei servizi di download illegali, che sembrano non avere tutt’ora una soluzione concreta. 85 Bibliografia AA. VV. (1983), La nuova enciclopedia della musica, Garzanti. BETTETINI, G. – COLOMBO, F. (1993), Le nuove tecnologie della comunicazione, Bompiani. CASTALDO, G. (2008), Il buio, il fuoco, il desiderio. Ode in morte della musica, Einaudi. DE LUIGI, M., a cura di, (2008), La sfida digitale. I nuovi percorsi della distribuzione musicale, Zona. EBARE, S. (2005), Digital Music and Subculture: Sharing Files, Sharing Styles, in Beer. LUDOVICO, A. (2000), Suoni futuri digitali. La musica e il suo deflagrante impatto con la cultura digitale, Apogeo. MARCONI, L. – TRIPPUTI, D. (2004), Musiche giovanili nel Novecento, in Sorcinelli. MENDUINI, E. (2002), I linguaggi della radio e della televisione, Laterza. ID., a cura di, (2002), La radio. Storia e percorsi di un medium mobile e interattivo, Baskerville. PASQUALI, F. (2003), I nuovi media. Tecnologie e discorsi sociali, Carocci. RIGOLLI, A. – RUSSO, P. (2007), Il suono riprodotto. Storia tecnica e cultura di una rivoluzione del Novecento, FrancoAngeli. SIBILLA, G. (2008), Musica e media digitali, Bompiani. ID. (2005), Walkman, in Colombo. SOLDATI, S. (2004), Dall’analogico al digitale, quando la musica ha rinunciato al tempo, Aracne. TOSONI, S. (2004), Identità virtuali, FrancoAngeli. 86 Elenco siti web http://www.wikipedia.org http://www.recording-hystory.org http://www.museodeldiscodepoca.com http://www.museoscienza.org http://www.homerecording.it http://www.museoradiotv.rai.it http://rogenaudio.xoom.it http://vintagecassettes.com http://www.riaa.com http://www.ifpi.org http://nielsen-online.com http://www.fimi.it http://www.musicaememoria.com 87