tecnologie e forme sociali dei suoni dal vinile alla musica liquida

annuncio pubblicitario
Ministero dell’Istruzione, dell’Università e della Ricerca
ALTA FORMAZIONE ARTISTICA E MUSICALE
Diploma Accademico di 1° Livello in
TECNICO DI SALA DI REGISTRAZIONE
TECNOLOGIE E FORME SOCIALI DEI SUONI
DAL VINILE ALLA MUSICA LIQUIDA
Diplomando: Paolo Masiero
Matricola: 00136
Relatore: Prof. Ing. Matteo Costa
Anno Accademico 2012 – 2013
Indice
Introduzione …………………………………………………………………………………………………. 3
1. IL PERIODO ANALOGICO
1.1. La materializzazione della musica ………………………………………………………. 5
1.2. Nascita della riproducibilità tecnica ……………………………………………………. 6
1.3. La rivoluzione elettrica e l’avvento della radio ………………………………….. 12
1.4. Dal 78 giri al microsolco in vinile ……………………………………………………... 20
1.5. Nastro magnetico: scissione tra produzione e riproduzione ………………... 25
1.6. Stereofonia, musicassetta e Walkman ……………………………………………….. 29
2. IL PERIODO DIGITALE
2.1. La smaterializzazione della musica …………………………………………………... 39
2.2. La digitalizzazione e il suo primo supporto: il Compact Disc ………………. 41
2.2.1. Supporti digitali in alta definizione: SACD e DVD-Audio ……………….. 48
2.3. La compressione del segnale audio digitale: l’MP3 ……………………………. 54
2.4. Le tecnologie digitali di distribuzione e di consumo ………………………….. 58
2.4.1. I media: radio, TV, podcasting ………………………………………………………. 59
2.4.2. I canali: streaming e download …………………………………………………….. 61
2.4.3. L’hardware: il lettore MP3 e l’iPod ………………………………………………... 65
2.4.4. L’hardware: il telefono cellulare …………………………………………………… 68
2.5. Diritto d’autore nell’era digitale ……………………………………………………….. 71
2.6. L’ultima frontiera della musica ……………………………………………………..….. 75
2.6.1. User Generated Content e Social Network …………………………………… 75
2.6.2. Musica liquida in alta definizione ………………………………………………. 79
Conclusioni ………………………………………………………………………………………………… 84
Bibliografia …………………………………………………………………………………………………. 86
Elenco siti web ………………………………………………………………………………………….... 87
Introduzione
“Rivoluzione Digitale”: negli ultimi anni non si parla d’altro, soprattutto in campo
musicale. Fenomeni come il file sharing e l’MP3 hanno proiettato la musica al
centro del discorso sociale. Ne hanno fatto il simbolo di una nuova era non priva,
però, di complicazioni come la ridefinizione del ruolo dell’industria e dei media
tradizionali.
Più che di “rivoluzione” è più corretto parlare di “evoluzione”: infatti, i modelli di
produzione, distribuzione e consumo della musica mantengono una forte
continuità con le caratteristiche che hanno contraddistinto il periodo analogico.
Dallo scontro fra il pessimismo dei discografici, per i quali la pirateria digitale
decreta la fine della musica e l’entusiasmo dei consumatori, che vedono nel
digitale la liberazione dalle costrizioni del mercato, emerge un panorama
complesso dove il digitale “rimedia” le forme precedenti e ne rielabora i linguaggi,
tecniche e forme sociali: il vecchio Walkman si trasforma nell’oggetto di culto
iPod, i videoclip non si trovano più su MTV ma su YouTube, alla produzione
industriale si affianca lo User Generated Content, le nuove band non si fanno più
conoscere solo suonando ma anche sulle pagine di MySpace.
Questo lavoro si propone di descrivere ed analizzare, innanzitutto, gli aspetti
tecnologici nell’ultimo secolo, passando in rassegna le tappe principali di questo
processo che oltre aver visto importanti protagonisti, ha permesso alla musica,
dapprima di diventare “materiale” ed essere impressa su supporti fisici,
successivamente, verso la fine degli anni Ottanta, con l’avvento del digitale, di
“smaterializzarsi” in sequenze di numeri, consentendo la sua propagazione nello
spazio incontrollato della rete. Un occhio di riguardo è stato dato anche alla
formazione dell’industria musicale e all’evoluzione dei media, data la loro sempre
maggiore cooperazione e multidimensionalità, e, infine, al ruolo del consumatore,
3
che, in qualità di anello finale della catena, ha il compito di decretare o meno il
successo dei prodotti proposti.
Struttura della tesi
La tesi è strutturata in due capitoli. Il primo ripercorre le tappe che hanno
contraddistinto il Periodo Analogico: dalla rivoluzionaria invenzione del fonografo
ad opera di Thomas Edison, avvenuta nel 1877, fino ai giorni nostri, caratterizzati
dalla diffusione dell’ultimo supporto analogico, la compact cassette e il Walkman,
un’oggetto, che come vedremo, diverrà molto più che un semplice player musicale.
Il secondo descrive il Periodo Digitale e tutte le tecnologie ad esso collegate, dalla
nascita del compact disc fino ad arrivare alla musica liquida, cioè priva di un vero e
proprio supporto, passando per la compressione MP3, senza tralasciare il ruolo
dell’industria e i risvolti sociali che tutto questo ha comportato.
4
1 IL PERIODO ANALOGICO
1.1
La materializzazione della musica
Si può ipotizzare che nel sistema mediatico della musica moderna esistano
sostanzialmente due grandi periodi tecnologici, uno analogico e uno digitale. Tra
questi vi è una forte continuità, sia in termini di linguaggio, sia per quanto
riguarda le forme industriali, culturali e sociali: produzione, diffusione e consumo.
Il cosiddetto periodo analogico va dalla fine dell’Ottocento agli anni Ottanta del
Novecento. A segnarne la nascita è Thomas Edison con l’invenzione del fonografo
(1877): con esso nasce anche la possibilità di fissare la materia musicale su un
supporto fisico. Fino ad allora la musica esisteva solo nell’atto della sua
esecuzione e nella sua trascrizione mediante linguaggi convenzionali.
La materializzazione si sviluppa lungo buona parte del Novecento; il disco in
vinile, dopo il fonografo, il grammofono di Berliner (1894) e lo sviluppo della
radiodiffusione, ha varie vite, su diversi formati: a 78 giri, a 33 giri, a 45 giri. A
questi formati si aggiunge, negli anni quaranta, la cassetta magnetica.
L’indiscutibile beneficio che il progresso tecnologico sta generando, porta ad una
fondamentale conseguenza: la trasformazione della musica in merce.
La nascente industria discografica così si trasforma, passando da un modello di
business basato sui diritti d’autore ad uno basato sulla vendita dell’oggetto
musicale: il disco.
Poco più tardi si forma il sistema dei media musicali, prima con la radio, poi con la
TV, a cui si aggiunge, l’editoria musicale.
La comunicazione della musica diventa così un intreccio di diffusione intermediatico del messaggio, che circola da un media all’altro: l’industria pubblica un
5
disco; l’artista tiene i concerti; le radio ne passano i brani; la TV ne ospita
l’esecuzione nei programmi; la stampa ne parla con recensioni, notizie e interviste.
Il tentativo dell’industria è di usare il sistema dei media musicali come vetrina per
i propri prodotti: rendere “visibile” un disco, tramite i mezzi di comunicazione,
equivale a venderlo più facilmente.
Da questo periodo fino agli anni ottanta, l’industria non si preoccupa soltanto di
produrre musica e artisti da immettere sul mercato, tenta anche di controllare gli
strumenti tecnologici necessari alla produzione (tecnologie di registrazione) sia
quelli necessari alla sua riproduzione (ciò che serve all’utente per ascoltare la
musica). Così facendo, tramite la tecnologia, l’industria estende il proprio dominio
su entrambi i poli della comunicazione musicale, gli artisti-produttori e gli
ascoltatori-riproduttori, ponendosi come insostituibile mediatore comunicativo e
tecnologico.
1.2
Nascita della riproducibilità tecnica
La prima vera invenzione in grado di recepire l’informazione sonora, fu il
fonoautografo, ideato dal francese Édouard-Léon Scott de Martinville intorno al
1857. L’apparecchio era costituito da un corno che convogliava il suono su una
membrana su cui era fissata una setola di maiale. Il processo di trasduzione
avveniva tracciando una linea modulata dalla variazione di pressione dell’aria,
determinando la creazione di una registrazione grafica delle onde sonore. Poiché
il dispositivo non era in grado di riprodurre, venne utilizzato soltanto per indagini
a scopo scientifico sulla natura dei suoni.
6
Figura 1. Esemplare di fonoautografo
L’inconveniente della riproduzione trovò risoluzione circa vent’anni più tardi
grazie all’americano Thomas Alva Edison dove, nel suo laboratorio a Menlo Park,
nel New Jersey, diede origine al fonografo. Quasi casualmente, mentre lavorava ad
un dispositivo sulla riproduzione del codice morse, scoprì che la rotazione di un
cilindro ad una certa velocità emetteva delle vibrazioni simili al timbro della voce
umana.
L’apparecchio era composto da un cornetto acustico che incanalava le onde
sonore verso una membrana metallica, la quale, vibrando, incideva un solco,
attraverso una punta (detta anche stilo), su un sottile foglio di stagno avvolto ad
un cilindro rotante. L’operazione di lettura avveniva riportando il cilindro nella
posizione iniziale, facendo ripercorrere allo stilo il solco inciso.
Edison, tentò subito la commercializzazione concentrandosi più sull’utilizzo
professionale piuttosto che domestico, essendo, a suo dire, di più facile
collocazione. Egli pensò quindi di diffonderlo come dittafono per imprenditori e
7
manager, uno strumento per prendere appunti vocali, registrare conversazioni e
riunioni.
Figura 2. Thomas Edison e la sua invenzione: il fonografo
L’invenzione non tardò a mettere in moto l’intelligenza creativa di altri tecnici che
si dedicarono al suo perfezionamento. Tra questi la coppia Chichester Bell e
Charles Tainter che, affascinati dalla nuova tecnologia sulla riproduzione della
voce, condussero diversi esperimenti sull’opera di Edison, concretizzando le loro
ricerche nel grafofono, un apparecchio molto simile ma nel contempo decisamente
migliore rispetto al fonografo. La superficie del cilindro, infatti, non era più di
carta stagnola, riutilizzabile solo poche volte, ma di cartone ricoperto di cera,
consentendo una migliore incisione e una notevole riduzione del rumore di fondo,
la manovella era sostituita da un’azione a pedale e la capacità di registrazione
raggiungeva i due minuti.
Brevettato il 27 giugno 1885, il grafofono ottenne un successo tale da indurre
Edison a riconsiderare le potenzialità della sua invenzione, così, il 16 giugno 1888,
fece la sua apparizione The Perfect Phonograph. Il materiale di riproduzione era
8
migliorato in qualità, confermando il cilindro di cera, opportunamente potenziato
per sostenere un numero maggiore di utilizzi.
Nel frattempo, il mondo della registrazione si era arricchito di un nuovo ritrovato:
il grammofono. Brevettato nel novembre 1887, venne realizzato da Emile Berliner
un tedesco emigrato negli Stati Uniti. La vera rivoluzione fu la sostituzione del
cilindro rotante con un disco piatto, inizialmente di vetro poi di zinco, da cui, con
opportuni trattamenti, riuscì ad ottenere un “negativo”, ossia una matrice dalla
quale ricavare delle copie “positive” in gommalacca.
Stava per nascere l’industria discografica: un accordo tra le detentrici dei principali
brevetti tecnici del settore, la Edison National Phonograph, la Victor Talking Machine
Company e la Columbia Phonograph Company, istituirono il cartello che diede vita
alla produzione in serie del supporto.
Figura 3. Emile Berliner con il suo grammofono
9
L’operazione di Berliner fu, fin da subito, l’orientamento verso il mercato
domestico e alla sua dimensione ludica, egli, infatti, previde anche la duplicazione
su larga scala; a quel punto a decretare il successo furono i consumatori che, come
sempre, compiono delle scelte, sia pure all’interno di una fitta reta di
condizionamenti.
L’innovazione tecnica, in questo caso, si rispecchiò in una metamorfosi sociale
altrettanto grande: fu la prima volta in assoluto che un dispositivo di
comunicazione venne utilizzato nella sfera privata per il divertimento e
l’intrattenimento delle persone.
Al cambiamento nel quadro tecnologico, dovuto all’introduzione di strumenti di
produzione di massa, dovette inevitabilmente corrispondere un netto mutamento
negli usi e nelle abitudini. Già nel 1890 diverse società americane cominciarono
ad utilizzarlo come strumento per la diffusione di sottofondi musicali nei luoghi
pubblici.
Il motivo per cui Edison sottovalutò l’aspetto consumer del fonografo fu
probabilmente l’ambiente e l’epoca in cui visse. Egli fu influenzato dalle
precedenti innovazioni su cui si era concentrato lo sviluppo (telegrafo e telefono)
e che avevano trovato successo nell’ambito business.
L’interesse dei consumatori verso i recenti apparecchi d’intrattenimento era lento
ma deciso e la possibilità di poter ascoltare musica nelle proprie abitazioni era un
attraente richiamo; già il pianoforte, infatti, era parte integrante dell’ambiente
domestico ritenuto strumento di svago ma soprattutto simbolo di appartenenza
sociale.
L’introduzione del grammofono nelle case ebbe conseguenze sconvolgenti:
trovato l’uso più appagante, i consumatori scoprirono una sensazione della loro
vita che era rimasta per molto tempo inesplorata; il grammofono rispose ad un
bisogno che si era creato in quegli anni, cresciuto silenziosamente ed esploso con
fragore in un unico istante. L’impiego domestico scatenò l’esigenza di strutture e
strumenti di svago e portò al compimento il processo di creazione di una
10
mentalità del “tempo libero” come un momento da dedicare all’evasione dalla vita
quotidiana.
Il grammofono fu anche considerato il simbolo della diffusione della musica jazz
in tutti gli strati della società, elevandola, di fatto, a “musica colta” in
contrapposizione a quella che fu la sua vera origine. Il bisogno crescente
d’intrattenimento unito alle nuove forme musicali produrrà in seguito la nascita e
la diffusione della danza.
Figura 4. Esemplare di grammfono del 1920
11
1.3
La rivoluzione elettrica e l’avvento della radio
Nonostante le prime ipotesi sulla presenza di fenomeni fisici legati all’elettricità
apparvero già nell’antica Grecia, fu soltanto tra il XIX e il XX secolo che gli studi
giunsero a delle applicazioni concrete.
Determinante, fu la scoperta della correlazione tra elettricità e magnetismo
ipotizzata dal fisico danese Hans Christian Ørsted. In seguito il britannico Michael
Faraday, il francese André-Marie Ampere e lo scozzese James Clerk Maxwell,
tramite i loro trattati, dettero un apporto sostanziale allo sviluppo della nuova
forma di energia.
Fu una vera e propria rivoluzione. L’elettricità rimpiazzò buona parte dei vecchi
sistemi energetici favorendo uno spunto che coinvolse settori come l’industria, le
comunicazioni e i trasporti contribuendo notevolmente a migliorare la qualità
della vita.
È in questo periodo, infatti, che l’interesse verso la possibilità di telecomunicare1 si
intensifica: invenzioni come il telegrafo e il telefono gettano le basi per quel
processo di trasformazione della struttura produttiva che si estenderà per tutto il
secolo.
Inizialmente concepito per la diffusione della voce umana attraverso il telefono, il
microfono diverrà uno strumento rilevante anche per la futura tecnologia di
registrazione. I primi esemplari furono i modelli cosiddetti a carbone, poiché il loro
principio di funzionamento era basato sulla vibrazione di due contatti, appunto in
carbone, che sfruttando una variazione di pressione e tramite una resistenza,
generavano una corrente ai due elettrodi posti alle loro estremità. La paternità si
1
La telecomunicazione è l’attività di comunicare a distanza per mezzo di dispositivi e/o infrastrutture
implementanti particolari tecniche di trasferimento dell’informazione.
2
Con il termine mica si definisce una serie di minerali allumino-silicati complessi, i cui cristalli tendono a
12
deve al già noto Emile Berliner sebbene la Corte Suprema degli Stati Uniti
d’America, nel 1892, designò ufficialmente Thomas Edison come proprietario del
brevetto.
Figura 5. Emile Berliner e il primo microfono a carbone
Di estrema importanza per lo sviluppo definitivo del microfono (e non solo) fu
l’introduzione della valvola termoionica.
Strutturalmente simile alla lampadina a incandescenza, tale valvola permetteva,
grazie ad una fonte esterna di energia, l’amplificazione del segnale in ingresso. Fu
il primo componente elettronico “attivo” realizzato dall’uomo.
13
Se fino ad allora, gli apparecchi di registrazione avevano utilizzato diaframmi in
mica2 capaci di restituire un intervallo variabile tra le 350 e le 3000 vibrazioni al
secondo, l’avvento dei nuovi sistemi consentì l’estensione dello spettro da 100 a
5000 vibrazioni al secondo, rendendo il suono estremamente più chiaro
all’orecchio umano.
Gli studi su elettricità e magnetismo
decretarono, di lì a poco, un’ulteriore
vittoria: la comunicazione senza fili.
Riprendendo
un’osservazione
di
Nicola
Tesla, il bolognese Guglielmo Marconi, intuì
che le onde elettromagnetiche potevano
essere utilizzate per trasmettere messaggi a
distanza,
senza
collegamento.
l’ausilio
Ignorato
di
dal
cavi
di
ministero
italiano competente, nel 1896 Marconi fu
costretto a recarsi in Inghilterra sia per
Figura 6. Valvola termoionica del 1904
brevettare il suo sistema, sia per garantirsi
le condizioni migliori per il prosieguo delle
sue ricerche. Sostenuto dal governo inglese, rese la radiotelegrafia una realtà con
trasmissioni che coprirono distanze sempre maggiori arrivando, il 12 dicembre
1901, a compiere il grande salto: riuscì a trasmettere e a ricevere la prima
emissione attraverso l’oceano Atlantico.
Anche in questo caso un’invenzione moderna non è solo frutto del genio
individuale ma il collegamento di più scoperte operate da più persone. L’inventore
2
Con il termine mica si definisce una serie di minerali allumino-silicati complessi, i cui cristalli tendono a
delaminarsi su una superficie, provocandone la tipica struttura a scaglie. La mica possiede notevoli proprietà
termiche e chimiche, ragion per cui viene spesso utilizzata in ambito industriale. È stata usata per la
realizzazione di diaframmi contenuti nelle testine dei grammofoni.
14
moderno è, infatti, una figura diversa da quella del secolo scorso: non un artigiano
o un teorico ma quasi un manager, un imprenditore poiché la capacità di trovare
l’utilità migliore prevale sulla realizzazione tecnica dell’oggetto. Per questo, ciò
che più di tutto rende difficile l’attribuzione della scoperta dell’apparecchio
radiofonico a Marconi, sta nel fatto che, come Edison per il fonografo, non fu in
grado di intuire le potenzialità della sua creazione.
Figura 7. Guglielmo Marconi e il primo prototipo di radio
Marconi non comprese che inconsapevolmente aveva creato un apparecchio per la
comunicazione di massa, cioè capace di diffondere un messaggio a moltissimi
riceventi. Egli, infatti, cercò per anni di eliminare quello che considerava il
“difetto” della sua invenzione: non poter effettuare trasmissioni sicure da punto a
punto, volendo pertanto eliminare il broadcasting.
Dopo aver fondato la Marconi Company con finalità di ricerca e produzione nel
campo dell’ingegneria elettronica, lo stesso Marconi mirò all’espansione,
sottovalutando però le difficoltà di ordine burocratico e tecnico. L’idea era quella
di monopolizzare il suo prodotto in tutti gli stati in cui era diffuso, cosa che
15
indusse paesi come Francia e Germania a sviluppare brevetti alternativi per le loro
comunicazioni radio evitando così il pagamento degli oneri. Conseguenza di ciò fu
la creazione di standard nazionali rendendo impossibile la corrispondenza tra
nazioni diverse. Sarà solo più tardi, con l’avvento della Prima Guerra Mondiale, che
si ricorrerà ad uno standard internazionale per la comunicazione radio.
Ben presto l’assetto radiofonico trovò una regolamentazione, cosicché si
formarono due principali modelli: quello inglese caratterizzato dal controllo
statale dell’emittenza e quello americano che, al contrario, favoriva la libera
concorrenza (con l’obiettivo di escludere Marconi).
Negli Stati Uniti c’era molta enfasi intorno al concetto che chiunque potesse
costruirsi il proprio baracchino e diffondere messaggi in piena libertà senza
pagare tasse o canoni, così alla nascita della KDKA, prima emittente ufficiale e
professionale, molti esemplari di radio erano già presenti sul territorio.
Figura fondamentale del periodo fu David Sarnoff, un russo emigrato negli Stati
Uniti, operatore telegrafico nell’azienda di Marconi, divenuto famoso per aver
intercettato le comunicazioni di soccorso del Titanic mentre questo affondava, il
quale, nel 1916, elaborò quella che venne definita la sua “profezia” ovvero la
realizzazione di un modello di radio con un utilizzo che all’epoca sembrava
impensabile. Egli scriveva:
Ho in mente un piano di sviluppo che farebbe della radio un apparecchio d’uso domestico,
come lo sono il grammofono o il pianoforte. L’idea è di portare nelle case la musica
attraverso la radio. Il ricevitore può avere la forma di una semplice music box ed essere in
grado di ricevere un certo numero di lunghezze d’onda diverse con la possibilità di cambiare
azionando semplicemente un interruttore o premendo un bottone. La scatola musicale avrà
un amplificatore o un altoparlante telefonico incorporato. Eventi d’importanza nazionale
potranno essere ricevuti in contemporanea. Si potranno trasmettere le partite di baseball
installando un apparecchio allo stadio. Questa soluzione è particolarmente interessante per
16
i contadini e per chi vive fuori città. Acquistando una radio music box, essi potrebbero
ascoltare concerti, letture, musica e recital.3
Poco tempo dopo uscì sul mercato la Radio Music Box. Non fu progettata per
essere uno strumento utile ai professionisti ma un mezzo per l’ambiente familiare,
molto curata nei particolari per potersi integrare con stile nell’arredamento
casalingo. Interessante fu come la musica fece da propaganda per la diffusione in
larga scala dell’apparecchio: un’inversione di soggetto rispetto a quello che
accadrà in seguito.
Figura 8. David Sarnoff nel 1930
Fino alla metà dell’800 la musica era stata qualcosa di elitario che girava nei
circoli culturali, nei salotti buoni per persone facoltose, mentre alla “gente
comune” rimaneva la musica popolare che veniva tramandata ed eseguita in
pubblico. La radio, di fatto, abolì questo privilegio sociale creando così
3
Cfr. in: G.L. Archer (1938)
17
l’opportunità di beneficiarne senza nessuna limitazione e comodamente nella
propria abitazione.
L’azione che la musica intraprende per la diffusione dell’apparecchio radiofonico si
riflette sulla musica stessa tramutandola da forma d’arte straordinaria e raffinata
in qualcosa di quotidiano, obbligata a soddisfare anche individui meno colti.
La radio ebbe un grande sviluppo tra le due guerre trovando un tacito accordo col
cinema. A quest’ultimo venne riconosciuto il monopolio dello spettacolo visivo e il
dominio nella sfera pubblica; la radio si occupava invece dello spettacolo sonoro e
dell’intimità nell’ambito privato. Sarà il cinema sonoro a rompere questo patto non
scritto e violare il territorio della radio con il film “The jazz singer” del 1927.
Il secondo conflitto però esaltò nuovamente il ruolo della radio: fu uno strumento
efficace e allo stesso tempo indispensabile per le comunicazioni tra soldati o alla
popolazione. A pace avvenuta si crearono condizioni minime di benessere che
favorirono la diffusione di radio e televisori.
Figura 9. Radio utilizzata dalle truppe americane durante la Seconda Guerra Mondiale
18
Figura 10. L’importanza della radio nella vita domestica
Grazie anche all’invenzione del transistor da parte dei laboratori Bell, nel 1948, la
radio si miniaturizza e, fornita di pile, diventa anche trasportabile; in un secondo
tempo, troverà posto anche all’interno delle autovetture divenendo compagno
insostituibile nella vita quotidiana di ogni persona.
All’inizio la radio venne accolta con scetticismo nell'ambiente dello spettacolo e,
in particolare, in quello musicale. Ne fu esempio il “memorabile rifiuto” del più
celebre direttore d’orchestra della prima metà del Novecento, Arturo Toscanini, il
quale, in un primo momento, non accettò che le sue esecuzioni fossero trasmesse
dalla radio. Il caso, e l’evoluzione tecnologica, vollero che, pochi anni dopo,
proprio Toscanini finisse per diventare il musicista più conosciuto al mondo
proprio grazie alle trasmissioni radiofoniche. Nel 1937, infatti, fu posto alla
direzione di un’orchestra, creata appositamente per lui dall’emittente NBC
19
(National Broadcasting Company) di New York, che lo fece conoscere a un
pubblico vastissimo e composto non solo da appassionati. Ciò nonostante,
Toscanini mantenne sempre un atteggiamento critico nei confronti della musica
trasmessa o riprodotta sul disco.
Questo si spiega soprattutto con la sua biografia: nato nel 1867, la concezione
della musica era legata in modo indissolubile a quella esperienza dal vivo che
nessun strumento tecnologico avrebbe mai potuto sostituire.
Ben diverso, ovviamente, fu l’atteggiamento delle generazioni di musicisti che
nacquero quando la musica riprodotta o trasmessa attraverso la radio iniziava ad
avere un ruolo di primaria importanza. Il caso più emblematico fu quello del
pianista canadese Glenn Gould, deciso assertore della performance in studio e, in
linea con questa convinzione. Nel 1964 decise di rinunciare all’esibizione dal vivo
per dedicarsi in modo esclusivo alla musica registrata, considerando la
registrazione un vero e proprio atto interpretativo capace di conferire qualcosa di
nuovo e di diverso alla musica. In quel contesto, lo studio di registrazione iniziava
a essere considerato come una sorta di strumento innovativo al servizio della
musica. L’esempio più noto di questa tendenza è rappresentato dai Beatles, che al
culmine del loro successo, decisero di abbandonare l’esecuzione dal vivo
scegliendo il disco come mezzo di espressione più originale e autentico.
1.4
Dal 78 giri al microsolco in vinile
Nel periodo tra le due guerre mondiali, vi fu una forte crescita di aziende operanti
nel settore musicale, sia nella produzione di apparecchi, sia come primitive case
discografiche. Le due più importanti furono la Victor Talking Machine Company, che
rilevò la Berliner Gramophon e la Columbia Phonograph.
20
Emile Berliner, che per primo concepì il disco a piastra circolare, stabilì la velocità
di rotazione intorno ai 70 giri al minuto; tuttavia, a distanza di anni, non era
ancora stato creato uno standard univoco che regolava i supporti musicali
provocando così un disagio non indifferente ai consumatori, ma anche ai
produttori. Fu solo nel 1925 che si raggiunse l’accordo per la standardizzazione
della velocità che venne fissata a 78 giri al minuto (anche se in America differiva
leggermente dal resto del mondo: 78,26 contro 77,92). In seguito la velocità
nominale ha dato origine al soprannome del supporto, ovvero il 78 giri.
I dischi erano fatti inizialmente in lamina
di metallo ricoperta di gommalacca, con
diametro di 10 pollici, estremamente
fragili con una capacità di circa 3 minuti
(poco più tardi la Columbia introdusse,
con i double disc record, la possibilità di
registrare
sui
due
lati
del
disco
aumentando così la durata a 6 minuti).
Le
prime
tecniche
d’incisione
non
prevedevano l’ausilio dei nuovi strumenti
Figura 11. Pubblicità del double disc record
elettrici come microfoni e amplificatori
ma
sfruttavano
il
vecchio
sistema
meccanico utilizzato da Berliner con il grammofono.
È il 1931 quando la RCA-Victor presenta il primo microsolco a 33 giri, la cui
diffusione effettiva comincerà tuttavia diversi anni più tardi, per affermarsi
stabilmente solo nella seconda metà del Novecento.
Inizialmente era un 78 giri con dimensioni aumentate a 12 pollici e velocità di
rotazione ridotta a 33 ⅓ giri al minuto garantendo, in questo modo, un tempo di
registrazione di quasi 30 minuti per lato (per questo motivo fu battezzato anche
Long Playing).
21
Figura 12. Intrattenimento domestico con il disco LP
La principale caratteristica che ha permesso un incremento della durata sta
nell’adozione della tecnica chiamata “passo variabile”. Questo processo consisteva
nel variare lo spazio tra le spire del solco in funzione delle modulazioni del suono
invece di mantenerle costanti come succedeva in precedenza, permettendo in tal
modo un utilizzo più efficiente della superficie del disco. In pratica, in presenza di
una modulazione molto forte, il tracciato del solco si allargava mentre, nel caso
contrario, quando le modulazioni erano più deboli, il tracciato risultava rettilineo.
Tra i perfezionamenti subiti dal disco, alla ricerca di una sempre maggiore fedeltà,
l’utilizzo del nuovo materiale, il cloruro di polivinile, rappresenta un punto
determinante. La sua struttura molecolare permette l’attenuazione del rumore di
fondo aumentando la gamma dinamica sonora e nel contempo permette
22
l’incisione di un solco più sottile, caratteristica che abbinata alle nuove tecniche di
registrazione ha portato alla crescita dello spettro riproducibile.
Ma come si è arrivati a trovare il giusto compromesso tra praticità e qualità?
Certo mantenendo un diametro di 12 pollici i 33 ⅓ giri al minuto non sono casuali:
la riduzione al di sotto di questa soglia comporterebbe una diminuzione della
velocità lineare (cioè la quantità di superficie letta dalla puntina ad ogni giro del
disco) tale da compromettere la qualità del suono, in modo particolare quando ci
si avvicina al centro del disco. In effetti, il tratto percorso dalla puntina nel bordo
esterno del disco è poco più di 90 centimetri, mentre al centro di soli 35, dunque
mantenendo costante la velocità angolare a 33 ⅓ giri al minuto, la velocità lineare
varia dai 50 centimetri al secondo all’esterno a meno di 20 centimetri al secondo
al centro. Questo implica la necessità di custodire la stessa quantità di
informazioni nel minor spazio possibile, per questo il diametro dell’ultima spira
non deve essere inferiore ai 10,6 centimetri, causa una drastica perdita nella
qualità del segnale.
Nel 1945 la Columbia Records introdusse negli Stati Uniti il formato 45 giri,
affiancando sul mercato l’affermato 78 giri.
Come materiale venne utilizzato il già collaudato PVC (polivinilcloruro) mentre la
dimensione si ridusse a 7 pollici, migliorando l’aspetto pratico del supporto.
Furono stampati generalmente su entrambi i lati e potevano contenere due brani,
ciascuno della durata massima di circa 4 minuti: la loro funzione fu probabilmente
quella di occuparsi della promozione dei cosiddetti “singoli” destinati soprattutto
all’ambiente radiofonico. Infatti, il 45 giri, non fu soltanto un disco: fu anche il
simbolo di un periodo, la proiezione di un’epoca e soprattutto un modo ben
preciso di fruire la musica, in linea con l’affermazione sempre più estesa della
“musica di plastica”, ossia la musica leggera, le canzoni veloci usa e getta,
l’effimero successo dell’estate.
23
Figura 13. Player 45 giri della RCA Victor del 1949
É il momento storico in cui il business discografico compie il grande balzo in
avanti: l’ordine di grandezza delle vendite passa da migliaia a milioni con
produzioni “ad hoc” per venire incontro alle esigenze culturali e di svago di tutte
le fasce sociali. Indirettamente, ciò ha un effetto tellurico sulla storia della musica
popolare: inizia il monopolio delle grandi case indirizzando l’aspetto musicale
verso un comportamento “economicistico”. In questo senso, le “major”, tentano di
dirottare i gusti del pubblico verso il proprio interesse proponendo produzioni
facili e, nel contempo, accessibili a tutti.
24
1.5
Nastro magnetico: scissione tra produzione e riproduzione
Mentre i primi grammofoni, come anche i fonografi, erano concepiti sia per la
registrazione sia per la riproduzione, con le nuove tecniche e la continua ricerca
verso una maggiore fedeltà nel prodotto discografico, si viene a creare la netta
distinzione tra le macchine per l’incisione e gli apparecchi per la lettura del
supporto. È in questo periodo musicalmente e tecnologicamente fertile che
nascono i primi studi di registrazione, su tutti i famosissimi Abbey Road Studios di
Londra, inaugurati il 12 novembre 1931 con la storica registrazione, condotta da
Sir Edward Elgar nello Studio 1, di Land of Hope and Glory suonata dalla London
Symphony Orchestra.
Abbiamo descritto come già il microfono e la valvola termoionica abbiano gettato
le basi per la nuova era tecnologica nell’avvento della radio. Altrettanto
importante fu la costruzione del primo altoparlante a bobina mobile, il Magnavox
Loudspeaker, per mano di Edwin Pridham e Peter Jensen, la cui prima
dimostrazione pubblica avvenne il 10 dicembre 1915 al Golden Gate Park di San
Francisco. In realtà, però, fu il Phonetron, il primo altoparlante dinamico ad essere
messo in commercio negli Stati Uniti, trovando largo impiego nei ricevitori da
tavolo, rimpiazzando definitivamente la storica tromba.
Nei primi anni 20 si affacciano sul mercato i primi dischi registrati con
strumentazione elettrica della Western Electric e, nello stesso anno, la Warner
Bros collabora con Walter J. Rich alla creazione del Vitaphone, il sistema che
rivoluzionò il sonoro nella cinematografia.
25
La grande innovazione, però, fu la
registrazione di impulsi elettromagnetici.
I primi esperimenti risalgono al 1898,
quando un ingegnere elettrico danese,
Vademar Poulsen, intuì che esisteva la
possibilità di incidere, su una sottilissima
bava d’acciaio, le pulsazioni generate da
una bobina magnetizzata. Tuttavia, fu
solo nel 1927 che venne rilasciato il
primo brevetto per un apparecchio
Figura 14. Vitafono
capace
di
registrare
su
supporto
magnetico. Nel 1928, anche BASF e AEG,
due compagnie tedesche, stavano lavorando insieme per sviluppare il progetto di
Fritz Pfleumer che illustrava la possibilità di utilizzare polvere magnetica su
supporti di plastica e carta; il risultato fu il magnetofono, uno dei primi esempi di
registratore che impiegava come supporto un nastro magnetico.
Il principio di funzionamento prevedeva la raccolta del segnale tramite un
microfono che, modulando una corrente elettrica, variava il flusso di
un’elettrocalamita, detta testina di registrazione, aderente alla quale scorreva un
filo o un nastro che si magnetizzava in rapporto al flusso, conservando tale
magnetizzazione.
Questo nuovo apparecchio si dimostrò subito più efficace del vecchio sistema,
tanto da divenire ben presto uno standard per le registrazioni radiofoniche nella
Germania nazista.
26
Figura 15. Magnetofono AEG del 1935
Durante la Seconda Guerra Mondiale le truppe tedesche, disponevano di
apparecchi di registrazione all’avanguardia, che solo a conflitto terminato furono
individuate dalle forze alleate. In carica all’esercito americano, Jack Mullin fu il
primo a scoprirle e renderle note anche oltre oceano. Mullin lavorò intensamente,
nel corso degli anni successivi, puntando al miglioramento degli apparecchi,
prestando particolare attenzione all’utilità che questi potessero avere nella
sonorizzazione dei film.
Fu durante una dimostrazione pubblica sulle potenzialità del nastro magnetico,
che il direttore tecnico di Bing Crosby, noto cantante e presentatore radiofonico
statunitense, si interessò all’apparecchio di Mullin, chiedendogli di preparare una
sessione di prova della trasmissione utilizzando il suo dispositivo. Fu subito un
27
successo tanto che l’emittente ABC consentì a Crosby di pre-registrare su nastro il
programma The Bing Crosby Show, uno dei più popolari negli Stati Uniti.
Crosby investì un’ingente somma per
finanziare la costruzione di registratori a
nastro, commissionando la Ampex, che
già riforniva gli studi della ABC con il
modello
mondiale
200A,
nella
elevandola
leader
fabbricazione
di
strumenti di registrazione a bobina.
Crosby, quindi, passò alla storia come
pioniere della messa in onda in differita,
Figura 16. Jack Mullin negli studi della ABC con
l'Ampex 200A
ma non tanto per motivazioni di ordine
tecnologico o per spirito di innovazione,
ma per esigenze personali: egli, infatti, preferiva giocare a golf nell’orario in cui
era fissata la diretta del suo show. Incurante della componente tecnologica,
Crosby, aveva una ben chiara percezione di come il registratore potesse conciliare
utile e dilettevole in maniera simultanea.
Per anni il magnetofono è rimasto un apparecchio impiegato esclusivamente
nell’ambito professionale come studi di registrazione, radiofonici e televisivi,
mentre il disco in vinile persisteva incolume come supporto per l’uso consumer,
anche se ormai i tempi erano maturi per l’indirizzamento del nastro anche verso
questa rotta.
28
1.6
Stereofonia, musicassetta e Walkman
Il principio della stereofonia si basa sull’analisi psicoacustica che descrive come
l’essere umano riesce ad individuare la provenienza di un suono dalla differenza di
tempo e di intensità che intercorre tra la sorgente sonora e i padiglioni auricolari.
Detto ciò, qualcuno pensò intelligentemente di applicare questo principio anche
alla registrazione e alla diffusione della musica.
Già nel 1881, Clément Ader, un ingegnere elettrico francese, presentò
all’Esposizione Internazionale di Parigi il tèâtrophone, un sistema che permetteva il
collegamento audio dell’Opéra con degli apparecchi telefonici posti anche a
distanza di chilometri così da permettere l’ascolto remoto dello spettacolo.
Figura 17. Raffigurazione del sistema Teatrophone
29
Una serie di microfoni posti sul palcoscenico, consentivano di ottenere una sorta
di stereo binaurale. L’impianto, infatti, richiedeva ben tre linee telefoniche per
funzionare: una per il trasmettitore destro, una per il sinistro e una per la
comunicazione con l’operatore del centralino. Il tèâtrophone, veniva installato
negli hotel, nelle caffetterie, nei club e altri luoghi di incontro pubblico, Includeva
un servizio di fonogiornale che trasmetteva a intervalli regolari, notiziari della
durata di cinque minuti. Questo sistema ebbe una buona diffusione in Europa e
persistette fino all’avvento della radio.
Figura 18. Alan Blumlein in una sala d'incisione
La consacrazione della stereofonia arrivò nel 1931 quando l’ingegnere inglese
Alan Blumlein, impiegato alla EMI, sviluppò la tecnica del “suono binaurale”.
La storia narra che Blumlein fosse al cinema con la moglie, quando sollevò le sue
perplessità sulla diffusione del sonoro, annunciandole, poco più tardi, di avere la
30
soluzione per porre rimedio a quello che definiva “un problema”. Infatti, le sue
ricerche, si concentrarono principalmente sull’ambiente cinematografico, cercando
di costruire la spazializzazione del suono in funzione dell’immagine sullo schermo.
La soluzione fu semplice: registrare con una coppia di microfoni e riprodurre con
altrettanti altoparlanti, ottenendo così due simultanee ma separate immagini
sonore. Con opportuni trattamenti si ottenne la possibilità di conferire una giusta
locazione panoramica a rumori di sottofondo, dialoghi e musiche.
Il primo film distribuito commercialmente con una colonna stereo fu Fantasia di
Walt Disney, uscito nel 1940 utilizzando il “Fantasound” sound system. Questo
sistema si avvaleva di una pellicola a parte per il sonoro, che scorreva in
sincronismo con la pellicola che portava la fotografia; esso comprendeva quattro
tracce ottiche a doppia larghezza: tre avevano inciso rispettivamente canale
destro, sinistro e centrale, mentre la quarta era un brano di “controllo” delegato
alla gestione dei tre canali audio.
Nonostante il lavoro stesse riscuotendo notevoli risultati, soprattutto nel cinema,
la EMI era preoccupata per l’utilizzo nella sfera commerciale: la scarsa
disponibilità economica dell’epoca non avrebbe di certo attirato gli acquirenti
verso apparecchi che, implementando la nuova struttura stereofonica, sarebbero
risultati troppo costosi. Fu anche per questo che la stereofonia temporeggiò la sua
diffusione nell’industria discografica, settore nella quale prese il sopravvento
soltanto verso la fine degli anni Cinquanta.
Uno dei primi prodotti stereo ad essere commercializzati fu il Bel Canto Stereo
Demonstration, un disco in vinile multicolore traslucido contenente delle
dimostrazioni panoramiche effettuate durante una giornata a Los Angeles con la
narrazione di Jack Wagner.
31
Figura 19. Il Bel Canto Stereo Demonstration disc
All’inizio degli anni Sessanta vi erano tutti i presupposti per l’introduzione di un
nuovo e rivoluzionario supporto musicale, frutto della recente scoperta del nastro
magnetico nell’ambiente di registrazione.
È il 1963 quando il colosso olandese Philips presenta la compact cassette al Radio
Show di Berlino. In realtà ci fu un precedente tentativo da parte della RCA datato
1958 con la commercializzazione della cosiddetta cartuccia RCA, ma il risultato
non fu quello sperato probabilmente a causa dei costi o per lo scetticismo dei
consumatori che all’epoca preferivano acquistare i vecchi e collaudati vinili 33 e
45 giri.
32
Figura 20. Philips compact cassette C-90
La cassetta Philips era costituita da un guscio di materiale plastico dove,
all’interno, scorreva il nastro magnetico che conteneva l’informazione sonora su
quattro tracce suddivise in due stereo per lato. La lunghezza del nastro veniva
solitamente espressa in minuti, indicando la durata complessiva della riproduzione
considerando entrambi i lati: i più diffusi erano il C64 (23 minuti per lato), C60 (30
minuti per lato), C70, C74, C90 e C120.
I punti di forza del nuovo supporto, però, erano altri: l’audiocassetta era più
compatta e più resistente del disco in vinile ma soprattutto consentiva, per la
prima volta, l’incisione domestica. Era possibile registrare la propria voce, i rumori
di un ambiente, i pezzi preferiti trasmessi dalla radio, creandosi delle vere e
proprie compilation4 secondo i gusti musicali di ciascuno.
Nella cassetta, a differenza del disco, erano presenti le due funzioni fondamentali
che sono alla base di qualsiasi sistema comunicativo: la lettura e la scrittura.
4
Una compilation è una successione di brani di uno o più artisti, prelevati da pubblicazioni differenti e riunite
nella stessa.
33
Figura 21. Cassetta Stereo 8
Dopo vari tentativi, nel 1966, Motorola, su commissione della Ford Motor
Company, realizzò un progetto che inscatolava in una speciale “cartuccia” un
nastro magnetico a otto tracce. Nasceva così la cassetta Stereo8, un po’ più
ingombrante di un pacchetto di sigarette, ma maneggevole anche nei luoghi più
disagiati, come l’abitacolo di una vettura in movimento.
La mossa vincente della Philips fu quella di concedere in licenza il brevetto ad un
numero elevato di produttori, soprattutto giapponesi, come Sony e Matsushita, che
inserirono i magnetofoni nei nuovi sistemi di home entertainment.
Da questo momento in avanti la storia della cassetta è lunga e avvincente e
segnata dalla concorrenza con il supporto disco. L’esito di questa competizione fu
una convivenza più o meno pacifica: il disco rimaneva sovrano per l’attitudine che
dimostrava nella qualità d’ascolto, mentre la cassetta si proponeva come prodotto
più versatile nelle situazioni più contingenti, non a caso diverrà successivamente il
supporto per eccellenza dei sistemi portatili.
34
La pietra miliare a tal proposito fu posta dall’invenzione del Walkman, introdotto
nel 1979 dalla Sony. Fu il primo apparecchio portatile pensato per l’utilizzo
esclusivo del singolo individuo.
Il primo modello commercializzato fu il TPS-L2, di colore blu-argento, disponibile
in Giappone dal mese di luglio 1979. Nel Regno Unito il prodotto è stato lanciato
in un locale di Londra, Il Regines, con il nome di Sony Stowaway, mentre negli Stati
Uniti col nome Sony Soundabout.
Figura 22. Sony Walkman del 1979
Con la sua sola presenza, il Walkman, ha causato il ripensamento dell’intera
industria produttiva musicale e, più di tutto, ha causato mutamenti di ordine
sociale offrendo un ulteriore strumento alle nuove generazioni (tendenzialmente i
35
maggiori consumatori di musica) per distinguersi e isolarsi, costruendo sempre più
una cultura del privato, immagine che non a caso la Sony ha utilizzato per
promuovere l’oggetto. L’opportunità di coprire luoghi dove prima era impensabile
poter ascoltare musica, come ad esempio i luoghi pubblici, era uno dei suoi punti
di forza e con la sua introduzione sul mercato ebbe inizio la rimonta della cassetta
sul disco in vinile.
La prova della sua importanza si manifesta con la mole di studi socio-culturali di
cui è stato oggetto, poiché proprio in virtù del suo status di tipico artefatto
culturale, lo studio della sua storia può offrire la possibilità di comprendere come
abbia giocato un ruolo fondamentale nella cultura della musica e della società.
Si parla di un oggetto che è stato riempito di significati poiché padroneggiato da
un certo segmento di consumatori, infatti, i significati come gli usi non sono
inscritti negli oggetti ma costruiti e prodotti attraverso pratiche culturali.
Figura 23. Pubblicità Sony Walkman
36
Il Walkman è stato il primo medium concepito per l’uomo moderno, lo strumento
che mette in scena l’isolamento e l’esistenza di un universo personale immerso in
quello comunitario.
Chi sia stato l’inventore del Walkman all’interno della Sony è oggetto di pareri
contrastanti. Diverse fonti attribuiscono la sua ideazione a Akio Morita altri,
invece, accostano l’invenzione a Matsura Ibuka rispettivamente fondatore e
presidente onorario della società nipponica. Mentre regna l’incertezza sul
protagonista della vicenda, è ben noto il motivo che portò alla nascita
dell’apparecchio: la crisi del mercato dei registratori per audiocassette, che
costrinse la Sony a produrre un sistema d’ascolto rivoluzionario, più appetibile,
concentrando gli sforzi sulla portabilità.
Oltre a tutto ciò, il Walkman, poiché definito oggetto simbolo della nuova
generazione orientata all’isolamento, è stato anche definito “perturbatore
dell’equilibrio sociale”. Furono in molti, infatti, a qualificare il sistema come
superfluo. Come sostiene Jean Baudrillard, la cultura materialista non ha come
valore primario l’uso ma l’identità: il consumo di cultura materiale non è
importante per la soddisfazione che può generare ma per l’attività di
differenziatore socio-culturale che possiede, comportandosi quindi come un
comunicatore.5
Il consumo è un sistema di significati che funziona come un linguaggio, da questo
ne discende che i bisogni non sono individuali ma culturali.
Anche Alberto Abruzzese ha affermato che uno degli elementi fondamentali per
comprendere il Walkman è il suo legame con la musica rock e quindi con la
cultura metropolitana. 6 Esso è stato anche parte del processo di saturazione
spaziale, infatti, dopo quello domestico e quello dell’automobile, ha permesso
5
Baudrillard (1988)
6
A. Abruzzese “L’immaginario individuale” (1990)
37
l’estensione delle reti comunicative a tutti i tempi e luoghi possibili,
simboleggiando la rinnovata multimedialità dell’attore sociale.
38
2 IL PERIODO DIGITALE
2.1
La smaterializzazione della musica
Negli ultimi anni è cresciuto il predominio della tecnologia digitale nella musica,
nel settore professionale come nell’amatoriale. Il personal computer, sempre più
potente, amichevole ed economico, viene dotato di periferiche e programmi
specifici e diventa il nuovo "strumento musicale" in grado di assistere il musicista
nello svolgimento delle più svariate attività: dalla ricerca astratta alla produzione
commerciale. Il termine musica elettronica che fino alla fine degli anni settanta
identificava un settore della musica contemporanea con precisi ambiti linguistici
ed estetici, con l’avvento degli anni ottanta perde progressivamente questa
identità per assumere un significato di pura connotazione tecnica, data l’ampia
diffusione del mezzo informatico in tutti i generi musicali.
Allo stato moderno la musica, in qualità di fortissimo catalizzatore delle attenzioni
e dei desideri umani, si sta ponendo come pioniere di nuovi assetti tecnologici.
E' chiaro già da tempo, come le nuove tecnologie digitali abbiano continuato il
processo di atomizzazione della musica iniziato con l'audiocassetta (quando i
singoli brani cominciavano ad essere svincolati dagli album grazie all'opera degli
utenti) e ne abbiano iniziato uno nuovo: quello della smaterializzazione. I contenuti
della musica, dunque, hanno cominciato a diventare immateriali, cioè dei dati
transitabili da un supporto ad un altro.
39
Con il termine musica liquida7 si contraddistingue il processo di svincolamento dei
brani dal supporto fisico, della musica che viaggia da computer alla rete e
viceversa per finire su lettori portatili, telefoni cellulari o altri computer ancora,
musica che viene acquistata o scambiata senza finire su supporti fisici, ma
rimanendo un'entità astratta legata unicamente al nome del file. Questo processo
di smaterializzazione ha come corollario una proliferazione di mezzi di
riproduzione e mette in risalto come la tecnologia digitale rompa il binomio
classico servizio/piattaforma fisica. Per la musica digitale (proprio per la sua
essenza binaria) non esiste un meccanismo di riproduzione standard: i dati
musicali viaggiano da dispositivo a dispositivo, anche se il computer rimane il
punto di raccordo in questo fitto reticolo tecnologico. La musica liquida cerca un
posizionamento nel mondo reale e il computer costituisce solo un tramite. I file
scambiati o scaricati generalmente sostano sul disco rigido del computer per finire
su lettori portatili o di nuovo su CD.
Sempre più i singoli dispositivi, dai telefoni cellulari ai lettori mp3, tentano di
liberarsi dal legame con il computer per essere totalmente autonomi nel rifornirsi
di musica, grazie anche alla possibilità di connettersi alla rete tramite i sistemi
wireless.
Tutte le principali tecnologie nel passaggio dall'analogico al digitale si liberano
dai supporti fisici e quindi dai vincoli che li legano a determinati dispositivi, è la
legge del digitale, linguaggio universale delle nuove tecnologie in grado di
funzionare su una molteplicità di piattaforme.
Quella della “musica liquida” è una delle metafore più utilizzate per leggere l’evoluzione digitale dei suoni.
Questa metafora ha forti analogie con quella della “modernità liquida” elaborata da Zygmunt Bauman: la
società, in questa fase storica, sta passando da modelli solidi e hardware, con relazioni ben codificate, a
modelli fluidi e software, con relazioni più indefinite tra gli individui. Allo stesso modo, la musica liquida è
contrassegnata dall’indebolimento della sua istituzione centrale, la discografia, e dall’emergere di una nuova
rete di attori industriali, di relazioni sociali (le comunità on line di ascoltatori e fan) che accedono alla musica
attraverso i nuovi canali telematici, “navigando” in un mare di suoni.
7
40
2.2
La digitalizzazione e il suo primo supporto: il Compact Disc
In campo musicale, la digitalizzazione consiste nello spezzettare un’onda sonora
continua in tante parti minuscole (campionamento), trasformando quindi un
segnale analogico e continuo nelle unità discrete del linguaggio binario, ovvero in
una serie di 0 e 1.
Questo processo avviene tramite l’ADC (Analogue to Digital Converter), che ha il
compito di prelevare “campioni” dalle infinitesimali porzioni dell’onda sonora
analogica. Il numero dei campioni prelevati in un intervallo temporale viene detto
frequenza di campionamento. La profondità (bit depth), invece, è il parametro con
cui si misurano le sequenze di 0 e 1 che rappresentano l’informazione sonora, e
quindi l’accuratezza del campionamento. Più alto è il numero di bit, maggiore è la
quantità di numeri che rappresentano l’onda sonora e quindi la fedeltà della
conversione.
Il suono digitale viene riprodotto tramite un DAC (Digital to Analogue Converter),
che produce tensioni elettriche proporzionali ai campioni digitali, secondo la
frequenza utilizzata.
I registratori digitali, rispetto ai sistemi analogici, consentono dei sostanziali
accorgimenti, quali:
•
L’eliminazione del rumore di fondo tipico delle registrazioni a nastro
analogiche;
•
Una riproducibilità del segnale sempre ottimale, poiché ogni copia del
sonoro digitale è un’esatta copia della sequenza di numeri, quindi
virtualmente identica alla prima (il cosiddetto “master”);
•
Una maggiore versatilità in termini di editing e montaggio.
41
Da questo punto di vista, è fondamentale il passaggio dalla registrazione a nastro
a quella su hard disk. Quest’ultimo diventa un archivio potenzialmente enorme di
informazioni sonore manipolabili in modo virtuale all’infinito con la stessa qualità
di partenza, laddove sovraincidere su nastro significava perdere una parte del
segnale originario.
Fondamentalmente, la registrazione digitale del suono è simile a quella analogica.
Entrambe si basano sul principio della trasduzione (ovvero la trasformazione
dell’onda sonora in un’altra forma), dell’immagazzinamento e della creazione di
uno strumento che sia in grado di invertire tale processo, tramutando nuovamente
l’energia in suono. L’orecchio umano stesso è un trasduttore: attraverso una serie
di dispositivi trasforma un segnale fisico (le vibrazioni sonore) in uno elettrico (le
stimolazioni neurali che producono la sensazione uditiva).
Il processo di digitalizzazione dei contenuti è identico a quello di altre forme
espressive. Un esempio è la foto digitale: viene “scattata” in modo analogico
tramite una serie di lenti che catturano la luce e le sue sfumature, quindi
l’informazione viene fissata su pellicola analogica e poi digitalizzata tramite un
convertitore (scanner) o trasformata direttamente in una sequenza di numeri dalla
macchina fotografica. In entrambi i casi, i numeri che compongono l’immagine
digitale devono essere decodificati per poterne generare una versione visibile e/o
stampabile.
La storia del Compact Disc inizia dalla Philips che, già nei primi anni settanta, era
alla ricerca di un nuovo supporto portatile e robusto per immagazzinare dati.
Nonostante il neonato digitale fosse molto promettente, molti erano convinti che
l’analogico fosse ancora la scelta migliore, soprattutto in virtù della (massima)
qualità alla quale si era giunti in quel periodo. Pochi anni dopo alla Philips si
aggiunse la Sony, in una quasi incredibile joint-venture finalizzata alla definizione
di uno standard condiviso per il nuovo formato. Molti erano i parametri da
scegliere, e i due team di ricercatori facevano proposte spesso contrastanti. Solo
su una sembrava esserci già da subito un accordo di massima: la capacità di 60
42
minuti di registrazione sonora, corrispondenti ad una certa quantità di byte
memorizzabili a seconda di alcune caratteristiche puramente tecnologiche da
determinare (nello specifico, frequenza di campionamento e profondità di
quantizzazione, dati che generano il vero e proprio bit-rate del flusso digitale). A
questi 60 minuti, mediante varie tipologie di codifica, seguivano le proposte di un
certo diametro per il compact disc: Philips spingeva per i 115 mm e Sony per i 100
mm, quasi certamente pensando già allo sviluppo di lettori portatili. Poi,
improvvisamente, nel 1980 la capacità fu modificata in 74 minuti e 33 secondi, un
dato completamente inusuale: i 60 minuti erano pensati per rivaleggiare con gli
LP e sembravano sufficienti per poter stipare anche le registrazioni più lunghe
(opere, ad esempio) su più dischi, mantenendo comunque contenuta la dimensione
del supporto fisico.
Lo standard scelto inizialmente e poi
modificato (il cosiddetto “Red Book”,
versione
espressamente
dedicata
al
sonoro del generico compact disc), in
nessun modo si riferisce direttamente al
tempo di registrazione; esso fissa però
parametri tecnici piuttosto precisi sulla
natura dei “solchi” incisi sul disco, e
stabilisce anche delle precise fasce di
tolleranza.
La
motivazione
del
cambiamento è tanto semplice quanto
Figura 24. Presentazione del Compact Disc
curiosa: “Il tempo di riproduzione fu
determinato da Beethoven”, seppur dopo
la sua morte.
43
Figura 25. Joop Sinjou (Philips) e Akio Morita (Sony) confrontano i rispettivi player Compact Disc
La moglie di Norio Ohga, vice presidente della Sony, suggerì al marito di scegliere
una capacità che ben si sposasse con uno dei brani di musica classica più noto: la
nona sinfonia di Beethoven. Norio Ohga, che aveva studiato al Conservatorio di
Berlino, probabilmente non fu dispiaciuto di questo consiglio, che peraltro
consentì di tornare a riflettere su altri problemi che riguardavano ulteriori
parametri importanti da decidere per il nuovo formato. In particolare, la lettura
della nona considerata all’epoca “di riferimento” era quella del 1977 di Herbert
von Karajan con i Berliner Philharmoniker, circa 66 minuti di musica. Non
incidentalmente, lo stesso Karajan fu impegnatissimo nello sviluppo di questa
nuova tecnologia, attento come sempre nella sua carriera alla possibilità di
diffondere la sua opera nel miglior modo possibile, e ne firmò il debutto nel 1981
con la Sinfonia delle Alpi di Richard Strauss, il primo vero test di compact-disc
fisicamente realizzato (curiosamente, il primo a finire sugli scaffali fu “Visitors”
degli ABBA). Si pensò di controllare quale fosse la più lunga registrazione della
44
nona sinfonia di Beethoven disponibile in commercio. La risposta fu quasi
immediata: la celebre registrazione EMI di Wilhelm Furtwängler, registrata dal
vivo a Beyreuth nel 1951. Alcune fonti affermano che questa interpretazione fosse
anche la preferita dalla moglie del vice-presidente della Sony. In ogni caso, essa
era particolarmente lunga, ben più dei soliti 65-70 minuti di una tipica nona, ma la
fama di Furtwängler era così grande che i 74 minuti e 25 secondi della
registrazione (più le pause tra le tracce) furono scelti come standard per il
compact disc.
Per memorizzare una tale quantità di musica senza ricorrere a sacrifici qualitativi
era necessario aumentare il diametro del supporto agli attuali 120 mm. Nella
realtà dei fatti ci fu dunque certamente qualche altro motivo molto importante
che permise una simile scelta. Il più probabile di questi è che la Sony spingesse
per i 120 mm sapendo che la Philips aveva già preparato tutti i mezzi necessari
alla fabbricazione dei supporti da 115 mm ed era dunque molto avanti. È allora
ipotizzabile che pur di tornare in una condizione di parità la Sony cercò di imporre
una capacità di registrazione maggiore, giustificando questa necessità con
l’esistenza di un’importantissima incisione musicale che non sarebbe stata
contenuta in un singolo disco. Nonostante, probabilmente, il merito (o la colpa)
dei 74 minuti e 33 secondi non sia unicamente di Beethoven, ma piuttosto delle
difficoltà della Sony a tenere il passo di Philips, fu effettivamente la nona di
Furtwängler, con la sua strana durata, a determinare la capacità musicale dei
compact disc. Fino al 1988, ad ogni modo, non fu possibile utilizzare tutti quei
minuti per ragioni puramente tecnologiche che impedivano di sfruttare
pienamente lo standard: solo in quell’anno la storica nona di Furtwängler riuscì a
vedere la luce su un unico disco.
Successivamente, vennero definiti anche gli altri aspetti tecnici del nuovo
supporto. Venne utilizzata la codifica Pulse Code Modulation (PCM), già adottata nel
settore delle telecomunicazioni, con frequenza di campionamento fissata a 44.100
campioni per secondo (44.1 kHz), tuttora in vigore. Due furono i motivi alla base di
45
questa scelta. Il primo si rifà al teorema di Nyquist-Shannon, secondo il quale la
frequenza di campionamento deve essere almeno il doppio della frequenza più
elevata percepibile dall’orecchio umano, ovvero 20 kHz. Il secondo motivo è
legato invece a una questione di spazio: il sample rate scelto rappresentava la
capacità massima di informazioni che potevano essere memorizzate su nastro (il
supporto dell’epoca poi sostituito dal CD). Si decise inoltre che ogni singolo
campione fosse archiviato come dato binario a 16 bit (corrispondenti a 2 byte), che
offrono una gamma dinamica del suono pari a 96 decibel (ad ogni bit infatti
corrisponde una gamma dinamica di 6 dB).
Figura 26. Sony D-50. Uno dei primi modelli di CD player portatile
Tutte le informazioni del CD vengono immagazzinate su dei microsolchi incisi su
un supporto di plastica. A differenza del disco in vinile, che contiene un’unica
lunga scanalatura a spirale, il CD contiene micro-scanalature “discrete”,
rappresentando la sequenza di bit, che vengono lette da un raggio laser.
46
Entrambi, quindi, si basano sullo stesso principio: un disco su cui ci sono incise
delle informazioni, che vengono decodificate facendolo girare e leggere da una
testina (una punta di diamante per il vinile, il laser per il CD).
La maggiore fedeltà e la virtuale indistruttibilità del supporto digitale hanno
spinto l’industria discografica, negli anni ottanta, a un’opera di riconversione del
catalogo nel nuovo formato. L’operazione si è trasformata in una sorta di panacea
per i bilanci. L’idea si è rivelata davvero una medicina in grado di risolvere un
periodo di stagnamento dell’industria: rivendere ai consumatori ciò che già hanno,
senza ulteriori costi di produzione che non siano quelli di riversamento nel nuovo
formato. Su queste premesse, il CD e il digitale hanno progressivamente affiancato
e poi sostituito l’analogico, tanto da rendere il vinile un oggetto per appassionati.
Sicuramente, questa graduale sostituzione ha migliorato le condizioni del
consumo sonoro, ma le ha anche modificate profondamente: un disco in vinile è
certamente fragile ma questa sua caratteristica l’ha sempre reso, nell’immaginario
collettivo, un oggetto da avere e custodire, non replicabile e non duplicabile.
Questa affezione verso l’oggetto sembra essersi persa con il CD, che essendo di
piccole dimensioni sacrifica notevolmente la parte iconica (la copertina) e poiché
indistruttibile, non necessita di particolari attenzioni.
La storia del CD è la perfetta rappresentazione della convergenza dei contenuti
verso un unico spazio. Infatti, data la possibilità di operare con diversi codici
espressivi, gli artisti e l’industria iniziano progressivamente a lavorare creando una
fusione di linguaggi: realizzare un album non significa necessariamente produrre
un CD di soli suoni, ma creare un supporto in cui la musica può essere fruita
insieme a parole e immagini.
Un altro supporto di registrazione che non è mai riuscito a convincere i
consumatori è stato il Minidisc, sviluppato dalla Sony con l’idea di sostituire la
cassetta a nastro e probabilmente con l'intento di raggiungere la sua stessa
popolarità. Quando, nel 1992, fu introdotto sul mercato il primo modello, aveva in
apparenza tutte le carte in regola per riuscire nello scopo. Schiacciato dal CD e
47
dalla musicassetta, rimase un supporto di nicchia, anche se ancora oggi è molto
utilizzato nelle radio.
2.2.1 Supporti digitali in alta definizione: SACD e DVD-Audio
L’origine dei supporti in alta definizione va ricercata, soprattutto, focalizzando il
periodo storico in cui furono ideati.
Nel 1998, Sony e Philips erano già al lavoro per l’introduzione di un nuovo
supporto che potesse permettergli il rinnovamento delle royalty, dato che il
brevetto sul Compact Disc era in scadenza. La tecnologia digitale, inoltre, aveva
compiuto enormi progressi negli ultimi anni, spingendo i due colossi ad investire
le loro risorse nel perfezionamento del supporto già esistente. Nacque così il Super
Audio CD (SACD). Esteriormente simile al Compact Disc, il SACD, adotta una
tecnologia chiamata Direct Stream Digital (DSD), un sistema di codifica, messo a
punto dal tandem Sony/Philips, che utilizza una risoluzione ad un singolo bit con
una frequenza di campionamento pari a 2.8224 MHz (stabilita dopo opportune
verifiche che imposero un incremento di almeno 64 volte la frequenza di 44.1 kHz
utilizzata nel CD).
Con queste prerogative, il SACD, si propone di ridurre al minimo i fenomeni di
distorsione legati alla quantizzazione con architettura PCM, introdotti durante la
fase di conversione. L’esito di questa scelta ha consentito un incremento della
gamma dinamica (120 dB), della larghezza di banda (fino a 100 kHz) oltre che un
netto miglioramento della qualità del segnale da riprodurre.
Figura 27. Rappresentazione digitale di un'onda con PCM e DSD
48
Sebbene i primissimi esemplari furono concepiti per la sola riproduzione
stereofonica, il SACD è compatibile per l’audio multi-canale (massimo 6 canali).
Per fare ciò, si è reso necessario convertire i dati DSD in formato Direct Stream
Transfer (DST), applicando un algoritmo di compressione di tipo lossless, riducendo
lo spazio sul disco fino al 60%, e di conseguenza, il bitrate necessario in fase di
lettura, raggiungendo la capacità di 70-80 minuti di riproduzione. In questo senso,
va fatta una precisazione. Il SACD necessita di un player specifico per decifrare il
sistema DSD (eccezion fatta per il SACD ibrido che implementa un livello con
tecnologia PCM, quindi riproducibile dai comuni lettori CD, ovviamente perdendo
le caratteristiche di alta definizione) che, non supportando il “down-mixing” da
multi-canale a stereo, obbliga alla scrittura separata delle due matrici nel disco.
Figura 28. Modello che illustra un SACD ibrido
49
Consapevoli della facilità di duplicazione dei CD, Sony e Philips hanno inoltre
integrato, nel nuovo standard, un sistema anti-copia basato su “watermarking”
digitale, denominato Pit Signal Processing (PSP), ovvero un’aggiunta di segnali al
messaggio originario, difficilmente falsificabili e, opzionalmente, visibili anche a
occhio nudo; una tecnica che ricorda quella della filigrana nelle banconote.
In commercio è possibile trovare il SACD in tre tipologie:
•
Single-layer: costituito da un unico livello, detto high-density layer (HD layer)
con capacità di 4.7 GB e codifica DSD;
•
Dual-layer: costituito da due distinti HD layers con capacità complessiva di
8,5 GB e codifica DSD (creato soprattutto per incrementare la dimensione e
quindi la durata del contenuto musicale del single-layer);
•
Ibrido: formato da un HD layer con capacità di 4.7 GB e codifica DSD, e da
un livello con codifica PCM a 16bit/44.1 kHz.
Ma se il SACD, unito al sistema DSD, viene presentato come un supporto dalle
caratteristiche innovative, rivoluzionarie, che rasentano la perfezione, è lecito
chiedersi come mai la sua diffusione nel mercato musicale sia rimasta un punto
interrogativo, lasciando al CD il ruolo indiscusso di “contenitore musicale”.
La verità è che il sistema progettato da Sony/Philips si è dimostrato tutt’altro che
efficiente sotto molti aspetti. Vediamone alcuni:
•
Per trasferire l’energia del rumore di fondo, generata dal campionamento a
1 bit, fuori dalla banda udibile, viene utilizzato un apposito algoritmo di
filtraggio detto noise-shaping, che limita la banda passante reale intorno ai
50 kHz, inoltre, la gamma dinamica decresce rapidamente a frequenze
superiori i 20 kHz;
•
Apparecchiature e software digitali presenti negli studi di registrazione,
operano quasi esclusivamente con codifica PCM (fatta eccezione per
qualche sistema come Pyramix che sfrutta la tecnologia Digital eXtreme
50
Definition (DXD) con una risoluzione di 24 bit/352.8 kHz, molto più
adattabile alla fase di editing o sistemi come SADiE, Tascam, Genex che
sfruttano il sistema DSD nativo) quindi, nella maggior parte dei casi, per
realizzare un SACD si converte il master finale nel dominio DSD soltanto
nella fase di authoring;
•
Il SACD supporta il multi-canale soltanto nella modalità 5.1. Per usufruire
di qualsiasi altra configurazione, vengono associati dei file “vuoti” ai canali
non selezionati;
•
Per beneficiare appieno delle qualità sonore del supporto è necessario
investire una somma considerevole in tutti gli anelli della catena di
riproduzione: dal player agli altoparlanti;
•
Non è mai stato integrato nei Personal Computer un sistema in grado di
decifrare il DSD: una vera limitazione se si pensa che oggigiorno è uno dei
mezzi più utilizzati per l’ascolto di musica;
•
Gli attributi di cui dispone il SACD, non attraggono l’acquirente, poiché
costretto ad una spesa supplementare rispetto al CD, per un disco (parliamo
di musica pop/rock “supercompressa” che risulta la più influente nel
mercato) che nella maggior parte dei casi viene ascoltato in stereofonia
con impianti hi-fi di bassa qualità.
Per ovviare ai problemi di ordine tecnico, la Sony sperimentò un formato
denominato DSD-Wide, mantenendo inalterata la frequenza di campionamento ma
utilizzando una risoluzione a 8 bit, avvicinandosi più ad un’architettura PCM anche
se completamente compatibile con la tecnologia DSD; tuttavia il supporto non
risulta mai uscito dai laboratori.
Il DVD-Audio nasce per contrastare il SACD, basandosi però, su una tecnologia
completamente differente. Rappresenta la soluzione alternativa per l'audio in alta
definizione proposta dal cartello DVD (Matsushita e altri) con il forte contributo
51
della Meridian Audio, società molto impegnata nello sviluppo di tecnologie audio
digitali.
Il DVD-Audio è un’effettiva evoluzione del CD a standard PCM. Utilizza come
supporto, appunto, il DVD sviluppato per contenuti video, ma già all'origine
pensato per altri scopi (dal nome Digital Versatile Disc). La risoluzione può essere a
16 a 20 o a 24 bit, mentre le frequenze di campionamento accettate sono
44.1/48/88.2/96/176.4/192 kHz. Naturalmente questa scelta ha comportato un
forte incremento dimensionale dei dati e quindi dello spazio occupato sul disco
(che comunque ha una capacità di 8.4 GB, ben 12 volte quella del CD).
Un grande vantaggio del DVD-Audio sta nella capacità di gestire fino a un
massimo di 8 canali audio, liberamente configurabili dall’utente (anche se nella
realtà, tranne poche eccezioni, vengono utilizzate le configurazioni standard). È
possibile, infatti, ottenere diverse combinazioni, come riportato nella tabella
seguente.
Per sfruttare tutte le possibilità del multi-canale, l’audio PCM viene memorizzato
tramite l’integrazione di un algoritmo di compressione lossless, senza cioè alcuna
perdita di dati, messo a punto dalla Meridian, chiamato appunto Meridian Lossless
Packing (MLP), garantendo un rapporto di compressione inferiore rispetto al
52
sistema DTS utilizzato nel SACD. L’encoder MLP risulta indispensabile nella
riproduzione stereo a sample rate di 176.4 e 192 kHz e in multi-canale a
frequenze superiori gli 88.2 kHz, mentre a 24 bit 44.1/48 kHz in multi-canale e 24
bit 88.2/96 kHz in stereofonia è possibile scrivere in modalità non compressa.
Inoltre, i lettori DVD-Audio sono in grado di effettuare il “downmix” da 5.1 a
stereo, secondo dei parametri impostati in fase di authoring, qualora il sistema
d’ascolto fosse sprovvisto di setup surround.
I dischi DVD-Audio generalmente includono contenuti extra come video, interviste,
sottotitoli, immagini, presentazioni, tutti selezionabili da un apposito menù; per
questo, come per la selezione della configurazione multi-canale, è doveroso il
collegamento del lettore ad un apparecchio televisivo.
Come il SACD, il DVD-Audio è provvisto di un meccanismo di protezione contro la
duplicazione non autorizzata, chiamato Content Protection for Prerecorded Media
(CPPM) che utilizza una chiave di blocco digitale, opportunamente decifrata dal
riproduttore abilitato alla lettura.
Queste caratteristiche hanno, fin da subito, reso il DVD-Audio superiore a qualsiasi
altro supporto, anche se per qualche motivo è stato definito un supporto “mai
nato”; uno svantaggio, già all'origine, era l’incompatibilità con il CD (i DVD-Audio
non possono essere letti dai comuni lettori CD). Un problema relativo
nell’ambiente domestico, dove potrebbe essere presente un lettore DVD di ultima
generazione, ma più pesante in mobilità (Car Audio e player portatili) dove non
risultano notizie di riproduttori compatibili. Non meno importante, infine, è la
contiguità con il “pericolosissimo” PC, su cui è possibile installare software in
grado di duplicare il formato DVD, varcando tranquillamente il blocco creato dal
CPPM. Da qui, forse, il timore delle case discografiche sull’adozione di un supporto
dalla copia semplice e alla portata di tutti.
Interessante lo studio condotto dal Journal of the Audio Engineering Society sul
confronto tra CD 16 bit/44.1 kHz con il DVD-Audio 24 bit/192 kHz: su 60
ascoltatori sottoposti ad un totale di 554 test nell’arco di un anno, nessun
53
soggetto è stato in grado di distinguere fra qualità CD e HD. Tuttavia gli autori
dello studio dichiararono che “virtualmente tutti i SACD e DVD-Audio suonano
molto meglio del CD”. Questo, però, è dovuto solamente ad una migliore qualità
dell’incisione, del mixaggio e della produzione artistica nelle registrazioni che
vengono successivamente proposte da etichette discografiche nei supporti ad alta
definizione.
Oggi, sia il SACD che il DVD-Audio, continuano la loro realtà commerciale nei
mercati di “nicchia”, utilizzati prevalentemente come supporto per la musica
classica, che ricopre soltanto il 3% del mercato musicale, destinato all’ascoltatore
“più attento” ad apprezzarne le caratteristiche. Tuttavia il futuro della musica su
supporto sembra dirigersi verso della tecnologia Blu-ray, anche se la sensazione
sia di una ormai inevitabile estinzione.
2.3
La compressione del segnale audio digitale: l’MP3
La fase digitalizzazione della musica successiva al CD è la cosiddetta
compressione, strettamente connessa all’avvento dell’era Internet e dello scambio
di musica on-line. Comprimere un segnale audio significa rimuovere le parti
superflue (ad esempio quelle non percepibili dall’orecchio umano) consentendo
una drastica riduzione delle dimensioni del file (conservando comunque una
riproduzione accettabile) a tutto vantaggio dello spazio di memorizzazione e del
tempo di trasferimento nella rete.
Quando si parla di file audio compresso, si indica, in maniera quasi implicita, il
formato che più di tutti si è imposto nell’ambiente consumer e non: l’MP3.
L’MP3 consente la compressione di file musicali con un compromesso tra qualità
del suono e risparmio di dimensioni mai raggiunte. La compressione viene
effettuata seguendo algoritmi appositi studiati dall’MPEG (Moving Picture Expert
54
Group), una joint-venture che lavora sotto la direzione dell’ISO (International
Organization for Standardization) e della IEC (International Electrotechnical
Commission). Questo gruppo di ricercatori ha creato degli standard per la
trasmissione del video e dell’audio al fine di poter trasmettere immagini e suoni
nella miglior qualità e con la minore occupazione di banda possibile. Lo standard
MPEG però, è una base generica, applicabile sia ai filmati che ai suoni, sul quale
sono stati sviluppati successivamente dei livelli (layer) addizionali, in grado di
potenziarne le possibilità.
Le intenzioni erano rivolte soprattutto alla televisione del futuro: lo standard,
infatti, doveva comprimere così tanto da permettere l’invio dei dati su canali di
trasmissione molto lenti e, forse, nessuno pensava a quello che sarebbe potuto
accadere. In effetti, non è accaduto molto fino al 1991, quando all’interno di un
gruppo di ricerca formatosi nel 1985 ad Erlangen (Germania) chiamato “Fraunhofer
IIS”, dal nome del ricercatore tedesco Joseph von Fraunhofer, vissuto a cavallo tra
Settecento e Ottocento, viene sviluppato un piccolo software (con relativo player)
per la codifica del formato MP3: il Layer 3. Più precisamente, fa parte degli
standard MPEG 1 e MPEG 2; da qui la definizione corretta degli MP3 presenti in
rete, ovvero MPEG 1 Layer 3 e non MPEG 3. A questo punto non è più necessario
possedere hardware dedicato e costoso per sfruttare le caratteristiche dell’MP3, è
sufficiente un qualunque PC, anche se la velocità di codifica dipende molto dalla
potenza della CPU utilizzata.
La compressione non esegue alla perfezione tutti i tipi di compiti; per la musica ne
serve un tipo particolare. Lo Zip, ad esempio, che si usa comunemente per la
compressione generica, è un formato che comprime tutti i tipi di file allo stesso
modo. Non è possibile comprimere ulteriormente lo stesso file, perché Zip è un
tipo di compressore non distruttivo (lossless), quindi, non supera un certo limite.
Allo stesso modo, se si decomprime (ossia si ri-trasforma nel file originale) un file
compresso con Zip, rimane esattamente inalterato, fino all'ultimo bit.
55
L'MP3 dal canto suo utilizza un tipo di compressione distruttiva (lossy). Non è più
possibile, una volta trasformato un file in MP3, tornare al file originale. Il segreto,
quindi, è quello di riuscire a eliminare quello che non serve e conservare
l’indispensabile. Con l’MP3 non varia la qualità di ascolto, ma la struttura reale
della traccia.
L'MP3 applica modelli di compressione che si basano sulla psicoacustica, cioè sui
limiti dell’apparato uditivo umano. Durante la codifica (definita Perceptual Coding)
vengono, quindi, eliminate tutte le parti definite ridondanti dall’algoritmo di
compressione.
Figura 29. Diagramma a blocchi del sistema Perceptual Coding
Le parti del mezzo di registrazione che contengono dati non udibili potrebbero
essere utilizzate per contenere dei dati al contrario percepibili; in questo modo è
possibile ridurre considerevolmente lo spazio necessario alla memorizzazione
delle informazioni audio, senza alcuna perdita nella qualità. Oltretutto l’MP3
utilizza una codifica detta headerless ossia "senza testata".
I file Zip, ad esempio, hanno una testata, cioè, per poterli codificare, il programma
deve tornare all'inizio del file e ispezionare una "mappa" che gli permette di
riportarlo alle dimensioni originali. L’MP3 è organizzato diversamente; i file MP3
sono divisi in singoli pacchetti detti frames, ognuno di essi ha il suo piccolo
header iniziale che gli permette di essere identificato. Questo significa che la
lettura di un file MP3 può essere iniziata in qualsiasi punto del file stesso,
56
all'inizio, alla fine, al centro, o in qualunque altro punto. Tutto ciò per un file
musicale è molto importante, permette una serie di applicazioni, come juke-box
elettronici, oppure l’ascolto di musica direttamente da Internet in tempo reale
(sempreché la velocità di riproduzione e quella di trasferimento siano compatibili),
operazioni che con un sistema senza queste caratteristiche non sarebbero
possibili. Questo oltretutto permette di utilizzare file MP3 in modi anche molto
avanzati. Partendo dal fatto che ogni piccolo frame ha la sua etichetta, se ai
pacchetti musicali si aggiungono altri pacchetti con un'etichetta diversa, il lettore
MP3 non li legge e passa avanti, consentendo di inserire in questi pacchetti (che
tecnicamente si chiamano tag ID3) informazioni come, ad esempio nome della
traccia, dell'autore, dell’album di provenienza, l'anno di pubblicazione, il genere e
così via. E' anche l'unico modo per fornire più dati possibili al file MP3 senza
doverle necessariamente inserire nel nome del file stesso.
L'entità della compressione applicata durante la codifica del segnale è definita da
un parametro denominato bitrate, che indica la quantità di bit necessari a
rappresentare un secondo di musica. Un bitrate di 128 kbit indica 128 kbit al
secondo. Ovviamente un bitrate più alto equivale a qualità migliore e a dimensioni
di file maggiori. Se il tipo di segnale da comprimere lo permette, durante la
codifica alcune parti vengono elaborate con un bitrate inferiore, lasciando liberi
alcuni bit che possono essere utilizzati per altre parti. Questo permette
un'ulteriore ottimizzazione in termini di dimensioni. Il bitrate standard è quello
già citato come esempio di 128 Kbit, che equivale a circa 1 megabyte (106 byte) al
minuto. Permette il raggiungimento di un fattore 12 di compressione e un buon
compromesso tra spazio occupato e qualità del suono.
Volendo ottenere compressioni maggiori si può diminuire la frequenza di
campionamento dai 44,1 kHz del file originale a 22 kHz o addirittura a 11 kHz e
ridurre le tracce da stereo a mono.
L'ultimo passaggio, prima della creazione del file, è costituito dalla codifica di
Huffman. Si tratta di un algoritmo di compressione che agisce esclusivamente sui
57
dati. Una delle operazioni svolte in questa fase consiste nel riconoscimento di
sequenze ricorrenti, in modo da ridurne ulteriormente le dimensioni. Ad esempio,
se c'è un singolo suono semplice e ripetitivo, la codifica percettiva potrà
comprimerlo in maniera limitata, mentre la codifica matematica sarà molto più
utile. E' il caso di alcuni brani dance, dove certe sequenze di suoni si ripetono
identiche per l'intera durata o per buona parte del brano. In questo caso la
porzione ripetuta può essere riconosciuta e codificata una sola volta, con un
notevole risparmio in termini di dimensioni. Se, al contrario, vi sono diversi suoni
sovrapposti, sarà molto più utile la codifica percettiva rispetto a quella
matematica. Con questo sistema l’MP3 può riuscire a comprimere un file audio,
come si è detto in precedenza, fino a 12 volte: ciò significa che un album di 800
megabyte può diventare di 80 e che una singola canzone può occupare solo alcuni
mega costituendo un ottimo apparato per la circolazione della musica attraverso
le tecnologie e le reti telematiche fino al consumatore.
2.4
Le tecnologie digitali di distribuzione e di consumo
Ai giorni nostri la musica arriva alle orecchie degli ascoltatori sostanzialmente in
due modi: attraverso i supporti acquistabili in negozio oppure attraverso la
distribuzione su diversi media, vecchi e nuovi che siano.
Internet ha riaggregato buona parte dei canali precedenti di diffusione della
musica. In un sito musicale è possibile trovare una parte informativa e verbale (la
stampa), uno streaming audio e video (radio e TV), è possibile comprare una
registrazione (il disco) e assistere ad una performance (il concerto). Un sito
Internet aggiunge a questo sistema la multimedialità, ovvero la compresenza di
diverse forme espressive nello stesso spazio, e l’interattività, cioè la possibilità di
costruirsi un proprio percorso all’interno di una serie di scelte possibili.
58
Con l’avvento della digitalizzazione e soprattutto di Internet si è reso
indispensabile, per i media, adeguare i loro meccanismi di distribuzione. Le
aziende che operano nel settore musicale, quindi, hanno iniziato a produrre
contenuti sfruttabili su diversi canali proprio per fronteggiare l’esponenziale
crescita nell’utilizzo del World Wide Web.
Questo aggiornamento del sistema, si è tradotto in una sempre maggiore
onnipresenza della musica, che, così facendo, arriva alle nostre orecchie in modi
molto diversi: dalla radio accesa nei negozi e dalle TV sintonizzate con emittenti
musicali nei bar, per arrivare alle suonerie dei telefonini che riciclano l’ultimo
successo pop di classifica così come il motivo di una sinfonia.
2.4.1
I media: radio, TV, podcasting
Radio e televisione, pur con diversi atteggiamenti di resistenza, hanno intrapreso
un percorso analogo nella fase di digitalizzazione, svoltosi in una duplice
direzione: l’introduzione di forme digitali su canali analogici e il tentativo di
creare, invece, una configurazione del canale totalmente digitale, come il satellite,
utilizzato sia da radio che da TV.
Sia nel caso televisivo che in quello radiofonico, le forme di convivenza tra
digitale e analogico si basano su un processo di compressione: il segnale viene
codificato in forma digitale, trasmesso attraverso le normali frequenze radio e
decodificato in uscita. Il processo è simile a quello avvenuto all’ampliamento della
banda Internet: si sfrutta un canale analogico già esistente (in quel caso il
telefono, con le linee ISDN e ADSL), comprimendovi il segnale in formato digitale
per ampliarne la portata.
La compressione del segnale consente di ampliare il numero di canali
trasmissibili, che nell’analogico è fisicamente limitato.
La possibilità di utilizzare le tecnologie digitali per ampliare l’offerta sembra
essere una delle costanti dell’avanzamento tecnologico di radio e TV, così come
59
l’idea che il digitale consenta di ampliare il servizio implementandolo con attributi
multimediali. Mettere in piedi una web radio, per esempio, è semplice e poco
dispendioso e lo si nota già dal fatto che in rete esiste una quantità incredibile di
emittenti ordinate per genere musicale, per periodo o anche solo dedicate ad un
singolo artista.
In campo televisivo il cartello delle emittenti videomusicali è assai evidente. In
Italia, ad esempio, esistono delle reti “in chiaro” con palinsesto principalmente
dedicato alla rotazione o alla promozione musicale come la storica MTV e la
recente Deejay TV. Grazie al satellite e al digitale terrestre, le offerte si sono
moltiplicate: la piattaforma Sky, dal 2004 operativa anche in Italia, offre diversi
canali, alcuni con programmazione a tema o semplicemente la proiezione in video
delle emittenti radiofoniche.
Possiamo notare come “tematizzare” sia la parola chiave nel processo mediatico,
allestendo l’offerta con un modello d’intrattenimento secondo format suddivisi per
genere musicale. Un tipo di offerta che in America, grazie alla TV via cavo, è
presente da molto tempo.
Più lampante il caso delle cosiddette NetTV: emittenti celebri e non, hanno già, da
qualche anno, reso possibile la visione on-line del palinsesto terrestre tramite lo
streaming, che può essere live consentendo la visione della diretta, mentre on
demand offrendo la possibilità di poter rivedere in qualsiasi momento qualsiasi
contenuto, essendo il tutto memorizzato su server. Ciò nonostante, il monopolio
dell’audiovisivo in Internet, dal 2005, appartiene al modello YouTube: un sito che
dà la possibilità di caricare e condividere ogni genere di video, sia quello creato
artigianalmente del singolo utente (il cosiddetto user generated content), sia la
digitalizzazione di un contenuto trasmesso da media analogici come la
televisione. L’esponenziale aumento di visite e di utenti iscritti, ha di fatto sancito
YouTube come mezzo di divulgazione videomusicale più diffuso nella rete,
costringendo l’industria musicale a focalizzare la promozione dei loro prodotti
60
proprio sul noto portale, accrescendo, di conseguenza, l’investimento da parte
delle aziende, disposte a pagare profumatamente l’apposito spazio pubblicitario.
La variabile, dunque, è quella della multipiattaforma e dell’interattività, quindi
della fruizione su richiesta, offrendo contemporaneamente contenuti per più spazi
mediali, scaricabili automaticamente sul proprio computer da sfogliare a piacere
dall’utente: questo descrive appieno le funzionalità del sistema podcasting.
2.4.2
I canali: streaming e download
L’applicazione delle tecnologie digitali alla musica non ha significato soltanto
rimodellare il sistema preesistente, ha letteralmente definito l’apertura di nuovi
canali attraverso i quali far viaggiare la musica stessa.
La smaterializzazione in file della musica consente di farla viaggiare attraverso
cavi e di spostarla da un angolo all’altro del pianeta nel giro di pochi minuti: basta
un semplice click per acquistare un disco e scaricarlo nel nostro hard disk.
La distribuzione digitale è stato un processo lento e complesso, fortemente
limitato dai canali stessi: la musica digitalizzata è compressa ma richiede pur
sempre spazio e tempo per essere scaricata. Contemporaneamente ai diversi
formati di compressione, è stata necessaria quindi un’evoluzione dei canali, cioè
della banda. Evoluzione che è stata molto più lenta: l’MP3 è diventato, già alla
fine degli anni novanta, lo standard di compressione della musica, ma solo nei
primi anni del duemila le connessioni a banda larga (dall’ADSL alla fibra ottica)
hanno iniziato a diffondersi nel tessuto sociale.
La prima distinzione nel campo della distribuzione digitale della musica è tra
ascolto da remoto e lo scaricare, ovvero fra lo streaming e il downloading. Il primo
è la modalità tipica dei media on-line, una sorta di rimediazione attraverso
Internet del broadcasting tradizionale di radio e TV. Il contenuto, il cui accesso è
subordinato all’essere on-line, arriva su richiesta dell’utente attraverso la rete, ma
rimane ancorato alla fonte: in parole povere, con l’interruzione del flusso,
61
all’utente non rimane nulla. Tra i numerosi siti che mettono a disposizione lo
streaming musicale, Spotify è sicuramente il più conosciuto al mondo. Basta creare
un semplice account per usufruire dell’infinito catalogo musicale; naturalmente la
formula gratuita permette un massimo di dieci ore mensili di ascolto, mentre
sottoscrivendo l’abbonamento, è possibile rimuovere questo vincolo e poter
ascoltare i brani in MP3 “alta qualità” con bitrate di 320 kbps.
Figura 30. Screenshot della piattaforma Spotify
Il downloading è invece la base della distribuzione digitale della musica. Il file
viene trasferito dalla fonte alla destinazione e li rimane per utilizzi futuri: nuovi
ascolti, masterizzazioni o trasferimenti su altri computer. L’utente deve essere
collegato solo per il tempo necessario al trasferimento del file, che si renderà
disponibile in un secondo momento anche pur non essendo connessi alla rete.
La quantità di banda necessaria per i due processi è pressoché equivalente ma il
fenomeno del downloading riscuote un’attrattiva maggiore, probabilmente per la
finalità: a trasferimento avvenuto si è possessori di un contenuto, che potrebbe
divenire anche un bene materiale.
62
I fenomeni che hanno espresso la potenzialità della distribuzione della musica
sono i cosiddetti sistemi peer-to-peer, o P2P. Software che consentono di mettere
in contatto singoli utenti, che si possono scambiare il materiale attraverso la rete
(file sharing). Il processo che questi sistemi mettono in atto è chiamato anche
disintermediazione, poiché permette di scavalcare i canali di distribuzione
tradizionali, grazie all’uso della rete informatica. Napster è stato l’esempio più
clamoroso di questa tipologia tecnologica digitale applicata alla musica: un caso
che ha messo in discussione problemi più ampi, legati soprattutto ai contenuti e al
copyright poiché artefice del fenomeno della “duplicabilità” facilitata e della
trasferibilità immediata.
Fondato nel 1999 dall'allora diciannovenne Shawn Fenning, Napster permetteva
la condivisione di porzioni del proprio hard disk, consentendo quindi lo scambio
gratuito di file, soprattutto musicali. Il sistema, però, non era un peer-to-peer puro,
poiché a gestire lo scambio dei file era un sistema di server centrali che
mantenevano la lista dei sistemi connessi e dei file condivisi, mentre le
transazioni vere e proprie avvenivano direttamente tra i vari utenti. La parabola di
Napster finisce in tribunale con la chiusura del software che vive però oggi sotto
nuove spoglie: un musicstore con un archivio di 2 milioni di canzoni al quale si
accede previa registrazione e pagamento di un abbonamento.
In realtà, dopo la mole di discorsi sociali seguiti al fenomeno Napster, il panorama
della distribuzione digitale si è evoluto: non solo un aumento nella divulgazione
di materiale illegale (cioè senza pagamento agli aventi diritto), ma anche un
canale parallelo alla tradizionale vendita nei negozi. Nuovi software che, sul
modello dei P2P, consentono di accedere alla musica da remoto comprandola,
unendo le tecnologie digitali alla consueta idea della vendita, che è la base stessa
dell’industria discografica.
63
Figura 31.Screenshot della piattaforma Napster
Mentre il P2P, pur con i già citati problemi di ampiezza di canali, sono diventati un
fenomeno tra il 1999 e il 2000, si è dovuto attendere il 2003 per il debutto del
primo “negozio” on-line di musica che abbia avuto un successo rilevante: iTunes
Store. Con questo “store digitale”, Apple ha riunito tutti i cataloghi delle principali
major (BMG Music, EMI, Sony Music, Universal e Warner Bros), più una buona fetta
di etichette indipendenti, partendo da un’offerta di 500.000 brani e arrivando, ai
giorni nostri, a un catalogo di oltre 20 milioni di canzoni. Il costo del singolo
brano varia da 0,69 € a 1,29 €, mentre l’intero album viene offerto a partire dalla
cifra di 9,99 €.
64
Figura 32. Screenshot di iTunes Store
È interessante notare come tutti i sistemi di distribuzione digitale della musica
siano, in qualche modo, non solo interattivi, ma anche multimediali e convergenti:
integrano diverse forme comunicative (associando immagini e parole alla musica)
e puntano all’utilizzo di diversi contenuti su terminali come lettori MP3,
smartphone e tablet.
2.4.3
L’hardware: il lettore MP3 e l’iPod
Il processo più interessante e significativo della digitalizzazione del sistema di
comunicazione musicale è proprio quello che riguarda le tecnologie di consumo,
strettamente collegato con quelle della distribuzione.
Il vero motore dell’innovazione tecnologica, industriale e sociale, già a partire
dagli anni ottanta con il Walkman, sono i lettori portatili. Questo diviene ancor più
evidente quando, verso fine anni novanta, la Rio introduce il primo lettore MP3
65
portatile con il modello PMP300. La smaterializzazione della musica si completa: i
file musicali compressi escono per la prima volta dal computer.
Figura 33. Il Rio PMP300. Primo lettore MP3 della storia
Di fatto, il primo lettore MP3 è un mini computer in grado di ricevere file da PC,
archiviarli in una memoria riscrivibile e riprodurli mediante le cuffie. La memoria è
assai limitata (massimo un’ora di musica) e il processo è meno immediato rispetto
al predecessore analogico: trasferire i file nel lettore è più macchinoso che inserire
una cassetta o un CD nel Walkman.
Il lettore MP3 diventa, nel giro di qualche anno, un fenomeno di massa. Nel 2000
compaiono i primi lettori portatili ad alta capienza: degli hard disk che possono
contenere e leggere diversi gigabyte di dati, ma che possono pesare anche quasi
mezzo chilo.
In questo scenario, c’è un caso che merita di essere analizzato più attentamente. Si
tratta dell’iPod, il lettore musicale presentato nel 2001 dalla Apple Inc., e parte
integrante di un sistema di gestione informatica della musica che comprende
anche il software iTunes. L’iPod non è certamente l’unico lettore digitale sul
66
mercato, però, complice l’abilità della Apple nelle strategie di comunicazione,
l’iPod è diventato, nell’immaginario collettivo, il simbolo della musica digitale.
Una delle caratteristiche storiche della Apple è quella di rendere esteticamente
curati e meno freddi oggetti informatici come il computer. I suoi lettori digitali di
musica non fanno eccezione a questa regola, seppure in modo meno marcato.
L’entrata di Apple nel panorama della musica digitale risale al gennaio 2001, con
la presentazione di iTunes, software di gestione musicale per piattaforma
Macintosh, con funzionalità da player: riproduzione e masterizzazione di CD.
A questo prodotto, nell’ottobre 2001, si aggiunge la prima versione dell’iPod8; un
modello da 5 GB di capienza, completamente bianco e assai leggero (circa 200
grammi, la metà dei diretti concorrenti); compatibile solo con il sistema Mac e
inizialmente venduto a 400 dollari. La capienza viene espansa fino a 20 GB nel
giro di pochi mesi, ma solo nel 2003 si arriva all’esplosione commerciale: la
compatibilità con il sistema PC, molto più diffuso del Mac, soprattutto in Europa.
Contemporaneamente viene presentata anche la versione Windows di iTunes,
trasformandolo da semplice player multimediale a software integrato con cui
compiere diverse operazioni: digitalizzare la musica, trasferirla sull’iPod e infine
poterla pure acquistare.
L’immissione sul mercato di un lettore totalmente digitale, filosoficamente figlio
del Walkman ma tecnologicamente discendente dal PC, è una grossa novità, i cui
effetti superano quelli sulle forme di consumo. È il tassello mancante che
completa le possibilità della distribuzione digitale: avere file musicali ha un senso
nel momento in cui esiste uno strumento per sfruttarli ovunque, senza essere
ancorati all’ingombrante computer.
Sia iTunes che iPod sono derivati da progetti di altre aziende. iTunes è stato sviluppato sulla base di un
software chiamato SoundJam MP, prodotto da una piccola azienda, la Casady and Greene. L’iPod, invece, nasce
da un’idea, inizialmente proposta a Philips e RealNetworks, di Tony Fadell, il primo a pensare di utilizzare
hard disk più piccoli prodotti dalla Toshiba in modo da rendere più leggeri i Walkman digitali.
8
67
Figura 34. Il primo modello Apple iPod
2.4.4
L’hardware: il telefono cellulare
La telefonia mobile ha una divulgazione assai più considerevole del lettore MP3.
Eppure solo negli ultimi anni è diventato chiaro come il telefonino rappresenti la
frontiera più avanzata del lettore musicale digitale.
Dal 2003, a divenire un grosso introito per la discografia, è stato un mezzo
alquanto anomalo per la riproduzione della musica in formato digitale: le suonerie
dei telefonini. Da quelle che riproducevano artigianalmente un brano di
Beethoven o l’ultima canzone di successo si è passati alle suonerie polifoniche,
ormai disponibili per ogni brano musicale.
Giampiero Di Carlo riassume bene la questione in un articolo con queste parole:
68
Se traggo una canzone da un album, cosa ottengo? Un singolo. Se da quel singolo sottraggo
le parti vocali, cosa ottengo? Un brano strumentale. Se da quel brano strumentale tolgo
parecchi “strati sonori”, lasciandolo comunque perfettamente riconoscibile con una qualità
paragonabile a quella del CD singolo originario, cosa ottengo? Un file digitale compresso.
Quanto costa un file digitale? Tra 0,70 e 0,99 euro. Se dal file digitale elimino sette ottavi
della sua dimensione, portandolo ad una durata di 30 secondi, cosa ottengo? Una suoneria.
Quanto costa una suoneria? Due o tre euro.
Di Carlo rappresenta le contraddizioni di questo nuovo formato della musica, un
mercato che dal 2005, secondo il rapporto dell’International Federation of
Phonographic Industries, genera introiti per 400 milioni di dollari.
La musica sui telefonini è la nuova frontiera dell’ascolto e non solo per quanto
riguarda le suonerie. Questo movimento coinvolge tanto i produttori di telefonini,
quanto le compagnie telefoniche, l’industria discografica e i media musicali. I
primi introducono sul mercato modelli sempre più avanzati, in grado di eseguire
diverse funzioni oltre a quelle ormai consolidate, inserendo la possibilità di
ricevere e riprodurre filmati e musica; infatti, la maggioranza dei modelli integra la
possibilità di riprodurre file MP3.
Le compagnie telefoniche, a loro volta, fanno a gara nell’offrire sempre più
contenuti, acquistandoli da fornitori di contenuti specializzati e adattandoli alle
proprie infrastrutture tecnologiche (come l’UMTS, che consente lo streaming audio
e video). Industrie e media musicali fanno a gara nell’offrire contenuti come
canzoni e videoclip. Già nel 2005, Nokia strinse un accordo con Microsoft, offrendo
un servizio di download, previo pagamento, di musica direttamente sul telefonino
e, nel 2006, lanciò una linea di cellulari “musicali”, che oltre alle funzioni di
chiamata, implementavano un capiente (4 GB) riproduttore di file digitali. Sempre
nel 2005 la Sony (fusasi con Ericsson nel settore telefonico) rispolverò il marchio
Walkman per una serie di telefonini, dotati anch’essi di lettore MP3 incorporato.
Apple non stette di certo a guardare e presentò il Rokr (“rocker”), un telefonino,
prodotto in collaborazione con Motorola, che integrava una versione portatile di
69
iTunes. Il successo non fu quello sperato, così Apple decise di lanciare un prodotto
totalmente rivoluzionario: l’iPhone, un iPod video con funzioni di telefono e
organizer.
Figura 35. Motorola Rokr e Sony Ericsson W810
Il telefonino diventa così una sorta di terminale avanzato (il cosiddetto
smartphone, telefono intelligente) con il quale compiere diverse operazioni:
dall’ascolto di musica alla visione di videoclip fino al collegamento alla rete
Internet tramite sistema wireless.
La sfida della convergenza e dell’integrazione tra terminali è quella che Steve Jobs
(co-fondatore di Apple, scomparso nel 2011) ha affrontato con il suo iPhone, oggi
giunto alla quinta generazione: far convivere all’interno dello stesso oggetto
diverse funzioni, con pari potenza e semplicità d’uso. Nell’attesa della
commercializzazione dell’iPhone, il mercato era dominato da telefonini economici
che incorporavano l’ascolto della musica digitale tra le funzioni di base, che si
affiancavano ai lettori musicali puri, senza una vera e propria sovrapposizione.
Oggi questa sovrapposizione sembra proprio sia avvenuta, anzi, il prodotto all-in-
70
one, è divenuto un oggetto irrinunciabile nella vita di tutti i giorni. Sarebbe
impensabile, in effetti, portare appresso un apparecchio diverso per ogni funzione
che lo smartphone riesce ad adempiere.
Figura 34. La collezione Apple iPhone
2.5
Diritto d’autore nell’era digitale
Il periodo digitale porta con sé, oltre agli innumerevoli benefici a livello
tecnologico, anche una grossa piaga, che coglie quasi impreparata l’industria
musicale: la duplicazione e la distribuzione illegale dei prodotti fonografici.
La grande sfida del business musicale, diviene quindi, quella di combattere (o
quantomeno ostacolare), il commercio “pirata” dei propri prodotti, adottando,
come prima mossa, il sistema dei Digital Rights Management (DRM). Letteralmente
significa gestione dei diritti musicali e costituisce un insieme di tecnologie
applicate alla protezione dei contenuti tutelati dal diritto d'autore, quindi, studiati
71
ad hoc per il controllo della distribuzione e dell'utilizzo delle opere. I DRM
sfruttano i seguenti principi:
•
Certificazione di proprietà: permette di identificare la copia originale e,
quindi, anche le eventuali copie illegali dei file. Nel caso di un file audio,
prima di essere sottoposto a compressione, vengono inserite delle
informazioni aggiuntive sul diritto d’autore utilizzando una tecnica
chiamata PCM watermarking;
•
Controllo d’accesso: per controllare la regolarità dell’accesso al contenuto di
un file, viene aggiunto uno speciale marcatore all’interno del file originario
tramite una tecnica chiamata bitstream watermarking, che ha lo scopo di
garantire l’originalità. Il file risultante da questo processo può essere
riprodotto solo sui lettori che sono in grado di riconoscere le informazioni
di codifica ed è possibile riprodurlo solo per il numero di volte stabilito in
fase d’acquisto;
•
Controllo delle copie illegali: permette di risalire all’iniziale possessore del
file originale, in modo da consentire l’individuazione di eventuali violazioni
del diritto d’autore, permettendo l’attuazione di misure preventive di
protezione legale.
Meccanismo di controllo dell'accesso, quindi, è una misura tecnologica che
richiede
l'applicazione
delle
informazioni,
o
di
un
procedimento,
con
l’autorizzazione del titolare del diritto d’autore o del titolare dei diritti connessi. In
sostanza, comprando un brano musicale attraverso la mediazione dell’industria, si
accettano determinate condizioni d’uso per mezzo di alcuni codici informatici
inscritti nel file. Ciò nonostante, il metodo di protezione perfetto non è ancora
stato trovato e, di fatto, ogni piattaforma usa un DRM diverso, spesso rendendo
incompatibili i file da un sistema all’altro.
72
Steve Jobs, con una lettera aperta pubblicata sul sito della Apple nel 2007, ha
proposto l’abolizione dei sistemi DRM, puntando il dito contro le case
discografiche: la tesi di Jobs è che iTunes deve criptare i propri prodotti su
imposizione delle major e che la Apple non può svelare il proprio sistema DRM,
impedendo così la comunicazione del sistema iTunes/iPod con altri sistemi; egli
scriveva:
Sono le case discografiche a dover rinunciare ai DRM, non la Apple che ne sarebbe
felicissima.
Gli effetti delle parole di Jobs non tardarono ad arrivare; dopo qualche settimana,
la EMI, una della quattro major, sottoscrisse la proposta, stipulando un accordo per
vendere la propria musica su iTunes senza DRM, con una qualità maggiore (256
kb/s) tramite un servizio denominato iTunes Plus. Così industria e artisti mettono a
disposizione il loro catalogo musicale a una sorta di provider come Apple o OD2.
I nuovi servizi di distribuzione digitale lavorano come aggregatori di musica
digitale, riunendo etichette o singoli artisti e fornendo un servizio al consumatore:
si pongono come nuovi intermediari della musica, garantendo all’industria quella
competenza tecnologica che le manca per gestire un servizio efficiente.
Un’interessante alternativa al modello iTunes è PlayLouder: web company dedita
alla musica indipendente, che nel 2005 ha stretto un’alleanza con la Sony BMG
per la creazione di PlayLouder MSP (Music Service Provider), un servizio di
condivisione ad abbonamento, basato sul concetto del P2P, legalizzato e trasposto
in un ambiente protetto dal DRM. Con questo servizio, pagando 27 sterline al
mese, si ottiene la connessione ad una linea broadband9 ad alta velocità e un
account di posta elettronica, ma soprattutto, il diritto di scaricare e scambiare
Broadband è l’abbreviazione di Broadband Wirless Access, ossia una famiglia di tecnologie il cui scopo è
quello di fornire accesso Internet ad alta velocità e senza fili su vaste aree geografiche.
9
73
musica (o altro materiale musicale) senza limitazioni, con utenti appartenenti alla
stessa comunità.
Anche qualche artista è sceso in campo a favore dei nuovi sistemi di distribuzione
digitale. È il caso di Peter Gabriel, co-fondatore di WE7, il primo servizio che
riprende un modello economico molto usato nell’apparato mediatico: il modello
pubblicitario, dove a pagare i contenuti non sono solo i consumatori finali, ma
degli inserzionisti pubblicitari. WE7 è un servizio di distribuzione, non disponibile
in Italia, che permette a musicisti di diffondere in rete, file MP3 senza DRM, che
l’ascoltatore ottiene gratis in cambio dell’ascolto di brevi spot pubblicitari che
precedono l’esecuzione di ogni brano, ma che scompaiono dopo qualche ascolto.
Alcuni artisti si associano all’entusiasmo generale del pubblico, ritenendo Napster
artefice di una sorta di liberazione del sistema musicale; altri, al contrario, nutrono
una certa preoccupazione vedendo messa in pericolo una delle loro principali fonti
di guadagno. L’instaurazione di un sistema di distribuzione legale della musica, ha
attenuato le ire dei musicisti più avidi.
Una chiara rappresentazione del punto di vista dell’artista è ben descritta da Colin
Bradbury sul sito della IFPI:
Come musicista classico che incide CD per un mercato specializzato, finanzio
autonomamente la produzione dei miei dischi e dipendo totalmente dalle royalties che mi
paga la casa discografica. Andare in pareggio è il meglio che possa sperare in un mercato
piccolo, e se una parte di ascoltatori ruba le mie esecuzioni copiandole invece di comprarle,
non ho nulla nel salvadanaio per fare le successive. Il CD ha reso possibile all’ascoltatore
attento di godersi molto di più la musica e concetti come passaggi radiofonici o mercati di
massa per noi non hanno rilevanza. Per favore, rendetevi conto che la copia illegale è un
furto come rubare un CD da uno scaffale.
Possiamo suddividere in due livelli il cambiamento che ha riguardato il ruolo
dell’artista nel processo di digitalizzazione e di distribuzione. Il primo è il livello
creativo: la musica cessa di essere un prodotto e diventa un processo, da vendere
74
in ogni sua fase, sotto il controllo dell’artista stesso. Infatti, la rete consente di
rendere pubblica, senza grossi costi, una serie di contenuti che difficilmente
avrebbero trovato spazio negli scaffali dei negozi: dischi dal vivo, registrazioni di
performance, brani inediti, studio diary, video blog. Il secondo è il livello
economico: gli artisti che aggirano le case discografiche, usando il Web come
forma di mediazione diretta verso il proprio pubblico, possono guadagnare di più e
controllare direttamente l’andamento produttivo.
In Italia, il caso più significativo è sicuramente quello della band Elio e le Storie
Tese, che a partire dal 2004, ha iniziato a vendere direttamente la propria musica
con i cosiddetti “CD Brulè”, ossia registrazioni dei concerti venduti subito dopo i
concerti stessi, disponibile in versione CD o in file. Inoltre, sul sito della band, in
cambio di un abbonamento, è possibile accedere e scaricare tutto il catalogo del
gruppo, i cui diritti sono di proprietà del gruppo stesso.
Il mondo digitale ha creato parecchio scompiglio in un sistema radicato che
sembrava
inattaccabile
qualche
anno
fa;
rivedere
il
processo
di
creazione/produzione è stato necessario come lo è stato porre dei rimedi al
fenomeno della duplicazione illegale.
2.6
Le ultime frontiere della musica
2.6.1 User Generated Content e Social Network
L’User Generated Content vuole rappresentare un fenomeno emergente: il ruolo
degli utenti finali nel processo della produzione dei contenuti, siano essi didattici,
scientifici, storico-artistici, ambientali, culturali, di business, di comunicazione o
altro. In particolare, il fenomeno dell’UGC, rappresenta una filosofia attraverso la
quale la produzione dei contenuti, svolta da soggetti specializzati (società
75
editoriali, redazioni, università ecc.) viene affiancata, e in certi casi sostituita, dalla
produzione degli utenti che, per loro passione o riscontro dovuto ad una
retroazione spesso in tempo reale, riescono a essere più incisivi e tempestivi del
normale e tradizionale processo di produzione. L’UGC si serve di ambienti
applicativi capaci di favorire questo tipo di contenuti, soprattutto attraverso servizi
on-line che non necessitano di specifiche competenze tecniche. Questa
trasformazione ha rappresentato una vera rivoluzione nell’ambito di diversi
segmenti di mercato, primo tra tutti quello dei media (radio, televisione e carta
stampata) dove il loro ruolo continua a riposizionarsi per effetto dei meccanismi di
controinformazione derivante dalla presenza in rete di milioni di utenti che
producono, commentano e approfondiscono news, fatti e fenomeni di qualunque
natura.
Per comprendere il fenomeno UGC, è necessario inquadrarlo nel fenomeno
complessivo denominato Web 2.0, ovvero nella seconda generazione del web,
quella che ha trasformato il modo di concepire Internet, passando da un grande
contenitore di siti web e portali, in cui informazioni e conoscenze, accessibili a
tutti,
venivano
prodotte
da
poche
fonti
capaci
finanziariamente
e
professionalmente, a un modello di contribuzione da parte di chiunque, attraverso
sistemi capaci di condividere valutazioni, punti di interesse (rating, bookmarking,
tagging e socialnews) e più significativamente i propri contenuti, siano questi
video (YouTube), immagini (Flickr), musica e audio in genere (Napster, eMule), testi
e termini (Wikipedia), esperienze e relazioni con Blog e Social Network (Facebook,
LinkedIn, MySpace, Netlog), contatti sempre collegati (Twitter). Quindi non più la
gestione dei contenuti secondo un’applicazione di Content Management System a
cura di un gruppo ristretto di professionisti, ma un sistema che sia sempre più
aperto alla contribuzione da parte di un’utenza diffusa. Per essere UGC è
necessaria una rielaborazione di un qualcosa di esistente o un contributo creativo,
che non sia qualcosa che nasce come attività professionale, con il relativo
riscontro economico. Il vero successo di questi nuovi processi di fruizione e
76
d’informazione, in sostanza, sta nel fatto che l’utente non è più spettatore passivo,
ma protagonista e fornitore, oltre che fruitore, dell’informazione.
Emblematico è stato, nel 2005, il sistema adottato dalla band Nine Inch Nails che,
nel proprio sito web, ha pubblicato le canzoni dell’album With Teeth in una
versione manipolabile dai fans, invitandoli a rispedire il “remix”. Nel 2008 i R.E.M.
hanno messo in rete alcune riprese del loro video Supernatural Superserious,
permettendo agli utenti di scaricarle in alta definizione e incitandoli a effettuare
un montaggio, dando la possibilità di creare la propria versione del videoclip da
caricare in un canale YouTube apposito.
Sul fenomeno Web 2.0 è di particolare interesse la testimonianza di Daniele
Sommavilla, vice-presidente di Nielsen Europa:
Le applicazioni Web 2.0 facilitano la distribuzione dei contenuti e la socializzazione: gli
utenti hanno uno stimolo particolare ad affacciarsi alla finestra dell’on-line con continuità
per aggiornarsi, verificare se qualcuno ha risposto allo stimolo messo in rete, per
condividere un’informazione o un’esperienza.
Nel panorama emergente, meritano uno spazio particolare, i siti di video sharing,
che dalla fine del 2004 ad oggi si sono moltiplicati, fornendo agli utenti servizi
sempre più innovativi e personalizzati per poter condividere i propri contributi sul
Web, sia a scopo puramente d’intrattenimento, sia per ottenerne visibilità e
profitti. Fondato all’inizio del 2005, YouTube è senza dubbio il sito più popolare
nella condivisione di file video. Il portale ha avuto una spaventosa evoluzione in
soli due anni, arrivando al punto di vantare circa 20 milioni di visitatori al mese,
oltre 100 milioni di video visualizzati ogni giorno e una media di 65 mila nuovi
video caricati giornalmente. Notato l’effettivo potenziale del nuovo canale, le
major discografiche siglarono, nel 2006, una serie di patti con YouTube per
ospitare i propri contenuti a titolo gratuito, ricavando profitti dalle pubblicità.
77
Un retroscena da non sottovalutare, è come la popolarità di YouTube ha portato
alla creazione di molte "celebrità Internettiane" o fenomeni di Internet, divenuti
individui famosi, i quali hanno attirato su di loro molta popolarità nei paesi di
appartenenza e non, grazie ai propri video. Il sito è oltretutto diventato un metodo
per promuovere la propria musica. Uno dei tanti esempi è stata la band
statunitense OK Go, i quali, grazie al successo dei loro video, hanno ottenuto alti
ascolti nelle radio e un MTV Video Music Awards. Allo stesso modo, il video
di Samuel Ferrari con la canzone YouTube School o la Campagna degli abbracci
gratis, accompagnato da una musica dei Sick Puppies, ha portato notorietà sia alla
band che all’evento, oltre che l'emulazione dell'iniziativa in altre parti del mondo.
Non meno importante è il ruolo di MySpace, famosa comunità virtuale che nasce
come strumento per la creazione di pagine personali, straordinariamente raffinate
dal punto di vista dei contenuti multimediali. In esse, con minime conoscenze
HTML, è possibile personalizzare il proprio spazio arricchendolo con immagini,
musica e filmati.
Inizialmente MySpace nacque come network sociale ma in breve tempo, attraverso
la sezione Music, è diventato uno strumento di promozione fondamentale per i
gruppi. Numerosi, infatti, sono gli artisti e le band che, grazie a questo spazio
virtuale, sono diventati famosi in tutto il mondo ancor prima di immettere
effettivamente sul mercato i loro dischi; Arctic Monkeys, Lily Allen, Mika e Cansei de
Ser Sexy, solo per citarne alcuni. Ma è soprattutto l’elemento “social” a renderlo
così interessante: le band possono fare amicizia attraverso la sua funzione “add
friend” ed organizzare concerti e incontri facendo uso del suo sistema di
messaggistica istantanea.
Piattaforme come Facebook o Twitter, oggigiorno sono le più gettonate, per questo
sono in continuo aggiornamento, includendo applicazioni in grado di promuovere
un’idea artistica: SoundCluod ne è un esempio, offrendo un servizio di streaming
delle proprie canzoni; Bandcamp viene usato per vendere direttamente musica online; CDbaby permette la vendita di MP3 praticamente su qualsiasi store mondiale.
78
Anche Twitter sarebbe in procinto di lanciare una nuova applicazione
denominata Twitter Music che permetterà di scoprire nuova musica in funzione
degli artisti che seguiamo sul social network. Tramite We Are Hunted, servizio già
disponibile su diverse piattaforme, in grado di creare classifiche e playlist
automatiche tramite una tecnologia proprietaria che scandaglia la rete
analizzando i trend del momento per determinare quali sono le canzoni e gli
artisti più popolari.
Stiamo assistendo all’evoluzione del rapporto artista/etichetta discografica:
tramite le piattaforme che il Web mette a disposizione, gran parte del lavoro di
produzione e di promozione può essere svolto autonomamente dal musicista, cosa
che prima spettava all’etichetta, nonostante quest’ultime continuino a garantire
maggiori possibilità di raggiungere l’obiettivo.
Circa 44 anni fa, nel burrascoso 1968, Andy Warhol, quasi fosse un veggente,
pronunciava la sua frase più celebre: “Nel futuro ognuno sarà famoso, al mondo,
per 15 minuti”. Di sicuro non si sarebbe aspettato che la sua “previsione” sarebbe
divenuta una realtà a distanza di così poco tempo dalla sua scomparsa.
2.6.2 Musica liquida in alta definizione
In un’epoca in cui l’industria musicale ha sancito definitivamente l’estinzione del
supporto fisico (eccezion fatta per il vinile che mantiene un discreto indice di
mercato, costituito principalmente da un pubblico di cultori), la tendenza, quasi
forzata, dei consumatori si è spostata verso l’ormai vastissima collezione di digital
stores presenti nella rete.
Facilità di acquisto, immediatezza, ampia offerta e compatibilità con tutti i sistemi
di riproduzione più moderna, dai dispositivi Apple (iPod, iPhone) fino ai lettori
multimediali e ai personal computer di ogni marca e modello, sono i grandi
vantaggi di questo modello distributivo. Ma la qualità massima disponibile, sino
ad oggi, rimane comunque quella del CD.
79
Se, come sostengono alcuni audiofili, è vero il fatto che la qualità fornita dal
supporto analogico (vinile e soprattutto nastro a bobina) sia superiore a quella del
Compact Disc, ma che quest'ultima rimanga naturalmente più elevata rispetto a un
file compresso lossy (MP3, AAC, WMA), proporre e quindi scaricare, file musicali in
alta definizione, può essere una soluzione alla luce del crescente mercato virtuale.
L’alta definizione (HD), in un file audio digitale, rappresenta un aumento di qualità
equivalente a quello già percepito dagli utenti con l’operazione di passaggio da
CD a DVD-Audio. Infatti, come nel supporto fisico, si passa generalmente da una
profondità di 16 bit a una di 24 bit e dalla frequenza di campionamento di 44,1
kHz a frequenze di 88,2 o 96 kHz, fino a 192 kHz.
Naturalmente, non possiamo parlare di file audio a 24bit/96kHz (o valori anche
maggiori) per avere la certezza che la qualità sia tecnicamente superiore a quello
del “vecchio” CD a 16bit/44.1kHz. È fondamentale che questo file sia “concepito”
in HD e non frutto di un semplice upsampling, operazione ormai alla portata di
qualsiasi software conseguibile a poco prezzo. È necessario che il file in questione
venga registrato in forma 24/96 (o superiore) per essere certificato HD, altrimenti
ci troviamo di fronte ad una sorgente per così dire “potenziata” soltanto nei
numeri ma senza nessun effettivo vantaggio in termini d’ascolto.
Negli ultimi anni, si è andato sempre più affermando un nuovo tipo di codec audio
che ha suscitato grande interesse da parte del pubblico audiofilo più esigente: il
Free Lossless Audio Codec (FLAC). Grazie all’impiego di un algoritmo di
compressione lossless molto avanzato, è in grado di preservare il messaggio
musicale, mantenendo inalterate le caratteristiche d’origine, riuscendo a ridurne lo
spazio necessario alla sua memorizzazione di circa il 50%. La codifica FLAC riesce
a gestire qualsiasi risoluzione con architettura PCM, da 4 a 32 bit; qualsiasi
frequenza di campionamento, da 1 a 655.350 Hz e un intervallo di canali che va da
1 a 8, eventualmente raggruppandoli nelle configurazioni più comuni come stereo
e 5.1 per comprimere ulteriormente la dimensione del file. Ecco quindi che il FLAC
diviene la scelta più indicata quando si desideri salvaguardare lo spazio occupato
80
su hard disk e una rapida condivisione in rete, pur non rinunciando alla qualità
sonora: caratteristica che lo ha proclamato formato audio per l’interscambio di file
musicali in alta definizione sul web. In particolare vengono utilizzate risoluzioni a
24 bit/96 o addirittura 192 kHz, anche se, secondo alcuni esperti, il massimo
livello di qualità disponibile si raggiunge con il formato WAV DXD in modalità
stereofonica a 24 bit/352.8 kHz.
Anche se il FLAC sembra essere la scelta predominante nei cataloghi in HD online, è possibile, tuttavia, trovare altri formati come Wav, Aiff, APE, ALAC di Apple,
MLP di Meridian, Real Audio e altri di applicazione più marginale.
Per entrare in possesso di un file audio in HD, quindi, è sufficiente collegarsi a uno
dei siti che offrono questo servizio, scegliere il prodotto tra quelli presenti nel
catalogo e, dopo aver effettuato il pagamento, è possibile procedere con il
download nel nostro dispositivo di memoria.
Possiamo individuare nel sistema di stoccaggio, i vari hardware di cui è fornito il
nostro computer, come hard disk, memorie flash, dispositivi NAS, anche se a questi
componenti fisici si sta affiancando anche una terza soluzione, che risponde al
nome di “cloud storage”, ovvero i nostri file vengono depositati in qualche server
sparso nel mondo, ma alla portata di un click e di un semplice comando. In questo
senso sono rappresentative le soluzioni di Google Music, Amazon e Apple iCloud, ma
tante altre si stanno affiancando ad esse, sebbene al momento non forniscono
musica in alta risoluzione, anche a causa dell'enorme quantità di banda richiesta
per questa operazione. Allo storage, nella catena ideale, segue il player e il
controller che possono essere integrati o separati. Un esempio può essere uno dei
tanti media player presenti nel sistema operativo del nostro computer o
disponibili a prezzi anche molto contenuti. A volte questi media player integrano
software che permettono di sfogliare le nostre librerie multimediali collegate,
grazie
ad
una
interfaccia
video,
per
scegliere
quello
che
vogliamo
ascoltare/vedere. Da qui il segnale prende la strada del DAC per la necessaria
conversione analogica.
81
Dopo un’accurata ricerca, ho potuto constatare che i siti web ospitanti file musicali
in formato non compresso al momento non sono così numerosi, specialmente
quelli che trattano musica HD multi-canale, anche se sembra un mercato in
espansione, soprattutto all’estero. Per citarne alcuni:
•
HDTracks ospita file in HD (24/96 o 24/192), disponibili in formato Aiff,
Alac, Wav e FLAC, di numerose etichette indie10 e major con generi che
spaziano dal rock al jazz alla classica con un fornitissimo catalogo;
•
iTrax contiene file HD in numerosissimi formati, sia in stereo che in 5.1 di
etichette indie di vario genere;
•
LinnRecords è un’etichetta che propone file in HD relativi al proprio
catalogo che tratta prevalentemente musica jazz, acustica e classica;
•
High Definition Tape Transfers comprende file HD, alcuni anche in formato
DXD, di musica classica e jazz;
•
HDmusicstore è la prima piattaforma italiana di distribuzione di “musica
liquida” ad alta risoluzione. Il sito offre la possibilità di acquistare i brani in
formato CD con codifica FLAC (16/44.1) oppure nel formato HD sempre con
codifica FLAC a 24/96. I generi proposti sono pop, rock, classica, jazz, blues.
Esistono opinioni discordanti riguardo la vendita della musica in HD. In Italia il
fenomeno non sembra ancora decollato e le ragioni trovano risposta in molteplici
fattori. Innanzitutto per un motivo culturale, che considera l’italiano, un
ascoltatore non ancora conscio delle opportunità della rete; la maggior parte degli
Il termine Indie viene utilizzato per definire tutti quegli artisti musicali che non firmano contratti con le
etichette major (di solito le “quattro grandi” compagnie discografiche: Warner, Sony, Universal, EMI, che
coprono il 90% del mercato discografico del pianeta).
Tuttavia, non è detto che un’etichetta che si definisce indipendente garantisca un approccio libero, non
orientato verso il marketing o comunque a uno stile musicale prettamente commerciale, né d’altra parte è
vero che le major stesse siano orientate esclusivamente alla produzione di musica commerciale.
Più comune in Italia è la definizione indipendente per identificare tale approccio, preferendo usare il termine
indie per definire un genere musicale vero e proprio, comunque spesso associabile ad un approccio
indipendente a livello di etichetta discografica.
10
82
acquisti di musica on-line, infatti, vengono attuate dalle generazioni più giovani,
quindi molto meno interessati alla qualità dei brani ma piuttosto al costo e alla
dimensione dei file. Non meno importante è sicuramente la velocità di
trasmissione dati che, su una classifica mondiale, vede l’Italia all’81° posto con
una media di 5.58 Mbps contro la media internazionale di 12.35 Mbps. Infatti, per
scaricare file in HD (quindi con dimensioni maggiori), serve sicuramente più tempo
rispetto ad uno compresso (MP3, AAC), e questo elemento sicuramente non
stimola l’acquirente verso questa tecnologia. All’estero la situazione risulta
migliore e vede il mercato in alta definizione in continua espansione, trovando
sempre più risposta nel pubblico che si dimostra più interessato ad un ascolto più
fedele.
Naturalmente queste esperienze riguardano sostanzialmente un mercato “di
nicchia” che annovera i generi su cui è possibile beneficiare totalmente dell’alta
risoluzione, come musica classica, jazz e sessioni acustiche: un po’ come succede
nel mercato in HD su supporto fisico tra SACD e DVD-Audio.
83
Conclusioni
Con questo lavoro, ho voluto esaminare ed approfondire la storia delle tecnologie
legate alla musica e di come queste hanno condizionato l’apparato industriale,
commerciale, mediatico e soprattutto sociale ad essa correlato.
La scelta dell’argomento nasce da una riflessione sul contesto storico in cui
viviamo, da come le nostre vite vengono continuamente suggestionate dalle
rapidissime evoluzioni in campo tecnologico, soprattutto con l’avvento del
digitale, complice di aver rinnovato tutti i tracciati comunicativi, sottoponendo
l’intero universo sociale allo stimolo di tecnologie sofisticate e potenti, che
infrangono le antiche barriere spazio-temporali. La rivoluzione, infatti, si focalizza
sull'elemento velocità: il progresso tecnologico è passato da uno sviluppo lineare
ad uno esponenziale. Se poi pensiamo all’industria musicale, questa sensazione si
è fatta sentire più che mai.
Ho ritenuto importante iniziare il discorso dal periodo analogico, consacrato
dall’invenzione del fonografo nel 1877, scoperta che ha reso possibile la
registrazione e la riproduzione dei suoni, per poi creare un filo conduttore verso il
periodo digitale. Infatti, più che di rivoluzione, è corretto parlare di evoluzione
digitale, poiché rimane costante l’elemento imprescindibile della musica: la
comunicazione.
La musica, come la società, è passata da una fase hardware ad una software; in
altre parole, da una solida a una liquida. La modernità solida è quella con forti
punti di riferimento istituzionali. La modernità liquida è contrassegnata
dall’indebolimento di queste istituzioni e da legami sociali che si fanno più
indefiniti. Allo stesso, modo la musica è diventata liquida: le istituzioni “forti” del
suo comparto, su tutte la discografia, hanno perso il potere totale che hanno avuto
84
fino ad oggi. La musica da hard diventa soft: si trasforma da oggetto commerciale
a bene immateriale; in altre parole non è più un prodotto esclusivamente nelle
mani della discografia, ma un servizio a cui si può accedere attraverso diversi
canali.
Siamo immersi nel vortice dell’era digitale che ci costringe a modificare situazioni
con cui avevamo appena trovato familiarità. Tutto diventa obsoleto in tempi
brevissimi, non esiste il tempo per l’affetto ed è di fondamentale importanza
restare al passo coi tempi.
Definire uno scenario a lungo termine sembra pressoché impossibile. Quello che
mi sento di dire con certezza è che il futuro della musica e della sua
commercializzazione sarà sempre più legato ai canali di distribuzione digitali e a
forme di consumo in abbonamento; questo, nonostante l’ancora alto tasso di
incidenza del fenomeno della pirateria online e l’utilizzo da parte di un utente su
quattro dei servizi di download illegali, che sembrano non avere tutt’ora una
soluzione concreta.
85
Bibliografia
AA. VV. (1983), La nuova enciclopedia della musica, Garzanti.
BETTETINI, G. – COLOMBO, F. (1993), Le nuove tecnologie della comunicazione,
Bompiani.
CASTALDO, G. (2008), Il buio, il fuoco, il desiderio. Ode in morte della musica,
Einaudi.
DE LUIGI, M., a cura di, (2008), La sfida digitale. I nuovi percorsi della distribuzione
musicale, Zona.
EBARE, S. (2005), Digital Music and Subculture: Sharing Files, Sharing Styles, in Beer.
LUDOVICO, A. (2000), Suoni futuri digitali. La musica e il suo deflagrante impatto con
la cultura digitale, Apogeo.
MARCONI, L. – TRIPPUTI, D. (2004), Musiche giovanili nel Novecento, in Sorcinelli.
MENDUINI, E. (2002), I linguaggi della radio e della televisione, Laterza.
ID., a cura di, (2002), La radio. Storia e percorsi di un medium mobile e interattivo,
Baskerville.
PASQUALI, F. (2003), I nuovi media. Tecnologie e discorsi sociali, Carocci.
RIGOLLI, A. – RUSSO, P. (2007), Il suono riprodotto. Storia tecnica e cultura di una
rivoluzione del Novecento, FrancoAngeli.
SIBILLA, G. (2008), Musica e media digitali, Bompiani.
ID. (2005), Walkman, in Colombo.
SOLDATI, S. (2004), Dall’analogico al digitale, quando la musica ha rinunciato al
tempo, Aracne.
TOSONI, S. (2004), Identità virtuali, FrancoAngeli.
86
Elenco siti web
http://www.wikipedia.org
http://www.recording-hystory.org
http://www.museodeldiscodepoca.com
http://www.museoscienza.org
http://www.homerecording.it
http://www.museoradiotv.rai.it
http://rogenaudio.xoom.it
http://vintagecassettes.com
http://www.riaa.com
http://www.ifpi.org
http://nielsen-online.com
http://www.fimi.it
http://www.musicaememoria.com
87
Scarica