Estratto dalla conferenza “Linguaggio e musica: confronto di due capacità umane” di Elena Menegazzo Musica e linguaggio sono due capacità universali che accomunano tutti i popoli. Superando le differenze più superficiali date dalle variazioni individuali di ciascuna, la struttura profonda di entrambe sembrerebbe combaciare perfettamente. Tale sovrapposizione strutturale si riflette nell’interpretazione che avviene a livello cerebrale e, in modo altrettanto interessante, anche sulla base, o meglio, sulle ipotesi fino ad ora formulate, riguardanti la loro origine. Relativamente all’analisi degli aspetti formali di musica e linguaggio, i primi studi sono stati condotti negli anni ’70 con Hockett e ripresi poi nel 2006 da Fitch e nel 2009 da Jackendoff. Dai lavori di questi ricercatori sono poste in luce le caratteristiche che accomunano e che differiscono nei due sistemi cognitivi. Musica e linguaggio sono costruiti a partire da una sequenza di suoni e, in riferimento al linguaggio verbale e al canto, sono prodotti tramite fonazione. In quanto suoni, questi sono veicolati attraverso l’aria ed entrambi consentono un feedback immediato. Nonostante permettano fin da subito un giudizio su quanto prodotto, sia i suoni musicali sia i suoni verbali sono a dissolvenza rapida, quindi, una volta prodotti, non sono modificabili. Addentrandoci nell’aspetto creativo dei due sistemi cognitivi, è possibile notare che sono entrambi generativi, ossia a partire da una sequenza finita di elementi discreti e di regole, si ottiene una serie potenzialmente infinita di formule ben formate. Come conseguenza di questo aspetto generativo, ne consegue che sono entrambe produttive e complesse. Musica e linguaggio inoltre variano localmente, pertanto avremo lingue, dialetti e musiche popolari differenti da luogo a luogo. L’ultima caratteristica formale che accomuna musica e linguaggio è data dalla possibilità di trasposizione. Più evidente in musica, in quanto si può trasporre un brano da una tonalità ad un’altra, meno intuibile ma altrettanto efficace nel linguaggio verbale in cui uno stesso enunciato non muta il suo significato se prodotto da una voce maschile o femminile. Le peculiarità che differiscono musica e linguaggio fanno riferimento agli aspetti più caratterizzanti dei due sistemi cognitivi. La musica ha altezze discrete (rappresentate dalle scale), è tendenzialmente isocrona, poiché contraddistinta da battiti regolari che permettono di avere un quadro temporale di riferimento per le altre caratteristiche ritmiche musicali, e ha un proprio repertorio. La produzione linguistica, sia in termini di altezze sia in termini ritmici è libera invece di variare continuamente. Gli aspetti tipici del linguaggio che al contrario non sono condivisi dalla musica fanno riferimento alla referenzialità. Se infatti le lingue sono costituite da suoni arbitrari che attraverso il sistema di doppia articolazione costituiscono dei segni portatori di significato, e 1 pertanto con valore semantico, la musica non porta significato allo stesso modo. Vale a dire che la musica non ha significato referenziale. Un’ultima differenza tra i due sistemi cognitivi è data dall’intercambialità. Se una frase infatti è facilmente ripetibile da chi la ascolta, non si può dire lo stesso di chi ascolta musica. Anche Jackendoff in “Parallels and Nonparallels between Language and Music” del 2009 si occupa del confronto fra le due capacità umane concentrando la sua visuale sugli aspetti prettamente cognitivi. Secondo il linguista, le caratteristiche assimilabili ad entrambi i sistemi cognitivi fanno riferimento alla memoria a lungo termine, alla capacità di integrare le rappresentazioni nella memoria di lavoro, alla capacità di creare aspettative, di intraprendere collettivamente determinate azioni e di produrre suoni ben controllati. L’opinione di Jackendoff, tuttavia, è che, fatta eccezione per la produzione di suoni ben controllati, le altre caratteristiche sono condivise da molte altre attività umane, come ad esempio dalla percezione visiva. Se dunque dagli aspetti formali si notano tante somiglianze ma anche tante differenze fra linguaggio e musica, Katz e Pesetsky, nella formulazione della tesi di identità di linguaggio e musica del 2009, sostengono che le differenze riscontrabili in musica e linguaggio sono riconducibili solamente ai loro elementi costitutivi, ossia parole nel linguaggio e note e accordi in musica, e che in realtà sono identiche rispetto al comportamento che hanno con gli elementi che le costituiscono, tanto da definirle “stessa ricetta con ingredienti diversi”. In questo modo si arriva a parlare di identità sintattica evidente nella rappresentazione gerarchica del significato. Se dunque alla struttura superficiale della frase “io coltivo e tu vendi i fagioli” soggiace la struttura profonda “io coltivo i fagioli e tu vendi i fagioli”, lo stesso accade nella struttura sintattica musicale “II-V-IIV-I” con struttura profonda “II-V-I-II-V-I”. Le dipendenze a lunga distanza “coltivo i fagioli” e “VI” mostrano con chiarezza che le frasi linguistiche e musicali coincidono nella formulazione di un loro significato. Il secondo punto di analisi delle caratteristiche linguistiche e musicali si concentra nella valutazione degli aspetti neurobiologici. Dal procedimento iniziale dell’informazione acustica, tradotto in attività neurale dai recettori uditivi della coclea, il messaggio acustico viene trasformato nel tronco cerebrale uditivo per passare attraverso il corpo genicolato mediale, o talamo uditivo, da cui prosegue verso la corteccia primaria uditiva. Nella corteccia uditiva si localizzano diverse mappe tonotopiche che rappresentano l’intero spettro delle frequenze udibili; altre zone della corteccia invece contribuiscono all’estrazione di specifiche informazioni acustiche, quali il timbro, l’altezza del suono, l’intensità e l’asprezza. Tutta questa serie di operazioni si riflette nell’attività 2 elettrofisiologica registrata dai componenti ERP1. In seguito all’estrazione delle caratteristiche dell’informazione acustica, questa entra nella memoria sensoriale uditiva in cui avviene il raggruppamento degli elementi acustici che la formano. Le operazioni della memoria sensoriale uditiva si riflettono nella mismatch negativiy (MMN), componente dell’onda suscitato dal potenziale evento-correlato, usato per studiare gli effetti della formazione musicale nell’analisi del suono, dell’informazione melodica, del raggruppamento di suoni in sequenza e dell’attenzione spaziale. Di seguito a questa fase, si procede all’approfondimento dell’analisi acustica da diverse prospettive: melodica, armonica e ritmica. Il lobo temporale destro è di fondamentale importanza per la percezione della melodia, come confermato anche da studi con tecnica di risonanza magnetica funzionale (fMRI) e comportamentali su soggetti con lesione al lobo temporale anterolaterale destro. Tutti i tipi di musica mostrano un’organizzazione sintattica musicale, quel che è interessante è che l’analisi della sintassi musicale sembra essere un processo automatico negli esseri umani, tanto da esser riscontrato anche nei casi di ascolto passivo (ad esempio mentre i partecipanti giocano ai videogiochi o mentre leggono un libro). Koelsch e Siebel (2005c) affermano che anche i non musicisti, ossia quelle persone che non hanno avuto un’istruzione musicale formale, hanno una forte conoscenza implicita della sintassi musicale. Questa conoscenza deriverebbe dalla grande esperienza acquisita nel corso della vita. Quel che è sorprendente però, è che la sintassi musicale può essere articolata in sequenze di dipendenze a lunga distanza che richiedono una complessa analisi strutturale, come dimostrato nella Tonal Pitch Space Theory di Lerdahl (Patel 2003). La sintassi musicale è stata studiata anche dal punto di vista neurobiologico. Secondo Koelsch (2005a), l’analisi sintattico-musicale attiva la circonvoluzione frontale-laterale inferiore, la corteccia premotoria ventrolaterale e probabilmente anche la parte anteriore della circonvoluzione temporale superiore. L’abilità di analisi sintattico-musicale è strettamente correlata alla percezione del linguaggio. Gli studi che collegano le due capacità umane trovano i primi riscontri nell’analisi degli accordi irregolari per mezzo del magnetoencefalogramma (MEG). Gli accordi irregolari nel contesto sintattico-musicale, infatti, attivano la parte inferiore dell’area di Broadmann 44, ossia la corteccia fronto-laterale inferiore. L’area, situata nell’emisfero sinistro, è solitamente definita “area di Broca”, un’area implicata anche nell’analisi della sintassi linguistica. La coincidenza sintattica tra musica e linguaggio è ancora più evidente se si considerano i risultati ERP per cui entrambi i 1 ERP, dall’inglese event related potential, in italiano “potenziale evento-correlato” è la risposta elettrofisiologica del cervello ad uno stimolo che viene misurato dall’elettroencefalogramma attraverso il posizionamento di elettrodi sullo scalpo. 3 sistemi cognitivi elicitano il P600, potenziale evento correlato associato all’analisi degli elementi sintattici. Oltre alla sintassi, è stata studiata anche la semantica musicale e linguistica a livello neurobiologico. Anche in questo caso si è potuta notare un’interessante coincidenza, in quanto sia l’analisi semantica linguistica, sia l’analisi del significato musicale si riflettono nell’N400, potenziale evento correlato che misura elettrofisiologicamente l’analisi dell’informazione che porta significato. Perciò, sebbene la musica sia semanticamente meno specifica del linguaggio, come evidenziato nell’analisi formale dei due sistemi cognitivi, può però essere più specifica nella trasmissione di informazione sulle emozioni che sono difficili da esprimere a parole. Ciò sarebbe dovuto al fatto che la musica può funzionare prima che le sensazioni vengano trasmesse a parole. Sebbene attraverso i dati della neuroimmagine sia stato possibile affermare che vi sia una sovrapposizione nel funzionamento dei due sistemi cognitivi, i dati forniti dalla neuropsicologia confermerebbero il contrario. Un disturbo molto raro è la sordità verbale pura. I soggetti affetti da questa patologia hanno un normale audiogramma e l’analisi uditiva periferica è pressoché intatta inoltre non sono considerabili afasici, poiché, a differenza degli afasici, i pazienti affetti da sordità verbale pura possono leggere, scrivere e parlare, seppure non fluentemente. Il loro deficit è quindi riscontrabile nell’incapacità di comprendere il discorso orale, quel che sorprende però è che la percezione musicale è relativamente intatta. Tra gli altri disturbi che scindono l’abilità linguistica da quella musicale troviamo l’amusia che si manifesta nell’incapacità di discriminazione o di riconoscimento delle melodie con capacità linguistica intatta e l’afasia senza amusia che, al contrario, è l’incapacità di produrre o comprendere il linguaggio con inalterata competenza musicale. Di fronte al paradosso che vede da un lato una chiara coincidenza fra i due sistemi cognitivi, dall’altro un’evidente dissociazione, è emersa nel 2003 l’ipotesi formulata da Patel: la Shared Syntactic Integration Resources Hypothesis (Ipotesi della risorsa d’integrazione sintattica condivisa). Nel presentare questa ipotesi, Patel crea una distinzione fra le rappresentazioni modulari 2 (domain specific) nella memoria a lungo termine e le risorse neurali condivise. L’opinione di Patel è che nelle rappresentazioni modulari si trovino gli elementi tipici del linguaggio quali le categorie lessicali e le dipendenze sintattiche a lunga distanza, come nel caso di ragazza e ha aperto in “La ragazza che ha baciato il ragazzo ha aperto la porta”. Al contrario, le dipendenze a lunga distanza 2 Con “rappresentazioni modulari” si fa riferimento al modello modularista proposto da Jerry Fodor nei primi anni ’80, il quale propone che vi sia un’architettura cognitiva disposta, relativamente ai sistemi di analisi dell’input, in strutture verticali il cui compito è di trasformare gli input in rappresentazioni. Queste rappresentazioni vengono poi offerte ai sistemi centrali per le elaborazioni successive che saranno più complesse. Tali strutture prendono appunto il nome di moduli. La trasformazione degli input in rappresentazioni sottintende una teoria computazionale della mente, pertanto si avrà una realizzazione dei processi cognitivi basata su una elaborazione di tipo sequenziale. 4 presentate dalla teoria musicale, non possono essere assunte semplicemente come percepite, ma devono essere invece viste come ipotesi soggette a prova empirica. Patel ha dunque proposto che le rappresentazioni modulari dell’analisi linguistica e musicale sono situate nelle regioni temporali del cervello, mentre le risorse condivise sono localizzate nelle regioni frontali. Rispetto alla neuroimmagine, quindi, la Shared Syntactic Integration Resources Hypothesis (Ipotesi della risorsa d’integrazione sintattica condivisa) è coerente con i risultati già menzionati, mentre rispetto alla neuropsicologia, propone che le dissociazioni fra musica e linguaggio, ad esempio nel caso degli amusici, siano dovute a lesioni nelle rappresentazioni modulari relative alla sintassi musicale, piuttosto che a problemi nell’integrazione dei processi sintattici. L’ultimo punto di analisi dei due sistemi cognitivi è volto ad indagare la genesi ed evoluzione di musica e linguaggio. Il problema principale nella definizione dell’origine del linguaggio è data dal fatto che, diversamente dalla musica, non lascia tracce fossili. A causa di ciò, l’8 Marzo 1866, la Società Linguistica di Parigi sanciva nel suo statuto il divieto ai linguisti di occuparsi della questione. Per lo stesso motivo, anche la Società Filologica di Londra impose nel 1872 lo stesso veto. Solo a partire dalla seconda metà del Novecento si è ripreso ad indagare sull’argomento, e ciò è stato possibile dapprima grazie al consolidamento della teoria evoluzionistica darwiniana, poi attraverso l’intervento di antropologi, neuroscienziati, scienziati cognitivi, biologi evoluzionisti, paleoantropologi, psicologi e primatologi. Chomsky in “Cartesian Linguistics” del 1966 ci trasmette l’idea che la facoltà del linguaggio umano segna un punto di svolta fra l’uomo e l’animale in termini qualitativi, ribadendo il concetto di capacità linguistica come abilità specifica degli esseri umani derivante da un tipo unico di organizzazione cognitiva che si manifesta attraverso l’aspetto creativo dell’uso del linguaggio. Differentemente da Chomsky che ritiene quindi che vi sia un “salto evoluzionistico” fra l’animale e l’uomo, Gould e Lewontin (1979) considerano il linguaggio uno spandrel ossia un “effetto secondario” di altre abilità cognitive. Per questo motivo, dunque, il linguaggio, nato come frutto dell’architettura generale dell’organismo, si può considerare conseguenza della conformazione fisiologica dell’uomo. Attraverso analogie utili allo studio del linguaggio umano con i cercopitechi verdi, i babbuini gelada e i gibboni, l’archeologo cognitivo Mithen ha potuto affermare che i primi messaggi umani fossero olistici, manipolativi, ossia con lo scopo di condizionare il comportamento altrui, musicali, caratterizzati quindi da ritmo e melodia, e multimodali, per cui ci sarebbe stato un uso combinato di vocalizzazioni e gesti. Con l’Homo ergaster, ominide quasi completamente 5 bipede vissuto tra i due e un milione di anni fa, vi sarebbe stato un punto di svolta. Il bipedismo, infatti, ha avuto notevoli ripercussioni sul sistema di comunicazione, poiché modificando la posizione del cranio rispetto alla colonna vertebrale, si è reso possibile l’abbassamento della laringe, principale organo di fonazione, e quindi l’evoluzione del linguaggio. Il linguaggio articolato si è sviluppato soprattutto con l’homo erectus e con l’homo heidelbergensis poiché il sistema si arricchisce della mimesi, ossia della capacità di produrre atti intenzionali coscientemente. Dall’homo neanderthalensis, vissuto in Europa tra 400.000 e 30.000 anni fa, questo linguaggio si arricchisce di espressioni semanticamente sempre più complesse e flessibili. Ma il primo vero sistema di comunicazione dei nostri antenati avrebbe fatto uso della gestualità. Il fondamento di questa ipotesi è la scoperta dell’esistenza nel cervello dei macachi dei neuroni specchio, così chiamati perché, al vedere un’azione permettono un rispecchiamento tra la percezione e l’azione. L’area di rilevamento dei neuroni specchio nei macachi è denominata F5, quel che sorprende però è che anche il cervello umano è dotato del sistema dei neuroni specchio e l’area F5 sarebbe l’omologa dell’area di Broca negli umani, che svolge un ruolo di fondamentale importanza per la produzione e comprensione del linguaggio, oltre ad essere implicata anche nella produzione di movimenti più generali. L’idea di Corballis (2011 in Adornetti 2012) è che i gesti imitativi sono diventati nel tempo sempre più arbitrari e astratti, perdendo così il legame iconico con l’oggetto o l’evento che rappresentano. Questo processo è denominato convenzionalizzazione. Nel momento in cui il linguaggio è convenzionalizzato, perde il suo aspetto mimetico e quindi non è più limitato alla modalità visiva. Sarebbe proprio in questo stadio dunque che le vocalizzazioni sostituiscono gli atti manuali allo scopo comunicativo. Ma quando si sarebbe passati da un sistema di comunicazione verbale? La risposta che fornisce Philip Liebermann (1975, 1998, 2007 in Adornetti 2012) è che il linguaggio vocale si sarebbe definitivamente affermato negli Homo sapiens circa 50.000 anni fa. Questo calcolo è stato possibile attraverso la ricostruzione del tratto vocale sovralaringeo degli ominidi estinti. La laringe dell’uomo di Neanderthal, infatti, sarebbe in una posizione troppo vicina alla base del cranio per garantire una vasta modulazione tonale, così come il tratto vocale dell’Homo Sapiens di 100.000 anni fa è ancora troppo corto, precludendo quindi la possibilità di ospitare un tratto vocale sovralaringeo simile a quello attuale. Chomsky, assieme a Hauser e Fitch è tornato nel 2002 sull’argomento proponendo una distinzione fra la facoltà di linguaggio in the broad sense (in senso ampio), capacità degli uomini condivisa con gli animali e facoltà di linguaggio in the narrow sense (in senso stretto), tipicamente e specificamente umana. Il punto focale della distinzione delle due facoltà risiederebbe nella ricorsività, componente fondamentale nella facoltà di linguaggio. La specificità della facoltà di linguaggio in the narrow sense è data dal meccanismo computazionale/cognitivo che genera 6 rappresentazioni interne che vengono trasmesse al sistema senso-motorio attraverso il sistema fonologico e al sistema concettuale-intenzionale attraverso il sistema semantico. Anche l’origine e l’evoluzione della musica hanno affascinato gli studiosi e la nascita di diverse teorie, da quelle adattazioniste a quelle non-adattazioniste. Mentre il linguista Steven Pinker (in Huron, 2003) ritiene che, mentre il linguaggio sia un adattamento evolutivo, la musica sia fondamentalmente inutile (sebbene le prove a sostegno del linguaggio come adattamento non sono in effetti più forti rispetto alle prove comparabili in musica), Gould e Lewontin (1979) ritengono che la teoria dell’evoluzione della specie possa essere manipolata da un ragionamento ad hoc. Esistono poi altre proposte riguardanti la possibile origine evolutiva della musica, quali la selezione del compagno e la sua variante nella selezione sessuale, la coesione sociale, la regolazione dell’umore, lo sviluppo delle abilità motorie, la riduzione dei conflitti, la musica come passatempo sicuro e comunicazione transgenerazionale per citarne solo alcuni. Alla base delle teorie di selezione del compagno e selezione sessuale sottostà l’idea che l’abilità canora sia indice di buona salute nell’individuo, oltre ad indicare particolare coordinazione motoria, capacità di automatizzazione e creatività melodica. Inoltre chi produce musica deve aver tempo per l’esercitazione, che, ancora, indica che l’individuo che esegue musica non ha responsabilità genitoriali. Relativamente invece alle teorie più prettamente sociali è emerso che ancora oggi la musica è usata per la gestione dello stato d’animo e, secondo Fukui (in Huron 2003: 70) ascoltare musica riduce i livelli di testosterone. Questo particolare effetto ormonale avrebbe permesso maggiore coesione sociale tra i nostri antenati evitando così aggressioni, conflitti e competizione sessuale. Sebbene nessuna di queste teorie sia stata suffragata, si ricordano infatti teorie più recenti come quella di Justus e Hutsler (2005) e Trainor (2006) per cui la musica sarebbe un transadattamento, molto favorita sembra invece la tesi di Fitch (2006), il quale ritiene la musica un adattamento la cui funzione originale sarebbe stata inglobata nel linguaggio. L’opinione dello studioso è che la musica non potrebbe essere un relitto, come l’appendice o i capezzoli maschili, perché richiede un’eccessiva spesa di energie, e inoltre gioca un ruolo molto importante nelle relazioni umane. Attraverso la comparazione con i sistemi di comunicazione animale come il canto degli uccelli e delle balene, Fitch ritiene sia opportuno considerare la musica come un istinto ad imparare, poiché è proprio l’abilità umana di imparare nuovi aspetti complessi che costituisce il fondamento della nostra specie. Se da quanto affermato da Fitch musica e linguaggio sono in un certo senso assimilabili l’uno all’altro, interessante è anche la datazione approssimativa della nascita della musica. Come il linguaggio, infatti, sembra che la musica sia nata 50.000 anni fa. Questa datazione è stata possibile attraverso il ritrovamento del più antico strumento musicale: un flauto, rinvenuto nel parco 7 archeologico di Divje Babe presso Circhina, nella Slovenia occidentale, proveniente dal femore di un giovane orso e contraddistinto da alcuni fori distanziati. Huron (2003: 63) afferma che il canto potrebbe essersi sviluppato all’incirca nello stesso periodo della nascita di questo strumento, vero e proprio prototipo musicale, collocando quindi la nascita della musica proprio a 50.000 anni fa circa. Alla luce di quanto analizzato è stato possibile stabilire alcune fra le somiglianze e differenze che caratterizzano linguaggio e musica. Come abbiamo visto, oltre ad evidenti differenze fra i due sistemi cognitivi, è possibile affermare che vi siano interessanti e quasi incredibili somiglianze, non solo strutturali, ma anche neurobiologiche e filogenetiche. Poiché l’analisi e il confronto di linguaggio e musica è un ambito di ricerca emerso solo recentemente, rimane ancora molto da indagare, soprattutto se si considerano i notevoli progressi che stanno compiendo le neuroscienze che permettono uno studio sempre più chiaro e approfondito delle caratteristiche neurologiche. Riferimenti bibliografici citati: Adornetti, I. (2012). Origine del linguaggio. APhEx, portale italiano di filosofia analitica. No. 5, pp. 1-39 Chomsky, N. (2009). Cartesian Linguistics. A Chapter in the History of Rationalist Thought. 3rd ed., Cambridge, Cambridge University Press. Fitch, W. T., Hauser, M. D., Chomsky, N. (2005). The evolution of the language faculty: Clarifications and implications. Cognition 97, pp. 179-210 Fitch, W. T. (2006a). The biology and evolution of music: A comparative perspective. Cognition 100, pp. 173-215 Fitch, W. T. (2006b). On the biology and evolution of music. Music Perception: An interdisciplinary journal. Vol. 24, No. 1, pp. 85-88 Gould, S. J., Lewontin, R. C. (1979). The Spandrels of San Marco and the Panglossian Paradigm: A Critique of the Adaptionist Programme. Proceedings of the royal society of London, Series B, Vol. 205, No. 1161, pp. 581-598 8 Hauser, M. D., Chomsky, N., Fitch, W. T. (2002). The faculty of Language: What is it, Who has it, and How did it evolve? Science. Vol. 298, pp. 1569-1579 Jackendoff, R. (2009). Parallels and Nonparallels between Language and Music. Music Perception, Vol. 26, Issue 3, pp. 195-204 Justus, T., Hutsler, J. T. (2005). Fundamental issues in the evolutionary psychology of music: assessing innateness and domain specificity. Music Perception: An interdisciplinary journal. Vol. 23, No. 1, pp. 1-27 Katz, J., Pesetsky, D. (2009). The Identity Thesis for Language and Music. MIT Koelsch, S. (2005a). Neural substrates of processing syntax and semantics in music. Current opinion in neurobiology. Vol. 15, pp. 207-2012 Koelsch, S., Gunter, T., Wittfoth, M., Sammler, D. (2005b). Interaction between Syntax Processing in Language and in Music: an ERP Study. Journal of Cognitive Neuroscience, pp. 15651577 Koelsch, S., Siebel, W. A. (2005c). Towards a neural basis of music perception. Trends in Cognitive Sciences, Vol. 9, No. 12, pp. 578-584 Patel, A. D. (2003). Language, music, syntax and the brain. Nature neuroscience, Vol. 6, No. 7 Trainor, L. J. (2006). Innateness, learning, and the difficulty of determining whether music is an evolutionary adaptation. Music Perception: An interdisciplinary journal. Vol. 24, No. 1, pp. 105110 In Arbib, M. A. (2013) “Language, Music, and the Brain”. MIT Press: Thompson-Schill, S., Hagoort, P., Dominey, P. F., Honing, H., Koelsch, S., Ladd, D. R., Lerdahl, F., Levinson, S. C., Steedman, M. (2013). Multiple Levels of Structure in Language and Music. In Michael A. Arbib, “Language, Music, and the Brain”, Chapter 12. MIT Press 9 Huron, D. (2003). Is Music and evolutionary adaptation? In Isabelle Peretz, and Robert J Zatorre, “The Cognitive Neuroscience of Music”, Chapter 5, pp. 57-75. Oxford, New York. Oxford University Press 10