Università degli Studi di Firenze Facoltà di Scienze Matematiche Fisiche e Naturali Tesi di Laurea triennale in Fisica Dinamiche irregolari in catene di oscillatori Candidato: Pietro Liuzzo Scorpo Relatore: Antonio Politi Anno Accademico 2009/2010 Indice 1 I neuroni 1 1.1 Potenziale di membrana e trasmissione dei segnali . . . . . . . . 1 1.2 Membrana cellulare e correnti ioniche . . . . . . . . . . . . . . . 3 2 Modelli di neuroni 5 2.1 Il modello di Hodgkin e Huxley . . . . . . . . . . . . . . . . . . . 5 2.2 Il modello leaky integrate-and-fire (LIF) . . . . . . . . . . . . . . 6 3 Catene di neuroni LIF 8 3.1 Reti di neuroni LIF . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Catena di neuroni LIF con sinapsi inibitoria ad accoppiamento a corto raggio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 3.3 Evoluzione della catena a tempi discreti . . . . . . . . . . . . . . 9 4 Caoticità di sistemi dinamici 8 11 4.1 Sistemi dinamici caotici, attrattori . . . . . . . . . . . . . . . . . 11 4.2 Esponenti di Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . 13 4.3 Caos stabile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 5 Dinamiche in catene di neuroni LIF ad accoppiamento a corto raggio 16 5.1 Studio qualitativo dei pattern . . . . . . . . . . . . . . . . . . . . 16 5.2 Propagazione delle perturbazioni . . . . . . . . . . . . . . . . . . 17 5.3 Orbite periodiche . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 5.4 L’esponente di Lyapunov 21 . . . . . . . . . . . . . . . . . . . . . . 6 Conclusioni 24 Appendice 25 1 I neuroni I neuroni sono le cellule che permettono lo scambio di informazioni tra le varie parti dell’organismo. Sono specializzati nel ricevere, integrare e trasmettere impulsi nervosi. Questi impulsi, che viaggiano attraverso gli assoni e consentono la codifica e la trasmissione di informazione, sono segnali elettrici generati da differenze di potenziale associate a correnti di natura ionica che attraversano la membrana cellulare del neurone. Il neurone si può schematizzare come costituito da tre parti morfologicamente e funzionalmente distinte[1]: i dendriti : adibiti alla ricezione degli impulsi in ingresso da parte degli altri neuroni, hanno una struttura molto ramificata che si estende per distanze che possono raggiungere il millimetro; il soma: struttura compatta, che costituisce il corpo cellulare, deputata alla elaborazione dell’informazione; l’assone: adibito alla trasmissione del segnale in uscita verso le altre cel- lule; si presenta come una lunga protuberanza che esce dal soma ed arriva prevalentemente ai dendriti delle altre cellule (in alcuni casi può arrivare al soma o all’assone). Figura 1: Struttura del neurone 1.1 Potenziale di membrana e trasmissione dei segnali Si definisce potenziale di membrana la differenza di potenziale misurata ai capi di due elettrodi, uno posto all’interno della membrana cellulare, uno posto all’esterno (nel liquido extracellulare). Si parla di segnale neuronale quando si ha una variazione temporale e spaziale del potenziale di membrana. In assenza di eccitazioni esterne il neurone si dice a riposo e presenta un valore caratteristico del potenziale di membrana dell’ordine di -65mV; essendo questo valore negativo si ha che l’interno della cellula si presenta ad un potenziale minore rispetto al liquido extracellulare circostante. Si definisce potenziale di azione l’impulso generato quando il potenziale di membrana supera un certo valore limite θ detto soglia. Il potenziale di azione non è soggetto ad attenuazione o distorsione durante la propagazione lungo l’assone e presenta le seguenti caratteristiche (vedi figura 2): l’impulso di tensione ha una durata di circa 1-2 ms ed un’ampiezza tra il picco massimo e quello minimo dell’ordine di 120 mV; si ha inizialmente una crescita molto veloce del potenziale di membrana seguita da una decrescita esponenziale fino al valore minimo che si trova ad un potenziale minore rispetto al potenziale a riposo; il potenziale torna quindi a salire lentamente fino a raggiungere il poten- ziale a riposo, questa fase dura circa 10 ms. Figura 2: Potenziale d’azione. Si dice che la membrana si depolarizza quando il potenziale di membrana assume valori maggiori del potenziale a riposo, si dice invece che si iperpolarizza quando il potenziale di membrana è inferiore al potenziale di riposo. Il neurone per tutta la durata del potenziale d’azione diventa refrattario agli stimoli in ingresso, per cui, in questo lasso di tempo, della durata di circa 2 ms (refrattarietà assoluta), il neurone non può emettere ulteriori potenziali di azione. Nella fase di iperpolarizzazione invece c’è bisogno di uno stimolo esterno maggiore affinché il potenziale di membrana superi il valore di soglia per cui l’emissione di un potenziale d’azione è meno probabile (refrattarietà relativa). 2 Le sinapsi costituiscono la giunzione tra due neuroni attraverso la quale avviene il trasferimento di informazioni da un neurone all’altro. La sinapsi è quella regione in cui l’assone del neurone presinaptico interagisce con il dendrite del neurone postsinaptico. Si definisce il potenziale postsinaptico come la risposta in tensione del neurone postsinaptico conseguente all’arrivo del potenziale di azione proveniente dal neurone presinaptico. 1.2 Membrana cellulare e correnti ioniche La membrana cellulare è composta da un doppio strato fosfolipidico1 e agisce da barriera di permeabilità [2]. Le attività della membrana sono però espletate dalle proteine di membrana. Alcune di queste possono ancorare macromolecole, altre funzionano da recettori per rivelare segnali chimici provenienti dall’ambiente e ritrasmetterli all’interno della cellula, altre ancora catalizzano reazioni specifiche ed alcune sono responsabili del passaggio di sostanze nutritive, metaboliti e ioni attraverso la barriera lipidica. La presenza di queste ultime, dette proteine di trasporto, è necessaria in quanto mentre molecole apolari di modeste dimensioni possono permeare la membrana per diffusione semplice, molecole più complesse (quali zuccheri ed aminoacidi) attraverserebbero il doppio strato troppo lentamente. Inoltre per gli ioni (il cui passaggio è nel nostro specifico interesse) e per le molecole cariche la membrana è addirittura impermeabile. Le proteine riservate al trasporto di ioni inorganici sono dette canali ionici. In questi si possono riconoscere [1]: un poro centrale pieno d’acqua; un filtro di selettività che permette il passaggio di alcune specie chimiche piuttosto che altre in base a dimensioni e caratteristiche chimico-fisiche; un sistema di porte che si aprono e si chiudono facendo oscillare casual- mente il canale tra lo stato aperto e lo stato chiuso. In generale la corrente che attraversa un canale dipenderà dalla conduttanza del canale (che misura l’abilità della membrana a con- durre corrente elettrica); dal gradiente di concentrazione tra l’interno e l’esterno della cellula che causa una corrente di diffusione; dalla differenza di potenziale applicata alla membrana. 1I fosfolipidi sono composti da una testa idrofilica legata alle due code idrocarburiche idrofobiche tramite un gruppo fosfato 3 La cellula contiene diversi ioni disciolti, quali K+ , Na+ , Cl− , ed è a sua volta immersa in una soluzione contente anch’essa queste specie ioniche in concentrazione diversa rispetto all’interno. Il potassio, ad esempio, trovandosi in maggiore concentrazione all’interno della cellula tenderà a fuoriscire da questa secondo il proprio gradiente di concentrazione, ma a sua volta verrà attratto verso l’interno dal gradiente del potenziale elettrostatico. La membrana si dice quindi a riposo se il gradiente di concentrazione ed il gradiente elettrico sono in equilibrio. Si definisce potenziale di equilibrio di una specie ionica il valore del potenziale di membrana per il quale non si ha alcun flusso netto della specie ionica considerata. Questo potenziale è legato alle concentrazioni esterna ed interna dall’equazione di Nernst: Eione = kB T [n]e ln q [n]i (1.1) dove Eione è il potenziale di equilibrio della specie ionica, [n]e e [n]i sono rispettivamente le concentrazioni interna ed esterna, kB ' 1,38 · 10−23 J/K costante di Boltzmann, T temperatura, q carica elettrica. Le proprietà elettriche di membrana possono essere schematizzate con tre elementi circuitali passivi: una resistenza per unità di superficie rm che si spiega con l’esistenza dei canali ionici che realizzano un contatto tra l’interno e l’esterno della cellula ed è determinata principalmente dalla permeabilità a riposo del potassio e del cloro, una capacità per unità di superficie cm dovuta all’accumulo di cariche di segno opposto che determinano il potenziale di membrana e conferiscono a questa proprietà capacitive, ed un generatore di tensione EL pari al potenziale a riposo. 4 2 Modelli di neuroni 2.1 Il modello di Hodgkin e Huxley Hodgkin e Huxley formularono un modello matematico, per riprodurre i dati sperimentali relativi all’assone gigante del calamaro, in cui la dinamica neuronale è descritta da quattro variabili. Il modello è costituito da quattro equazioni differenziali che descrivono il comportamento del potenziale di membrana e delle tre correnti ioniche fondamentali (sodio, potassio e cloro) [1]. Questo modello si fonda sull’ipotesi che le conduttanze della membrana per il sodio e per il potassio dipendano fortemente dalla differenza di potenziale applicata alla membrana: una depolarizzazione della membrana aumenta la probabilità di apertura dei canali ionici. Questa avviene però con modalità e su scale di tempo diverse: in un primo momento si ha un aumento della conduttanza del sodio e solo con un certo ritardo temporale viene attivata la conduttanza del potassio. Per comprendere l’emissione del potenziale di azione a seguito del superamento del valore di soglia del potenziale di membrana occorre descrivere gli effetti dovuti all’aumento delle conduttanze di sodio e potassio sul potenziale stesso: la depolarizzazione della membrana aumenta il numero di canali del sodio aperti. A causa del gradiente elettrico e del gradiente di concentrazione il sodio diffonde dalla soluzione extracellulare verso l’interno della cellula causando una depolarizzazione ancora maggiore. Si parla quindi di retroazione positiva. a seguito della depolarizzazione si ha che il potassio fuoriesce dalla cel- lula secondo il gradiente elettrico e di concentrazione. Questa fuoriuscita causa una ripolarizzazione della membrana con conseguente riduzione della conduttanza del potassio stesso. Si parla quindi di retroazione negativa. Quindi, si suppone ora di far passare una corrente attraverso la membrana tale da portare il potenziale fino al valore di soglia e quindi di interrompere la corrente. Questa depolarizzazione come si è detto causa un aumento del flusso di potassio verso l’esterno ed allo stesso tempo si ha un aumento della corrente di sodio in ingresso. Il potenziale di soglia è tale che questi aumenti di corrente siano uguali ed opposti, ma la conduttanza del sodio è ora instabile. Infatti l’ingresso di uno ione di sodio in più innescherebbe il processo di retroazione positiva a causa della depolarizzazione della membrana: l’aumento della conduttanza del sodio porta all’emissione del potenziale di azione. Viceversa l’uscita di uno ione potassio in più ripolarizza la membrana innescando la retroazione negativa: il potenziale di membrana rilassa verso il suo valore di riposo. 5 Durante l’emissione del potenziale di azione vengono disattivati i canali del sodio fino alla ripolarizzazione della membrana. Questo spiega il periodo refrattario assoluto. 2.2 Il modello leaky integrate-and-fire (LIF) Questo è un modello semplificato di neurone che include in modo schematico i meccanismi biofisici del potenziale di azione. Si suppone che il potenziale di azione sia generato ogni qualvolta il potenziale di membrana supera il valore di soglia θ, a seguito di questa emissione viene riassegnato al potenziale il valore R. A differenza del modello realistico di Hodgkin e Huxley, nei modelli LIF si ha un’unica variabile: il potenziale di membrana. Nella modellizzazione più semplice della dinamica sottosoglia vengono ignorate tutte le conduttanze di membrana attive, compresi gli input sinaptici, e si schematizza l’intera conduttanza di membrana con un singolo termine di perdita (leaky) passivo im = ḡL (V − EL ) (2.1) dove im è la corrente di membrana, ḡL è la conduttanza efficace della membrana a riposo, V il potenziale di membrana, EL il potenziale di riposo. Sperimentalmente è stato provato che le conduttanze neuronali rimangono pressocché costanti per piccole fluttuazioni attorno al potenziale di membrana a riposo. Ipotesi fondamentale del modello LIF è che queste conduttanze siano costanti per tutto l’intervallo di tempo della variazione del potenziale sottosoglia. Per cui si ha che la variazione di carica nel tempo sulla membrana è data dalla differenza tra la corrente iniettata dall’esterno e la corrente di perdita (il che Figura 3: Schematizzazione circuitale del modello LIF. 6 equivale a dire che il neurone si comporta come un circuito elettrico costituito da una resistenza ed una capacità in parallelo) per cui si ha cm dV Ie Ie = −im + = −ḡL (V − EL ) + dt A A (2.2) dove A è la superficie della membrana e Ie è la corrente esterna iniettata nel neurone. Da cui si ottiene l’equazione fondamentale per i modelli LIF, τm dV = EL − V + Rm Ie . dt (2.3) Per completare la dinamica del modello si deve aggiungere una regola “ad hoc”: ogniqualvolta il potenziale raggiunge il valore di soglia (viene cioè emesso il potenziale di azione) gli viene riassegnato il valore R. Dall’equazione fondamentale si vede che nel caso non si abbiano stimoli esterni (Ie = 0) il potenziale di membrana rilassa esponenzialmente a EL (che rappresenta infatti il potenziale di riposo della cellula modello) con costante di tempo τm . 7 3 3.1 Catene di neuroni LIF Reti di neuroni LIF Si considera ora un insieme di N neuroni. Il generico neurone i sarà collegato ad (riceverà segnali da) un numero ni di neuroni. Nel modello che si andrà a studiare si considereranno gli impulsi aventi una forma a delta di Dirac (cioè a larghezza nulla) ed il tempo di ricezione e di trasmissione di questi impulsi infinitamente rapido. Questi impulsi, che corrispondono alla corrente sinaptica, modificheranno il potenziale di membrana del neurone che li riceve di una quantità che dipende dal coefficiente di accoppiamento tra i neuroni Sji e dal peso sinaptico g che determina l’entità specifica dell’interazione tra i due neuroni. Il neurone trasmette un impulso, ai neuroni ai quali è collegato, quando il potenziale di membrana vi supera il valore di soglia θ. Una volta emesso questo impulso il potenziale di membrana torna al valore di riposo. Supponendo di aver rinormalizzato le variabili in modo tale che il potenziale di riposo sia zero ed il valore di soglia sia uno l’equazione che descrive la dinamica del modello LIF per l’i-esimo neurone è: v˙i = a − vi + g ni X 0 Sji j=1 X δ(t − t(j) n ) (3.1) n 0 dove a è una corrente adimensionale, Sji è il coefficiente di accoppiamento tra il neurone presinaptico j ed il neurone postsinaptico i (sarà negativo nel caso (j) di sinapsi inibitoria, positivo se la sinapsi è eccitatoria), tn è l’istante in cui l’i-esimo neurone riceve l’n-esimo impulso dal neurone j. 3.2 Catena di neuroni LIF con sinapsi inibitoria ad accoppiamento a corto raggio Nel presente lavoro si è andati a studiare il comportamento di una particolare rete di neuroni LIF: una catena in cui ciascun sito i è collegato solamente ai primi vicini i ± 1 ed ai secondi vicini i ± 2 (vedi figura 4). Le sinapsi prese in considerazione saranno sempre inibitorie. In questo caso particolare l’equazione (3.1) diventa: v̇i = a − vi − g i+2 X j=i−2,j6=i Sji X δ(t − t(j) n ) n (nel sistema studiato Sji = 1). E’ chiaro dall’equazione (3.2) che: 8 (3.2) Figura 4: Catena di neuroni LIF ad accoppiamento a primi e secondi vicini. tra uno sparo e l’altro l’equazione è lineare e può essere risolta analitica- mente (vedi par.3.3): il potenziale di membrana tende ad asintotizzarsi al valore a; si deve aggiungere una regola “ad hoc” che riporti il potenziale di mem- brana al valore di riposo una volta raggiunto il valore di soglia; nell’istante in cui il neurone riceve uno stimolo proveniente da uno dei neuroni ai quali è collegato si ha una divergenza nel valore della derivata del potenziale di membrana v̇i e quindi una discontinuità finita in vi (t) che viene ridotto di un valore proporzionale al coefficiente di accoppiamento tra i neuroni considerati. Si considereranno condizioni al contorno cicliche. 3.3 Evoluzione della catena a tempi discreti Tra uno sparo e l’altro il potenziale di membrana ha il seguente andamento vi (t) = (vin − a)e−(t−tn ) + a (3.3) cioè il potenziale tende a rilassare verso il valore a. Il tempo ti in cui l’i-esimo neurone (che all’istante tn presentava un potenziale di membrana vin ) raggiunge la soglia v = 1 è a − vin ti = ln a−1 (3.4) Quindi: N all’istante tn si ha una certa configurazione {vin }i=1 ; si calcola dopo quanto tempo ciascun neurone i raggiungerebbe la soglia; si determina il primo neurone a raggiungere la soglia (dopo un tempo N t̃=min{ti }i=1 ) e si denota con k la sua posizione; 9 N si trova la nuova configurazione vi (t̃− ) i=1 (dove con t̃− si indica il tempo immediatamente precedente all’istante in cui il k-esimo neurone raggiunge la soglia); N la configurazione vi (t̃+ ) i=1 (dove con t̃+ si indica il tempo immediatamente successivo all’istante in cui il k-esimo neurone raggiunge la soglia) N sarà uguale alla configurazione vi (t̃− ) i=1 dove però sono stati riassegnati i seguenti valori: vk = 0 vk−l (t̃+ ) = vk−l (t̃− ) − gSk(k−l) 10 con l = ±1, ±2 4 4.1 Caoticità di sistemi dinamici Sistemi dinamici caotici, attrattori Si definisce sistema dinamico una legge matematica deterministica che descrive l’evoluzione temporale di un sistema fisico dipendente da un numero arbitrario di variabili [3]. Un sistema dinamico in cui la variabile temporale è una variabile continua è rappresentato dal seguente sistema di equazioni d x(t) = F[x(t)] dt (4.1) dove x è un vettore N-dimensionale (con N numero delle variabili che descrivono lo stato del sistema). Assegnate le condizioni iniziali x(0) si possono, in linea di principio, risolvere le equazioni per ottenere lo stato futuro del sistema x(t) al tempo t > 0. Lo spazio N -dimensionale nel quale viene descritto lo stato è detto spazio delle fasi ed il cammino seguito dal sistema che evolve nel tempo è detto traiettoria. Se la variabile temporale è discreta, un sistema dinamico è una mappa xn+1 = M(xn ) (1) (2) (4.2) (N ) dove xn = (xn , xn , ..., xn ). Assegnato lo stato x0 si può ottenere lo stato x1 al tempo n = 1 da x1 = M(x0 ); una volta determinato x1 si trova lo stato al tempo n = 2 da x2 = M(x1 ) e cosı̀ via. Quindi, assegnata una condizione iniziale x0 si genera un’orbita (o traiettoria) del sistema a tempi discreti: x0 , x1 , x2 ,... . Nei sistemi hamiltoniani i volumi nello spazio delle fasi si conservano durante l’evoluzione temporale. Cioè, se si sceglie al tempo t = 0 una superficie chiusa (N − 1)-dimensionale S0 nello spazio N -dimensionale e si lascia quindi evolvere fino al tempo t ciascun suo punto, si otterrà una superficie chiusa St , il volume N -dimensionale V (0) della regione racchiusa da S0 sarà uguale al volume V (t) della regione racchiusa da St . Questi tipi di sistemi che conservano i volumi si dicono conservativi. Se invece il flusso non conserva i volumi il sistema si dice non conservativo. Se il volume si contrae si parla di sistema dissipativo. I sistemi dissipativi sono caratterizzati dalla presenza di attrattori nello spazio delle fasi. Un attrattore è un insieme verso il quale evolve un sistema dinamico dopo un tempo sufficientemente lungo. Affinché un tale insieme possa essere definito attrattore le traiettorie che arrivano ad essere sufficientemente vicine ad esso devono rimanere vicine anche se leggermente perturbate. E’ importante notare che sistemi dinamici conservativi per i quali sia accessibile soltanto una regione limitata Ω dello spazio delle fasi non possono avere attrattori in quanto 11 per il teorema della ricorrenza di Poincaré [4], presa una qualunque sfera B0 in Ω, qualunque sia τ > 0 esiste t0 > τ tale che B(t0 ) ∩ B0 (dove B(t) è l’immagine di B0 dopo il tempo t). Anche i sistemi a tempi discreti, se dissipativi, tipicamente presentano attrattori. La dinamica su un attrattore si definisce caotica se presenta una sensibile dipendenza dalle condizioni iniziali: prese due orbite di condizioni iniziali x1 (0) e x2 (0) = x1 (0) + ∆(0), legate (cioè non divergono per t → ∞), nel limite |∆(0)| → 0 la loro distanza durante l’evoluzione cresce esponenzialmente nel tempo: |∆(t)| ∼ eλt |∆(0)| λ>0 (4.3) per orientazioni generiche di ∆(0), λ è un parametro del sistema che permette di caratterizzarne la dinamica (vedi par.4.2). Si richiede che le orbite restino confinate in una regione limitata dello spazio delle fasi in quanto se le orbite vanno all’infinito è relativamente ovvio che la distanza relativa possa divergere esponenzialmente. La sensibilità esponenziale alle condizioni iniziali per soluzioni caotiche significa che, col passare del tempo, piccoli errori nelle soluzioni crescono molto rapidamente. Per cui dopo un certo tempo la configurazione di un certo sistema può essere sensibilmente diversa dalla configurazione dello stesso sistema partito da condizioni iniziali leggermente diverse (il cosiddetto butterfly effect). Un attrattore si dice strano se presenta una dimensione di Hausdorff 2 non in- tera. Solitamente la dinamica che si svolge su attrattori strani è caotica, ma un attrattore caotico può anche non essere strano ed un attrattore strano può non presentare dinamiche caotiche. 2 Siano (X, d) uno spazio metrico, E ⊆ X, 0 ≤ s < ∞ e δ < 0, allora si definisce [5]: ) (∞ X diam(Ui ) s Hδs (E) = inf ωs : E ⊆ ∪∞ U , diam(U ) ≤ δ i i i=1 2 i=1 dove s ωs = π2 + 1) Γ ( 2s Si definisce misura di Hausdorff E H s (E) = lim Hδs (E) δ→0 e la dimensione di Hausdorff di E dimH (E) = inf {0 ≤ s < ∞ : H s (E) = 0} 12 4.2 Esponenti di Lyapunov A causa della divergenza esponenziale di orbite vicine non è possibile seguire la traiettoria su un attrattore caotico. Per caratterizzare questa divergenza si introducono i cosiddetti esponenti di Lyapunov [1] 1 yn λ(x0 , y0 ) = lim ln n→∞ n y0 (4.4) dove y0 è lo spostamento dalla posizione iniziale x0 . Se la dimensione della mappa è N si avranno per una data condizione iniziale x0 un numero di esponenti di Lyapunov distinti minore o uguale a N . Ciascuno di questi esponenti dipende dall’orientazione di y0 . Se si assegnano le condizioni iniziali in una sfera di raggio δ centrata in x0 e si lascia evolvere ciascuna condizione iniziale, si ottiene che dopo n passi essa evolve in un elissoide di semi-assi δi ' δenλi (x0 ,y0 ) . (4.5) Nel limite n → ∞ gli esponenti di Lyapunov danno il tasso temporale di crescita o decrescita degli assi principali dell’elissoide. Si può dimostrare che per tempi sufficientemente lunghi la dinamica del sistema è caratterizzata dall’esponente di Lyapunov maggiore: se è negativo l’orbita converge ad un punto fisso o ad un’orbita periodica stabile. Sistemi caratterizzati da un esponente di Lyapunov negativo sono sistemi dissipativi. Se è uguale a zero potrebbe voler dire che il sistema presenta una sensibilità a potenza dalle condizioni iniziali o che evolve seguendo orbite periodiche o quasi periodiche (traiettorie dense su un toro). Se è positivo l’orbita è instabile e caotica. Infine va notato che sistemi dinamici a tempo continuo sono sempre caratterizzati dalla presenza di almeno un esponente di Lyapunov uguale a zero (in presenza di oscillazioni di un qualunque tipo). Infatti la perturbazione di una condizione iniziale lungo la traiettoria della medesima, conduce a due traiettorie uguali eccetto per una differenza finita di passaggio dalle varie configurazioni. Lo stesso non puo’ accadere in sistemi a tempo discreto. Infatti, nel passaggio da tempo continuo a tempo discreto, come nel caso di questa tesi, si “perde” l’esponente nullo. 13 Tecnica per il calcolo numerico dell’esponente di Lyapunov Si sceglie un vettore y0 in maniera arbitraria in modo che abbia una componente nell’eventuale direzione di massima crescita esponenziale. Se il sistema presenta una dinamica caotica però yn dopo un tempo sufficientemente lungo diventa cosı̀ grande da non poter essere calcolabile numericamente. Si può ovviare a questo problema rinormalizzando periodicamente yn a 1. Sia ζj il modulo di ynj , l’esponente di Lyapunov massimo può essere stimato come l 1X ln ζj . l→∞ tl j=1 λ1 = lim (4.6) Scegliendo un l abbastanza grande, affinché il risultato numerico rilassi ad un valore costante, si può approssimare l’espressione per λ1 come l 1X ln ζj . λ1 ' tl j=1 4.3 (4.7) Caos stabile Come detto nel paragrafo precedente il caos è associato ad una sensibilità esponenziale all’evoluzione di piccole perturbazioni delle condizioni iniziali, per cui la presenza di almeno un esponente di Lyapunov positivo è considerata condizione necessaria e sufficiente affinché si abbia una dinamica irregolare in sistemi dinamici deterministici. Si sono però osservati alcuni modelli di mappe di oscillatori ad accoppiamento a primi vicini che nonostante abbiano un comportamento stocastico presentano un esponente di Lyapunov negativo [6]. Questo tipo di fenomeno è detto caos stabile per enfatizzare la coesistenza di stabilità locale e comportamento caotico. Nonostante possa sembrare che ci sia una contraddizione in realtà non c’è inconsistenza logica in quanto il comportamento irregolare è un fenomeno transiente ristretto ad una scala di tempo finita. La durata di questo transiente diverge però esponenzialmente con le dimensioni del sistema ed è perciò infinita nel limite termodinamico. Il caos stabile può essere studiato in analogia con il comportamento di alcuni automi cellulari 3 elementari. Infatti, in un reticolo finito, ogni regola di aggiornamento dello stato dell’automa cellulare deve produrre un’orbita periodica in quanto il numero di stati distinti è finito (B N con B numero di stati della 3 Un automa cellulare è un modello a variabili discrete. Consiste in una griglia regolare di celle ciascuna delle quali può assumere un numero finito di valori, questo valore identifica lo stato della cella. Lo stato dell’intero sistema viene periodicamente aggiornato applicando ad ogni cella una regola di evoluzione (uguale per tutte le celle) che determina il nuovo stato di questa considerando lo stato attuale della cella stessa e delle celle vicine 14 variabile locale, N numero di siti del reticolo). Una regola di aggiornamento caotica differisce da una ordinata per il tempo necessario a ritornare in una configurazione precedente. Il caos stabile è una sorta di estensione della dinamica degli automi cellulari a sistemi a variabili continue. La velocità di propagazione di perturbazioni localizzate, un indicatore solitamente usato per quantificare il grado di caoticità degli automi cellulari, sarà utile per caratterizzare sistemi che presentano caos stabile. Si consideri una configurazione iniziale x0 (0) ed una configurazione x1 (0) uguale alla prima eccetto una perturbazione localizzata nell’intervallo [−r, r] e siano il (t) ed ir (t) i siti di x1 , rispettivamente quello più a sinistra e quello più a destra nella catena, che al tempo t presentano uno stato locale diverso dalla catena imperturbata. Si può perciò definire la velocità di propagazione della perturbazione come ir (t) − il (t) . (4.8) n→∞ 2t Negli automi cellulari una velocità di propagazione finita è considerata un’evivp = lim denza di comportamento caotico. E’ stato dimostrato [7] che reti di neuroni LIF globalmente accoppiate in presenza di disordine (ad esempio una piccola frazione di legami inattivi) convergono verso stati stazionari (caratterizzati da sequenze di spari temporalmente equispaziati) mediamente dopo un tempo T (transiente) che cresce esponenzialmente con la dimensione del sistema per opportuni valori della costante di accoppiamento g. Questi sistemi inoltre hanno un esponente di Lyapunov negativo. Nel presente lavoro di tesi si è studiata una rete di neuroni LIF ad accoppiamento a primi e secondi vicini supponendo che anche questo sistema presenti caos stabile e caratterizzandone perciò la dinamica tramite la velocità di propagazione delle perturbazioni. 15 5 Dinamiche in catene di neuroni LIF ad accoppiamento a corto raggio 5.1 Studio qualitativo dei pattern I seguenti pattern rappresentano l’evoluzione temporale di catene di neuroni LIF ad accoppiamento a primi e secondi vicini con condizioni al contorno cicliche. Ad ogni pixel dell’asse orizzontale è associato un neurone, l’asse verticale (diretto verso il basso) rappresenta il tempo, il colore (in scala di grigi) dipende dal valore del potenziale di membrana all’istante di campionamento (nero corrisponde a 0 potenziale di riposo, bianco a 1 valore di soglia). Si è riscontrato che, come atteso, i pattern presentano caratteristiche diverse a seconda del valore della costante di accoppiamento tra i neuroni ed invece non dipendono dalla dimensione della catena per catene abbastanza lunghe (vedi fig.5). Figura 5: Pattern ottenuti campionando ogni 0.75 unità di tempo una catena di 100 neuroni (a) ed una catena di 500 neuroni (b) con la stessa costante di accoppiamento g=0.5. Si è notato che: per piccoli valori della costante di accoppiamento (g = 0.2 ÷ 0.3) i pattern presentano regioni verticali separate tra loro in cui si possono distinguere dei fronti di sparo (più chiari) a punta. L’inibizione che agisce su un neurone quando riceve un impulso da uno dei vicini è molto debole ed il potenziale di membrana torna quindi a crescere quasi allo stesso modo. Per valori medi della costante di accoppiamento (g = 0.5 ÷ 0.6) non si hanno più fasce verticali distinte ma regioni più scure o più chiare 16 Figura 6: Sopra: pattern ottenuti campionando la catena ogni 0.5 unità di tempo. Sotto andamento del potenziale di membrana di un neurone. (a) g=0.2; (b) g=0.5; (c) g=0.9. uniformemente distribuite. Per valori molto grandi della costante di accoppiamento invece (g > 0.8) si osservano numerose regioni verticali in cui si distinguono dei fronti di sparo piani. In questo caso (come vedremo nel prossimo paragrafo) i neuroni che partono da un valore del potenziale di membrana basso tendono a non sparare mai, i neuroni che raggiungono la soglia sono sempre gli stessi. Si veda la fig.6. 5.2 Propagazione delle perturbazioni Per poter osservare l’effetto di una perturbazione localizzata sulla catena si è fatto evolvere il sistema fino ad un certo tempo Tp , quindi si è variato di una quantità casuale il potenziale di membrana di n neuroni contigui. I pattern riportati in questa sezione rappresentano il valore assoluto della differenza tra i potenziali di membrana di ciascun neurone della catena imperturbata e di quella 17 Figura 7: A sinistra: catena di 100 neuroni. Tempo di campionamento T = 20000, intervallo di campionamento τ = 0.25. Costante di accoppiamento g = 0.2. Sopra: larghezza della perturbazione in funzione del tempo. Sotto: pattern della propagazione (l’asse orizzontale è il tempo).A destra: catena di 500 neuroni. Tempo di campionamento T = 20000, intervallo di campionamento τ = 0.1. Costante di accoppiamento g = 0.2. Sopra: larghezza della perturbazione in funzione del tempo. Sotto: pattern della propagazione (il tempo è l’asse verticale; ogni colonna rappresenta un intervallo di 500 unità di tempo). Figura 8: g=0.5. Larghezza della perturbazione in funzione del tempo. Pattern della propagazione (il tempo è l’asse orizzontale), intervallo di campionamento τ = 0.1. Figura 9: g=0.9. Pattern della propagazione (il tempo è l’asse orizzontale), intervallo di campionamento τ = 0.1. 18 perturbata. Per determinare quindi la velocità di propagazione si è riportato in grafico la larghezza della perturbazione contro il tempo. Si è visto che si hanno comportamenti diversi a seconda della costante di accoppiamento tra i neuroni ed in questo caso anche a seconda delle dimensioni della catena: g = 0.2 ÷ 0.3 per catene con meno di 150 neuroni la perturbazione propa- ga a tutta la catena. Mentre per catene di dimensioni maggiori la perturbazione, dopo un certo periodo transitorio, non propaga più e rimane confinata (fig.7). g = 0.5 ÷ 0.7 la perturbazione in questo caso propaga a tutta la catena, la velocità è costante e si ha perciò una crescita lineare nel tempo della larghezza della perturbazione (fig.8). Variando le condizioni iniziali si è trovato che la velocità si distribuisce in maniera gaussiana attorno ad un valore medio. g > 0.8 la perturbazione resta molto confinata. La velocità di propagazione si può considerare nulla. I neuroni interessati dalla perturbazione sono i neuroni inizialmente perturbati ed alcuni neuroni ad essi vicini (fig. 9). Si può vedere come la velocità di propagazione delle perturbazioni cresca per valori di g compresi tra 0.4 e 0.5 per poi scendere fino a zero per valori maggiori di 0.8 (fig.10). Figura 10: Velocità di propagazione contro costante di accoppiamento. Periodo di campionamento T=400, intervallo di campionamento τ = 0.1. Le barre di errore rappresentano lo scarto quadratico medio. 19 Quindi, si è visto che per un valore molto grande della costante di accoppiamento la perturbazione rimane confinata a pochi neuroni. Questo si spiega andando ad analizzare i neuroni che non sparano per tutta la durata del campionamento. Infatti nel caso ci siano coppie di neuroni che non sparano, non si ha passaggio di informazione da una parte all’altra di queste coppie: la dinamica dei neuroni da una parte non influenzerà mai la dinamica dei neuroni dell’altra (considerando condizioni cicliche, affinchè si verifichi ciò, si devono avere almeno due coppie di neuroni che non sparano). Il numero di doppietti di neuroni che non sparano dipende dal valore della costante di accoppiamento (fig.11). Si noti che per g > 0.81 il numero totale di neuroni che non sparano è esattamente il doppio del numero di doppietti. Vengono ad originarsi quindi delle zone verticali separate da coppie di neuroni che non arrivano mai a soglia (perché partiti da un valore del potenziale di membrana inferiore rispetto ai neuroni circostanti) che si comportano indipendentemente le une dalle altre (non c’è passaggio di informazione). Figura 11: La linea nera indica il numero totale di neuroni che non hanno sparato durante il campionamento, la linea rossa rappresenta il doppio del numero di coppie di neuroni che non hanno sparato durante il campionamento (normalizzati al numero totale dei neuroni). Le barre di errore rappresentano lo scarto quadratico medio. 5.3 Orbite periodiche Avere queste zone verticali, di larghezza limitata, che non possono comunicare tra loro fa sı̀ che il sistema si disaccoppi in più catene indipendenti di dimensioni ridotte (qualche neurone). Ciascuna di queste catene riesce a raggiungere in breve tempo una condizione stazionaria periodica. La velocità di propagazione delle perturbazioni infatti è nulla come nel caso di automi cellulari con regole di aggiornamento ordinate. Anche nel caso di piccole costanti di accoppiamento (g = 0.2 ÷ 0.3) per catene 20 di dimensioni elevate dopo un periodo transitorio la perturbazione non propaga. In questo caso non ci sono coppie di neuroni che non sparano che disaccoppiano la catena, ma si originano comunque delle zone verticali tra le quali il passaggio di informazione è ridotto. Il moto è periodico o quasi periodico. Se la catena è di dimensioni ridotte la perturbazione propaga a tutta la catena, nonostante ciò il moto risulta essere periodico o quasi periodico, presenta cioè caos stabile (si veda par.5.4). Per valori intermedi della costante di accoppiamento, per i quali si è riscontrata una velocità di propagazione finita e costante (fino alla perturbazione dei neuroni più esterni), non si nota il raggiungimento di un’orbita periodica in tempi cosı̀ ridotti. La dinamica si dimostra pseudocaotica, lo spettro di Fourier del potenziale di membrana di un neurone (calcolato mediante un algoritmo di Fast Fourier Transform) infatti non mette in evidenza un’armonica principale ma ciò non esclude che il moto sia quasi periodico e che quindi i picchi trovati siano combinazione lineare di due o più frequenze del moto. Vedi fig.12. 5.4 L’esponente di Lyapunov Se si considera una rete di neuroni LIF ad accoppiamento a primi e secondi vicini di 5 neuroni (questa è la dimensione minima del sistema preso in esame) la rete è globalmente accoppiata. In questo caso l’esponente di Lyapunov massimo è negativo g = 0.2 λ = −0.0105 ± 0.0015 g = 0.5 λ = −0.87632 ± 0.00018 g = 0.9 λ = −0.98210 ± 0.00004 (calcoli effettuati per 200000 campionamenti, τ = 0.1, l’errore rappresenta lo scarto quadratico medio). Questo è consistente con quanto osservato: si è visto infatti che il sistema ha una dinamica periodica. Studiando una catena di 6 neuroni per piccoli valori di g si è trovato anche in questo caso un esponente di Lyapunov negativo g = 0.2 λ = −0.0099 ± 0.0017 Per g > 0.4 l’esponente di Lyapunov calcolato risulta sistematicamente nullo. Questo perché i neuroni che sparano sono quasi sempre gli stessi due (posti agli antipodi della catena) e ci si trova quindi ad avere due oscillatori disaccoppiati. E’ stata dimostrata una condizione sufficiente ma non necessaria affinché la catena di sei neuroni si disaccoppi: sia l il neurone t.c. vl (0) > vi (0) ∀ i 6= l, 21 Figura 12: Trasformata di Fourier del potenziale di membrana di un neurone di una catena di 500 neuroni. Tempo di campionamento T = 8000, intervallo di campionamento τ = 0.1. (a) g = 0.2 (b) g = 0.5 (c) g = 0.9. 22 sia k il neurone opposto ad l, se vj (0) < g ∀ j 6= l , j 6= k allora arrivano a soglia solo i neuroni l e k alternativamente (vedi Appendice). Gli esponenti di Lyapunov nulli sono almeno due e nel passaggio al tempo discreto se ne “perde” soltanto uno. Si è visto che per catene con un numero di neuroni N < 150 per costanti di accoppiamento g < 0.8 si ha un esponente di Lyapunov negativo nonostante le perturbazioni propaghino in tutta la catena. Il sistema studiato presenta cioè caos stabile. g = 0.2 λ = −0.0098 ± 0.0009 50 neuroni g = 0.2 λ = −0.0104 ± 0.0017 100 neuroni g = 0.5 λ = −0.0037 ± 0.0007 50 neuroni g = 0.5 λ = −0.0035 ± 0.0008 100 neuroni Figura 13: Convergenza dell’esponente di Lyapunov calcolato numericamente. Catena di 50 neuroni. Tempo di campionamento T = 20000. Intervallo di campionamento τ = 0.1. A sinistra: costante di accoppiamento g = 0.2. A destra: costante di accoppiamento g = 0.5. Per catene con un numero di neuroni maggiore, l’esponente di Lyapunov calcolato è nullo, si suppone che il moto sia periodico o quasi periodico (presenti cioè due o più frequenze del moto fra loro incommensurabili). Per costanti di accoppiamento g ' 0.5 la perturbazione propaga in tutta la catena, dimostrando cosı̀ una dinamica pseudocaotica nonostante l’esponente di Lyapunov non sia positivo. Per valori grandi della costante di accoppiamento, l’esponente di Lyapunov è sistematicamente nullo. Questo risultato è la semplice conseguenza del disaccoppiamento ad opera di doppietti di neuroni che non arrivano a soglia. Si ha perciò un esponente di Lyapunon nullo per ciascuna catena indipendente. 23 6 Conclusioni La dinamica di catene di neuroni LIF ad accoppiamento a primi e secondi vicini dipende fortemente dalla costante di accoppiamento tra i neuroni. Per costanti di accoppiamento g < 0.8: l’esponente di Lyapunov e la propagazione delle perturbazioni dipendono anche dalla dimensione della catena presa in esame. Per basse dimensionalità l’esponente di Lyapunov risulta negativo, indice di una dinamica periodica, ma le perturbazioni propagano a tutta la catena: il sistema presenta caos stabile. A dimensionalità maggiori l’esponente di Lyapunov calcolato è nullo, indice di una dinamica periodica o quasi periodica; le perturbazioni rimangono confinate. La spiegazione di questo fenomeno potrebbe essere argomento di interessanti studi futuri. Per valori grandi della costante di accoppiamento si presentano regioni verticali separate le une dalle altre da doppietti di neuroni che non sparano che non permettono passaggio di informazione da una zona all’altra. Questo fa sı̀ che la catena sia disaccoppiata in più catene indipendenti. L’esponente di Lyapunov stimato col metodo numerico introdotto risulta perciò sistematicamente nullo. 24 Appendice Si consideri una catena di sei neuroni. Al tempo t = 0 si avrà la configurazione 6 {vi (0)}i=1 Sia l il primo neurone a raggiungere la soglia al tempo t0 . Sia k il neurone opposto ad l. Al tempo t = t0 si avrà vl (t+ 0)=0 − vk (t+ 0 ) = vk (t0 ) − −t0 vj (t+ +a−g 0 ) = vj (t0 ) − g = (vj (0) − a)e Il secondo sparo avviene al tempo t = t0 + t1 vl (t− ) = 1 − e−t1 a vj (t− ) = vj (0) − a − get0 e−(t0 +t1 ) + a vk (t− ) = {vk (0) − a} e−(t0 +t1 ) + a Si vuole determinare ora se il secondo a sparare è il neurone opposto alla catena o uno dei neuroni ad esso collegati, si valuta quindi il segno della differenza vj (t− ) − vk (t− ) = e−(t0 +t1 ) vj (0) − ge−t0 − vk (0) Affinché sia il neurone k il secondo neurone della catena a sparare si deve avere vk (t− ) > vj (t− ), cioé vj (0) − get0 − vk (0) < 0 g > (vj (0) − vk (0))e−t0 condizione sufficiente ma non necessaria affinché questa sia verificata è g > vj (0) − vk (0) ⇒ vk (0) > vj (0) − g Questa sarà sempre soddisfatta (condizione sufficiente ma non necessaria) se vj (0) < g e siccome le condizioni iniziali sono assegnate da un algoritmo che ha una distribuzione di probabilità uniforme nell’intervallo [0; 1] si avrà che la probabilità che la condizione nel riquadro sia soddisfatta è P (vj (0) < g) = g ⇒ P (vi−1 (0), vi−2 (0), vi+1 (0), vi+2 (0) < g) = g 4 25 Si suppone d’ora in poi che la condizione g > vj (0) sia verificata. Al tempo t = t0 + t1 + t2 si ha il terzo sparo vl (t− ) = −ae−(t1 +t2 ) + a n o vj (t− ) = (vj (0) − a − get0 )e−(t1 +t0 ) − g e−t2 + a Si valuta il segno della differenza vl (t− ) − vj (t− ) = e−(t1 +t2 ) (g − a) − e−t (vj (0) − a) Il neurone l sarà il terzo neurone a sparare se questa differenza è maggiore di zero: g − a > e−t0 (vj (0) − a) Ma per l’ipotesi g − a > vj (0) − a > e−t0 (vj (0) − a) quindi la condizione è soddisfatta: il terzo neurone a sparare sarà sicuramente il neurone l. Si supponga ora di essere al tempo t = Pn i=1 ti . Si supponga anche che il penultimo neurone a sparare sia stato il neurone k e l’ultimo il neurone l; sia t∗ = t − tn−1 − tn−2 , allora si avrà vk (t− ) = {vk (t∗ ) − a} e−(tn−2 +tn−1 ) + a vj (t− ) = vj (t∗ ) − a − getn−2 e−(tn−2 +tn−1 ) + a Come fatto in precedenza si studia il segno della differenza vj (t− ) − vk (t− ) = e−(tn−2 +tn−1 ) vj (t∗ ) − vk (t∗ ) − getn−2 Quindi, l’n-esimo neurone a sparare sarà nuovamente il neurone k se g > {vj (t∗ ) − vk (t∗ )} e−tn−2 Questa disuguaglianza è sicuramente verificata se g > vj (t∗ ) − vk (t∗ ) ma vj (t∗ ) − vk (t∗ ) = vj (t∗ − tn−3 − tn−4 ) − vk (t∗ − tn−3 − tn−4 ) − getn−4 Sia t∗∗ = t∗ − tn−3 − tn−4 , allora, la diseguaglianza è sicuramente verificata se g> vj (t∗∗ ) − vk (t∗∗ ) 1 + etn−4 26 che è soddisfatta se vale g > vj (t∗∗ ) − vk (t∗∗ ); Iterando il processo si ottiene che la diseguaglianza è soddisfatta se è verificata g > vj (0) − vk (0) che è vera per ipotesi. Si può concludere che con una probabilità di P = g 4 viene soddisfatta una condizione sufficiente ma non necessaria sulla configurazione iniziale affinché la catena di sei neuroni si disaccoppi in due oscillatori indipendenti. Questo è consistente con quanto osservato: per valori grandi della costante di accoppiamento è più probabile che la catena si disaccoppi in due oscillatori indipendenti. Dai risultati ottenuti è però chiaro che la condizione trovata è troppo restrittiva, infatti per una costante di accoppiamento g = 0.5 non si è osservato neanche un caso in cui la catena non era disaccoppiata (l’esponente di Lyapunov calcolato è risultato sempre nullo), mentre la probabilità che la condizione trovata sia soddisfatta è circa del 6%. 27 Riferimenti bibliografici [1] S. Olmi, Dinamica di reti neurali diluite ad accoppiamento impulsivo, tesi di laurea magistrale presso l’Università degli studi di Firenze, A.A. 2008/2009 [2] B. Alberts, D. Bray, K. Hopkin, A. Johnson, J. Lewis, M. Raff, K. Roberts, P. Walter, L’essenziale di biologia molecolare della cellula, Zanichelli, seconda edizione: luglio 2005 [3] E. Ott, Chaos in dynamical systems, Cambridge University Press, 1993 [4] A. Fasano e S. Marmi, Meccanica analitica, Bollati Boringhieri, seconda edizione riveduta ed ampliata: marzo 2002 [5] L. Ulivi, Frattali autosimili, tesi di laurea triennale presso l’Università degli studi di Firenze, A.A. 2005/2006 [6] A. Politi A.Torcini A., in Nonlinear dynamics and Chaos, eds. Thiel M. et al. (Heidelberg, Springer-Verlag, 2010). [7] R. Zillmer, R. Livi, A. Politi, and A. Torcini. Phys. Rev. E, 74, 036203, 2006 28 Ringraziamenti Un sentito ringraziamento al mio relatore Antonio Politi per la pazienza, le spiegazioni e la disponibilità. Ringrazio per l’ospitalità l’Istituto dei Sistemi Complessi (ISC) del Consiglio Nazionale delle Ricerche (CNR) dove è stato svolto questo lavoro di tesi. La mia gratitudine va anche al dott. Giampiero Puccioni e alla dott.ssa Simona Olmi per il prezioso aiuto offertomi in fase di programmazione. Sono molto riconoscente al prof. Lapo Casetti per il suo aiuto, i consigli ed il tempo dedicatomi. Voglio ringraziare i miei genitori per tutto il loro sostegno e gli incoraggiamenti, i miei fratelli per essermi sempre stati da esempio, mia cugina Francesca per essere sempre buona con me, la mia famiglia tutta per essere presente in ogni momento. Un pensiero particolare a mio zio Luigi che oggi non può essere qui ma che c’è sempre stato e sempre ci sarà. Voglio ringraziare i miei coinquilini Beppe, Billi, Tommi, Lapo e Iacopo per avermi supportato, sopportato, appoggiato e tutte le belle cose che fanno i coinquilini quali cucinare, pulire e i pranzi e le cene e le bottiglie di vino... Ringrazio i chimici Guglielmo, Chiara, Francesca e Darth Ale perché continuano a farmi credere utile. Ringrazio le fisiche Cate, Lalla, Giulia e Ughetta perché senza di loro mi sembrerebbe sicuramente tutto più triste. Ringrazio i fisici Giulio e Lorenzo per le discussioni e le formative teorie sulla vita. Ringrazio i Collettivi del Polo per il loro costante lavoro e le loro attività all’interno dell’università. Ringrazio la pan.go.ro© e tutti i ragazzi della sala studenti per i caffè e le colazioni e tutto il resto. Ringrazio Milo che mi ha consigliato l’argomento di tesi e che in questo momento sta leggendo questo lavoro a fianco a me. Ringrazio i ragazzi del tAtro per le emozioni, le toccate di sedere e le serate passate assieme. Ringrazio Ale, Cuz, Eli, Giulia, Ica, Lara, Marco, Miri, Tina perché ogni ricordo in cui ci sono loro mi rende migliore. 29