Universit`a degli Studi di Firenze Facolt`a di Scienze

annuncio pubblicitario
Università degli Studi di Firenze
Facoltà di Scienze Matematiche Fisiche e Naturali
Tesi di Laurea triennale in Fisica
Dinamiche irregolari in catene di oscillatori
Candidato: Pietro Liuzzo Scorpo
Relatore: Antonio Politi
Anno Accademico 2009/2010
Indice
1 I neuroni
1
1.1
Potenziale di membrana e trasmissione dei segnali . . . . . . . .
1
1.2
Membrana cellulare e correnti ioniche . . . . . . . . . . . . . . .
3
2 Modelli di neuroni
5
2.1
Il modello di Hodgkin e Huxley . . . . . . . . . . . . . . . . . . .
5
2.2
Il modello leaky integrate-and-fire (LIF) . . . . . . . . . . . . . .
6
3 Catene di neuroni LIF
8
3.1
Reti di neuroni LIF . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2
Catena di neuroni LIF con sinapsi inibitoria ad accoppiamento a
corto raggio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
3.3
Evoluzione della catena a tempi discreti . . . . . . . . . . . . . .
9
4 Caoticità di sistemi dinamici
8
11
4.1
Sistemi dinamici caotici, attrattori . . . . . . . . . . . . . . . . .
11
4.2
Esponenti di Lyapunov . . . . . . . . . . . . . . . . . . . . . . . .
13
4.3
Caos stabile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
5 Dinamiche in catene di neuroni LIF ad accoppiamento a corto
raggio
16
5.1
Studio qualitativo dei pattern . . . . . . . . . . . . . . . . . . . .
16
5.2
Propagazione delle perturbazioni . . . . . . . . . . . . . . . . . .
17
5.3
Orbite periodiche . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
5.4
L’esponente di Lyapunov
21
. . . . . . . . . . . . . . . . . . . . . .
6 Conclusioni
24
Appendice
25
1
I neuroni
I neuroni sono le cellule che permettono lo scambio di informazioni tra le varie
parti dell’organismo. Sono specializzati nel ricevere, integrare e trasmettere
impulsi nervosi. Questi impulsi, che viaggiano attraverso gli assoni e consentono
la codifica e la trasmissione di informazione, sono segnali elettrici generati da
differenze di potenziale associate a correnti di natura ionica che attraversano la
membrana cellulare del neurone.
Il neurone si può schematizzare come costituito da tre parti morfologicamente
e funzionalmente distinte[1]:
ˆ i dendriti : adibiti alla ricezione degli impulsi in ingresso da parte degli
altri neuroni, hanno una struttura molto ramificata che si estende per
distanze che possono raggiungere il millimetro;
ˆ il soma: struttura compatta, che costituisce il corpo cellulare, deputata
alla elaborazione dell’informazione;
ˆ l’assone: adibito alla trasmissione del segnale in uscita verso le altre cel-
lule; si presenta come una lunga protuberanza che esce dal soma ed arriva
prevalentemente ai dendriti delle altre cellule (in alcuni casi può arrivare
al soma o all’assone).
Figura 1: Struttura del neurone
1.1
Potenziale di membrana e trasmissione dei segnali
Si definisce potenziale di membrana la differenza di potenziale misurata ai capi
di due elettrodi, uno posto all’interno della membrana cellulare, uno posto all’esterno (nel liquido extracellulare). Si parla di segnale neuronale quando si ha
una variazione temporale e spaziale del potenziale di membrana. In assenza di
eccitazioni esterne il neurone si dice a riposo e presenta un valore caratteristico
del potenziale di membrana dell’ordine di -65mV; essendo questo valore negativo si ha che l’interno della cellula si presenta ad un potenziale minore rispetto
al liquido extracellulare circostante.
Si definisce potenziale di azione l’impulso generato quando il potenziale di membrana supera un certo valore limite θ detto soglia. Il potenziale di azione non è
soggetto ad attenuazione o distorsione durante la propagazione lungo l’assone e
presenta le seguenti caratteristiche (vedi figura 2):
ˆ l’impulso di tensione ha una durata di circa 1-2 ms ed un’ampiezza tra il
picco massimo e quello minimo dell’ordine di 120 mV;
ˆ si ha inizialmente una crescita molto veloce del potenziale di membrana
seguita da una decrescita esponenziale fino al valore minimo che si trova
ad un potenziale minore rispetto al potenziale a riposo;
ˆ il potenziale torna quindi a salire lentamente fino a raggiungere il poten-
ziale a riposo, questa fase dura circa 10 ms.
Figura 2: Potenziale d’azione.
Si dice che la membrana si depolarizza quando il potenziale di membrana assume
valori maggiori del potenziale a riposo, si dice invece che si iperpolarizza quando
il potenziale di membrana è inferiore al potenziale di riposo.
Il neurone per tutta la durata del potenziale d’azione diventa refrattario agli
stimoli in ingresso, per cui, in questo lasso di tempo, della durata di circa 2
ms (refrattarietà assoluta), il neurone non può emettere ulteriori potenziali di
azione. Nella fase di iperpolarizzazione invece c’è bisogno di uno stimolo esterno
maggiore affinché il potenziale di membrana superi il valore di soglia per cui
l’emissione di un potenziale d’azione è meno probabile (refrattarietà relativa).
2
Le sinapsi costituiscono la giunzione tra due neuroni attraverso la quale avviene
il trasferimento di informazioni da un neurone all’altro. La sinapsi è quella
regione in cui l’assone del neurone presinaptico interagisce con il dendrite del
neurone postsinaptico. Si definisce il potenziale postsinaptico come la risposta
in tensione del neurone postsinaptico conseguente all’arrivo del potenziale di
azione proveniente dal neurone presinaptico.
1.2
Membrana cellulare e correnti ioniche
La membrana cellulare è composta da un doppio strato fosfolipidico1 e agisce da
barriera di permeabilità [2]. Le attività della membrana sono però espletate dalle
proteine di membrana. Alcune di queste possono ancorare macromolecole, altre
funzionano da recettori per rivelare segnali chimici provenienti dall’ambiente e
ritrasmetterli all’interno della cellula, altre ancora catalizzano reazioni specifiche
ed alcune sono responsabili del passaggio di sostanze nutritive, metaboliti e ioni
attraverso la barriera lipidica. La presenza di queste ultime, dette proteine di
trasporto, è necessaria in quanto mentre molecole apolari di modeste dimensioni
possono permeare la membrana per diffusione semplice, molecole più complesse
(quali zuccheri ed aminoacidi) attraverserebbero il doppio strato troppo lentamente. Inoltre per gli ioni (il cui passaggio è nel nostro specifico interesse) e
per le molecole cariche la membrana è addirittura impermeabile. Le proteine
riservate al trasporto di ioni inorganici sono dette canali ionici. In questi si
possono riconoscere [1]:
ˆ un poro centrale pieno d’acqua;
ˆ un filtro di selettività che permette il passaggio di alcune specie chimiche
piuttosto che altre in base a dimensioni e caratteristiche chimico-fisiche;
ˆ un sistema di porte che si aprono e si chiudono facendo oscillare casual-
mente il canale tra lo stato aperto e lo stato chiuso.
In generale la corrente che attraversa un canale dipenderà
ˆ dalla conduttanza del canale (che misura l’abilità della membrana a con-
durre corrente elettrica);
ˆ dal gradiente di concentrazione tra l’interno e l’esterno della cellula che
causa una corrente di diffusione;
ˆ dalla differenza di potenziale applicata alla membrana.
1I
fosfolipidi sono composti da una testa idrofilica legata alle due code idrocarburiche
idrofobiche tramite un gruppo fosfato
3
La cellula contiene diversi ioni disciolti, quali K+ , Na+ , Cl− , ed è a sua volta immersa in una soluzione contente anch’essa queste specie ioniche in concentrazione diversa rispetto all’interno. Il potassio, ad esempio, trovandosi in
maggiore concentrazione all’interno della cellula tenderà a fuoriscire da questa
secondo il proprio gradiente di concentrazione, ma a sua volta verrà attratto
verso l’interno dal gradiente del potenziale elettrostatico. La membrana si dice
quindi a riposo se il gradiente di concentrazione ed il gradiente elettrico sono in
equilibrio.
Si definisce potenziale di equilibrio di una specie ionica il valore del potenziale di membrana per il quale non si ha alcun flusso netto della specie ionica
considerata. Questo potenziale è legato alle concentrazioni esterna ed interna
dall’equazione di Nernst:
Eione =
kB T [n]e
ln
q
[n]i
(1.1)
dove Eione è il potenziale di equilibrio della specie ionica, [n]e e [n]i sono rispettivamente le concentrazioni interna ed esterna, kB ' 1,38 · 10−23 J/K costante
di Boltzmann, T temperatura, q carica elettrica.
Le proprietà elettriche di membrana possono essere schematizzate con tre elementi circuitali passivi: una resistenza per unità di superficie rm che si spiega
con l’esistenza dei canali ionici che realizzano un contatto tra l’interno e l’esterno della cellula ed è determinata principalmente dalla permeabilità a riposo del
potassio e del cloro, una capacità per unità di superficie cm dovuta all’accumulo
di cariche di segno opposto che determinano il potenziale di membrana e conferiscono a questa proprietà capacitive, ed un generatore di tensione EL pari al
potenziale a riposo.
4
2
Modelli di neuroni
2.1
Il modello di Hodgkin e Huxley
Hodgkin e Huxley formularono un modello matematico, per riprodurre i dati
sperimentali relativi all’assone gigante del calamaro, in cui la dinamica neuronale
è descritta da quattro variabili. Il modello è costituito da quattro equazioni
differenziali che descrivono il comportamento del potenziale di membrana e delle
tre correnti ioniche fondamentali (sodio, potassio e cloro) [1]. Questo modello si
fonda sull’ipotesi che le conduttanze della membrana per il sodio e per il potassio
dipendano fortemente dalla differenza di potenziale applicata alla membrana:
una depolarizzazione della membrana aumenta la probabilità di apertura dei
canali ionici. Questa avviene però con modalità e su scale di tempo diverse: in
un primo momento si ha un aumento della conduttanza del sodio e solo con un
certo ritardo temporale viene attivata la conduttanza del potassio.
Per comprendere l’emissione del potenziale di azione a seguito del superamento
del valore di soglia del potenziale di membrana occorre descrivere gli effetti
dovuti all’aumento delle conduttanze di sodio e potassio sul potenziale stesso:
ˆ la depolarizzazione della membrana aumenta il numero di canali del sodio
aperti. A causa del gradiente elettrico e del gradiente di concentrazione
il sodio diffonde dalla soluzione extracellulare verso l’interno della cellula causando una depolarizzazione ancora maggiore. Si parla quindi di
retroazione positiva.
ˆ a seguito della depolarizzazione si ha che il potassio fuoriesce dalla cel-
lula secondo il gradiente elettrico e di concentrazione. Questa fuoriuscita
causa una ripolarizzazione della membrana con conseguente riduzione della
conduttanza del potassio stesso. Si parla quindi di retroazione negativa.
Quindi, si suppone ora di far passare una corrente attraverso la membrana tale
da portare il potenziale fino al valore di soglia e quindi di interrompere la corrente. Questa depolarizzazione come si è detto causa un aumento del flusso di
potassio verso l’esterno ed allo stesso tempo si ha un aumento della corrente di
sodio in ingresso. Il potenziale di soglia è tale che questi aumenti di corrente
siano uguali ed opposti, ma la conduttanza del sodio è ora instabile. Infatti l’ingresso di uno ione di sodio in più innescherebbe il processo di retroazione
positiva a causa della depolarizzazione della membrana: l’aumento della conduttanza del sodio porta all’emissione del potenziale di azione. Viceversa l’uscita
di uno ione potassio in più ripolarizza la membrana innescando la retroazione
negativa: il potenziale di membrana rilassa verso il suo valore di riposo.
5
Durante l’emissione del potenziale di azione vengono disattivati i canali del sodio
fino alla ripolarizzazione della membrana. Questo spiega il periodo refrattario
assoluto.
2.2
Il modello leaky integrate-and-fire (LIF)
Questo è un modello semplificato di neurone che include in modo schematico
i meccanismi biofisici del potenziale di azione. Si suppone che il potenziale di
azione sia generato ogni qualvolta il potenziale di membrana supera il valore di
soglia θ, a seguito di questa emissione viene riassegnato al potenziale il valore R.
A differenza del modello realistico di Hodgkin e Huxley, nei modelli LIF si ha
un’unica variabile: il potenziale di membrana. Nella modellizzazione più semplice della dinamica sottosoglia vengono ignorate tutte le conduttanze di membrana attive, compresi gli input sinaptici, e si schematizza l’intera conduttanza
di membrana con un singolo termine di perdita (leaky) passivo
im = ḡL (V − EL )
(2.1)
dove im è la corrente di membrana, ḡL è la conduttanza efficace della membrana
a riposo, V il potenziale di membrana, EL il potenziale di riposo. Sperimentalmente è stato provato che le conduttanze neuronali rimangono pressocché
costanti per piccole fluttuazioni attorno al potenziale di membrana a riposo.
Ipotesi fondamentale del modello LIF è che queste conduttanze siano costanti
per tutto l’intervallo di tempo della variazione del potenziale sottosoglia. Per
cui si ha che la variazione di carica nel tempo sulla membrana è data dalla
differenza tra la corrente iniettata dall’esterno e la corrente di perdita (il che
Figura 3: Schematizzazione circuitale del modello LIF.
6
equivale a dire che il neurone si comporta come un circuito elettrico costituito
da una resistenza ed una capacità in parallelo) per cui si ha
cm
dV
Ie
Ie
= −im +
= −ḡL (V − EL ) +
dt
A
A
(2.2)
dove A è la superficie della membrana e Ie è la corrente esterna iniettata nel
neurone. Da cui si ottiene l’equazione fondamentale per i modelli LIF,
τm
dV
= EL − V + Rm Ie .
dt
(2.3)
Per completare la dinamica del modello si deve aggiungere una regola “ad hoc”:
ogniqualvolta il potenziale raggiunge il valore di soglia (viene cioè emesso il
potenziale di azione) gli viene riassegnato il valore R. Dall’equazione fondamentale si vede che nel caso non si abbiano stimoli esterni (Ie = 0) il potenziale
di membrana rilassa esponenzialmente a EL (che rappresenta infatti il potenziale
di riposo della cellula modello) con costante di tempo τm .
7
3
3.1
Catene di neuroni LIF
Reti di neuroni LIF
Si considera ora un insieme di N neuroni. Il generico neurone i sarà collegato
ad (riceverà segnali da) un numero ni di neuroni. Nel modello che si andrà a
studiare si considereranno gli impulsi aventi una forma a delta di Dirac (cioè
a larghezza nulla) ed il tempo di ricezione e di trasmissione di questi impulsi
infinitamente rapido. Questi impulsi, che corrispondono alla corrente sinaptica, modificheranno il potenziale di membrana del neurone che li riceve di una
quantità che dipende dal coefficiente di accoppiamento tra i neuroni Sji e dal
peso sinaptico g che determina l’entità specifica dell’interazione tra i due neuroni. Il neurone trasmette un impulso, ai neuroni ai quali è collegato, quando il
potenziale di membrana vi supera il valore di soglia θ. Una volta emesso questo
impulso il potenziale di membrana torna al valore di riposo. Supponendo di
aver rinormalizzato le variabili in modo tale che il potenziale di riposo sia zero
ed il valore di soglia sia uno l’equazione che descrive la dinamica del modello
LIF per l’i-esimo neurone è:
v˙i = a − vi + g
ni
X
0
Sji
j=1
X
δ(t − t(j)
n )
(3.1)
n
0
dove a è una corrente adimensionale, Sji
è il coefficiente di accoppiamento tra
il neurone presinaptico j ed il neurone postsinaptico i (sarà negativo nel caso
(j)
di sinapsi inibitoria, positivo se la sinapsi è eccitatoria), tn è l’istante in cui
l’i-esimo neurone riceve l’n-esimo impulso dal neurone j.
3.2
Catena di neuroni LIF con sinapsi inibitoria ad accoppiamento a corto raggio
Nel presente lavoro si è andati a studiare il comportamento di una particolare
rete di neuroni LIF: una catena in cui ciascun sito i è collegato solamente ai
primi vicini i ± 1 ed ai secondi vicini i ± 2 (vedi figura 4). Le sinapsi prese in
considerazione saranno sempre inibitorie. In questo caso particolare l’equazione
(3.1) diventa:
v̇i = a − vi − g
i+2
X
j=i−2,j6=i
Sji
X
δ(t − t(j)
n )
n
(nel sistema studiato Sji = 1). E’ chiaro dall’equazione (3.2) che:
8
(3.2)
Figura 4: Catena di neuroni LIF ad accoppiamento a primi e secondi vicini.
ˆ tra uno sparo e l’altro l’equazione è lineare e può essere risolta analitica-
mente (vedi par.3.3): il potenziale di membrana tende ad asintotizzarsi al
valore a;
ˆ si deve aggiungere una regola “ad hoc” che riporti il potenziale di mem-
brana al valore di riposo una volta raggiunto il valore di soglia;
ˆ nell’istante in cui il neurone riceve uno stimolo proveniente da uno dei
neuroni ai quali è collegato si ha una divergenza nel valore della derivata
del potenziale di membrana v̇i e quindi una discontinuità finita in vi (t) che
viene ridotto di un valore proporzionale al coefficiente di accoppiamento
tra i neuroni considerati.
Si considereranno condizioni al contorno cicliche.
3.3
Evoluzione della catena a tempi discreti
Tra uno sparo e l’altro il potenziale di membrana ha il seguente andamento
vi (t) = (vin − a)e−(t−tn ) + a
(3.3)
cioè il potenziale tende a rilassare verso il valore a.
Il tempo ti in cui l’i-esimo neurone (che all’istante tn presentava un potenziale
di membrana vin ) raggiunge la soglia v = 1 è
a − vin
ti = ln
a−1
(3.4)
Quindi:
N
ˆ all’istante tn si ha una certa configurazione {vin }i=1 ;
ˆ si calcola dopo quanto tempo ciascun neurone i raggiungerebbe la soglia;
ˆ si determina il primo neurone a raggiungere la soglia (dopo un tempo
N
t̃=min{ti }i=1 ) e si denota con k la sua posizione;
9
N
ˆ si trova la nuova configurazione vi (t̃− ) i=1 (dove con t̃− si indica il tempo
immediatamente precedente all’istante in cui il k-esimo neurone raggiunge
la soglia);
N
ˆ la configurazione vi (t̃+ ) i=1 (dove con t̃+ si indica il tempo immediatamente successivo all’istante in cui il k-esimo neurone raggiunge la soglia)
N
sarà uguale alla configurazione vi (t̃− ) i=1 dove però sono stati riassegnati
i seguenti valori:
vk = 0
vk−l (t̃+ ) = vk−l (t̃− ) − gSk(k−l)
10
con
l = ±1, ±2
4
4.1
Caoticità di sistemi dinamici
Sistemi dinamici caotici, attrattori
Si definisce sistema dinamico una legge matematica deterministica che descrive
l’evoluzione temporale di un sistema fisico dipendente da un numero arbitrario
di variabili [3]. Un sistema dinamico in cui la variabile temporale è una variabile
continua è rappresentato dal seguente sistema di equazioni
d
x(t) = F[x(t)]
dt
(4.1)
dove x è un vettore N-dimensionale (con N numero delle variabili che descrivono
lo stato del sistema).
Assegnate le condizioni iniziali x(0) si possono, in linea di principio, risolvere le
equazioni per ottenere lo stato futuro del sistema x(t) al tempo t > 0. Lo spazio
N -dimensionale nel quale viene descritto lo stato è detto spazio delle fasi ed il
cammino seguito dal sistema che evolve nel tempo è detto traiettoria.
Se la variabile temporale è discreta, un sistema dinamico è una mappa
xn+1 = M(xn )
(1)
(2)
(4.2)
(N )
dove xn = (xn , xn , ..., xn ). Assegnato lo stato x0 si può ottenere lo stato
x1 al tempo n = 1 da x1 = M(x0 ); una volta determinato x1 si trova lo stato
al tempo n = 2 da x2 = M(x1 ) e cosı̀ via. Quindi, assegnata una condizione
iniziale x0 si genera un’orbita (o traiettoria) del sistema a tempi discreti: x0 ,
x1 , x2 ,... .
Nei sistemi hamiltoniani i volumi nello spazio delle fasi si conservano durante
l’evoluzione temporale. Cioè, se si sceglie al tempo t = 0 una superficie chiusa
(N − 1)-dimensionale S0 nello spazio N -dimensionale e si lascia quindi evolvere
fino al tempo t ciascun suo punto, si otterrà una superficie chiusa St , il volume
N -dimensionale V (0) della regione racchiusa da S0 sarà uguale al volume V (t)
della regione racchiusa da St . Questi tipi di sistemi che conservano i volumi
si dicono conservativi. Se invece il flusso non conserva i volumi il sistema si
dice non conservativo. Se il volume si contrae si parla di sistema dissipativo.
I sistemi dissipativi sono caratterizzati dalla presenza di attrattori nello spazio
delle fasi. Un attrattore è un insieme verso il quale evolve un sistema dinamico
dopo un tempo sufficientemente lungo. Affinché un tale insieme possa essere
definito attrattore le traiettorie che arrivano ad essere sufficientemente vicine
ad esso devono rimanere vicine anche se leggermente perturbate. E’ importante
notare che sistemi dinamici conservativi per i quali sia accessibile soltanto una
regione limitata Ω dello spazio delle fasi non possono avere attrattori in quanto
11
per il teorema della ricorrenza di Poincaré [4], presa una qualunque sfera B0 in
Ω, qualunque sia τ > 0 esiste t0 > τ tale che B(t0 ) ∩ B0 (dove B(t) è l’immagine
di B0 dopo il tempo t).
Anche i sistemi a tempi discreti, se dissipativi, tipicamente presentano attrattori.
La dinamica su un attrattore si definisce caotica se presenta una sensibile dipendenza dalle condizioni iniziali: prese due orbite di condizioni iniziali x1 (0) e
x2 (0) = x1 (0) + ∆(0), legate (cioè non divergono per t → ∞), nel limite
|∆(0)| → 0 la loro distanza durante l’evoluzione cresce esponenzialmente nel
tempo:
|∆(t)|
∼ eλt
|∆(0)|
λ>0
(4.3)
per orientazioni generiche di ∆(0), λ è un parametro del sistema che permette
di caratterizzarne la dinamica (vedi par.4.2). Si richiede che le orbite restino
confinate in una regione limitata dello spazio delle fasi in quanto se le orbite
vanno all’infinito è relativamente ovvio che la distanza relativa possa divergere
esponenzialmente.
La sensibilità esponenziale alle condizioni iniziali per soluzioni caotiche significa
che, col passare del tempo, piccoli errori nelle soluzioni crescono molto rapidamente. Per cui dopo un certo tempo la configurazione di un certo sistema può
essere sensibilmente diversa dalla configurazione dello stesso sistema partito da
condizioni iniziali leggermente diverse (il cosiddetto butterfly effect).
Un attrattore si dice strano se presenta una dimensione di Hausdorff
2
non in-
tera. Solitamente la dinamica che si svolge su attrattori strani è caotica, ma un
attrattore caotico può anche non essere strano ed un attrattore strano può non
presentare dinamiche caotiche.
2 Siano
(X, d) uno spazio metrico, E ⊆ X, 0 ≤ s < ∞ e δ < 0, allora si definisce [5]:
)
(∞
X
diam(Ui ) s
Hδs (E) = inf
ωs
: E ⊆ ∪∞
U
,
diam(U
)
≤
δ
i
i
i=1
2
i=1
dove
s
ωs =
π2
+ 1)
Γ ( 2s
Si definisce misura di Hausdorff E
H s (E) = lim Hδs (E)
δ→0
e la dimensione di Hausdorff di E
dimH (E) = inf {0 ≤ s < ∞ : H s (E) = 0}
12
4.2
Esponenti di Lyapunov
A causa della divergenza esponenziale di orbite vicine non è possibile seguire
la traiettoria su un attrattore caotico. Per caratterizzare questa divergenza si
introducono i cosiddetti esponenti di Lyapunov [1]
1
yn
λ(x0 , y0 ) = lim
ln
n→∞ n
y0
(4.4)
dove y0 è lo spostamento dalla posizione iniziale x0 .
Se la dimensione della mappa è N si avranno per una data condizione iniziale
x0 un numero di esponenti di Lyapunov distinti minore o uguale a N . Ciascuno
di questi esponenti dipende dall’orientazione di y0 .
Se si assegnano le condizioni iniziali in una sfera di raggio δ centrata in x0 e
si lascia evolvere ciascuna condizione iniziale, si ottiene che dopo n passi essa
evolve in un elissoide di semi-assi
δi ' δenλi (x0 ,y0 ) .
(4.5)
Nel limite n → ∞ gli esponenti di Lyapunov danno il tasso temporale di crescita
o decrescita degli assi principali dell’elissoide.
Si può dimostrare che per tempi sufficientemente lunghi la dinamica del sistema
è caratterizzata dall’esponente di Lyapunov maggiore:
ˆ se è negativo l’orbita converge ad un punto fisso o ad un’orbita periodica
stabile. Sistemi caratterizzati da un esponente di Lyapunov negativo sono
sistemi dissipativi.
ˆ Se è uguale a zero potrebbe voler dire che il sistema presenta una sensibilità
a potenza dalle condizioni iniziali o che evolve seguendo orbite periodiche
o quasi periodiche (traiettorie dense su un toro).
ˆ Se è positivo l’orbita è instabile e caotica.
Infine va notato che sistemi dinamici a tempo continuo sono sempre caratterizzati dalla presenza di almeno un esponente di Lyapunov uguale a zero (in
presenza di oscillazioni di un qualunque tipo). Infatti la perturbazione di una
condizione iniziale lungo la traiettoria della medesima, conduce a due traiettorie
uguali eccetto per una differenza finita di passaggio dalle varie configurazioni.
Lo stesso non puo’ accadere in sistemi a tempo discreto. Infatti, nel passaggio
da tempo continuo a tempo discreto, come nel caso di questa tesi, si “perde”
l’esponente nullo.
13
Tecnica per il calcolo numerico dell’esponente di Lyapunov
Si sceglie un vettore y0 in maniera arbitraria in modo che abbia una componente
nell’eventuale direzione di massima crescita esponenziale. Se il sistema presenta
una dinamica caotica però yn dopo un tempo sufficientemente lungo diventa
cosı̀ grande da non poter essere calcolabile numericamente. Si può ovviare a
questo problema rinormalizzando periodicamente yn a 1. Sia ζj il modulo di
ynj , l’esponente di Lyapunov massimo può essere stimato come
l
1X
ln ζj .
l→∞ tl
j=1
λ1 = lim
(4.6)
Scegliendo un l abbastanza grande, affinché il risultato numerico rilassi ad un
valore costante, si può approssimare l’espressione per λ1 come
l
1X
ln ζj .
λ1 '
tl j=1
4.3
(4.7)
Caos stabile
Come detto nel paragrafo precedente il caos è associato ad una sensibilità esponenziale all’evoluzione di piccole perturbazioni delle condizioni iniziali, per cui
la presenza di almeno un esponente di Lyapunov positivo è considerata condizione necessaria e sufficiente affinché si abbia una dinamica irregolare in sistemi dinamici deterministici. Si sono però osservati alcuni modelli di mappe di
oscillatori ad accoppiamento a primi vicini che nonostante abbiano un comportamento stocastico presentano un esponente di Lyapunov negativo [6]. Questo
tipo di fenomeno è detto caos stabile per enfatizzare la coesistenza di stabilità
locale e comportamento caotico. Nonostante possa sembrare che ci sia una contraddizione in realtà non c’è inconsistenza logica in quanto il comportamento
irregolare è un fenomeno transiente ristretto ad una scala di tempo finita. La
durata di questo transiente diverge però esponenzialmente con le dimensioni del
sistema ed è perciò infinita nel limite termodinamico.
Il caos stabile può essere studiato in analogia con il comportamento di alcuni
automi cellulari 3 elementari. Infatti, in un reticolo finito, ogni regola di aggiornamento dello stato dell’automa cellulare deve produrre un’orbita periodica
in quanto il numero di stati distinti è finito (B N con B numero di stati della
3 Un
automa cellulare è un modello a variabili discrete. Consiste in una griglia regolare di
celle ciascuna delle quali può assumere un numero finito di valori, questo valore identifica lo
stato della cella. Lo stato dell’intero sistema viene periodicamente aggiornato applicando ad
ogni cella una regola di evoluzione (uguale per tutte le celle) che determina il nuovo stato di
questa considerando lo stato attuale della cella stessa e delle celle vicine
14
variabile locale, N numero di siti del reticolo). Una regola di aggiornamento
caotica differisce da una ordinata per il tempo necessario a ritornare in una configurazione precedente. Il caos stabile è una sorta di estensione della dinamica
degli automi cellulari a sistemi a variabili continue.
La velocità di propagazione di perturbazioni localizzate, un indicatore solitamente usato per quantificare il grado di caoticità degli automi cellulari, sarà
utile per caratterizzare sistemi che presentano caos stabile.
Si consideri una configurazione iniziale x0 (0) ed una configurazione x1 (0) uguale
alla prima eccetto una perturbazione localizzata nell’intervallo [−r, r] e siano
il (t) ed ir (t) i siti di x1 , rispettivamente quello più a sinistra e quello più a
destra nella catena, che al tempo t presentano uno stato locale diverso dalla
catena imperturbata. Si può perciò definire la velocità di propagazione della
perturbazione come
ir (t) − il (t)
.
(4.8)
n→∞
2t
Negli automi cellulari una velocità di propagazione finita è considerata un’evivp = lim
denza di comportamento caotico.
E’ stato dimostrato [7] che reti di neuroni LIF globalmente accoppiate in presenza di disordine (ad esempio una piccola frazione di legami inattivi) convergono
verso stati stazionari (caratterizzati da sequenze di spari temporalmente equispaziati) mediamente dopo un tempo T (transiente) che cresce esponenzialmente
con la dimensione del sistema per opportuni valori della costante di accoppiamento g. Questi sistemi inoltre hanno un esponente di Lyapunov negativo.
Nel presente lavoro di tesi si è studiata una rete di neuroni LIF ad accoppiamento
a primi e secondi vicini supponendo che anche questo sistema presenti caos stabile e caratterizzandone perciò la dinamica tramite la velocità di propagazione
delle perturbazioni.
15
5
Dinamiche in catene di neuroni LIF ad accoppiamento a corto raggio
5.1
Studio qualitativo dei pattern
I seguenti pattern rappresentano l’evoluzione temporale di catene di neuroni LIF
ad accoppiamento a primi e secondi vicini con condizioni al contorno cicliche. Ad
ogni pixel dell’asse orizzontale è associato un neurone, l’asse verticale (diretto
verso il basso) rappresenta il tempo, il colore (in scala di grigi) dipende dal valore
del potenziale di membrana all’istante di campionamento (nero corrisponde a 0
potenziale di riposo, bianco a 1 valore di soglia).
Si è riscontrato che, come atteso, i pattern presentano caratteristiche diverse a
seconda del valore della costante di accoppiamento tra i neuroni ed invece non
dipendono dalla dimensione della catena per catene abbastanza lunghe (vedi
fig.5).
Figura 5: Pattern ottenuti campionando ogni 0.75 unità di tempo una catena di 100
neuroni (a) ed una catena di 500 neuroni (b) con la stessa costante di accoppiamento
g=0.5.
Si è notato che:
ˆ per piccoli valori della costante di accoppiamento (g = 0.2 ÷ 0.3) i pattern
presentano regioni verticali separate tra loro in cui si possono distinguere
dei fronti di sparo (più chiari) a punta. L’inibizione che agisce su un
neurone quando riceve un impulso da uno dei vicini è molto debole ed il
potenziale di membrana torna quindi a crescere quasi allo stesso modo.
ˆ Per valori medi della costante di accoppiamento (g = 0.5 ÷ 0.6) non
si hanno più fasce verticali distinte ma regioni più scure o più chiare
16
Figura 6: Sopra: pattern ottenuti campionando la catena ogni 0.5 unità di tempo.
Sotto andamento del potenziale di membrana di un neurone. (a) g=0.2; (b) g=0.5;
(c) g=0.9.
uniformemente distribuite.
ˆ Per valori molto grandi della costante di accoppiamento invece (g > 0.8) si
osservano numerose regioni verticali in cui si distinguono dei fronti di sparo
piani. In questo caso (come vedremo nel prossimo paragrafo) i neuroni
che partono da un valore del potenziale di membrana basso tendono a non
sparare mai, i neuroni che raggiungono la soglia sono sempre gli stessi.
Si veda la fig.6.
5.2
Propagazione delle perturbazioni
Per poter osservare l’effetto di una perturbazione localizzata sulla catena si è
fatto evolvere il sistema fino ad un certo tempo Tp , quindi si è variato di una
quantità casuale il potenziale di membrana di n neuroni contigui. I pattern
riportati in questa sezione rappresentano il valore assoluto della differenza tra i
potenziali di membrana di ciascun neurone della catena imperturbata e di quella
17
Figura 7: A sinistra: catena di 100 neuroni. Tempo di campionamento T = 20000,
intervallo di campionamento τ = 0.25. Costante di accoppiamento g = 0.2. Sopra:
larghezza della perturbazione in funzione del tempo. Sotto: pattern della propagazione
(l’asse orizzontale è il tempo).A destra: catena di 500 neuroni. Tempo di campionamento T = 20000, intervallo di campionamento τ = 0.1. Costante di accoppiamento
g = 0.2. Sopra: larghezza della perturbazione in funzione del tempo. Sotto: pattern
della propagazione (il tempo è l’asse verticale; ogni colonna rappresenta un intervallo
di 500 unità di tempo).
Figura 8: g=0.5. Larghezza della perturbazione in funzione del tempo. Pattern della
propagazione (il tempo è l’asse orizzontale), intervallo di campionamento τ = 0.1.
Figura 9: g=0.9. Pattern della propagazione (il tempo è l’asse orizzontale), intervallo
di campionamento τ = 0.1.
18
perturbata. Per determinare quindi la velocità di propagazione si è riportato in
grafico la larghezza della perturbazione contro il tempo. Si è visto che si hanno
comportamenti diversi a seconda della costante di accoppiamento tra i neuroni
ed in questo caso anche a seconda delle dimensioni della catena:
ˆ g = 0.2 ÷ 0.3 per catene con meno di 150 neuroni la perturbazione propa-
ga a tutta la catena. Mentre per catene di dimensioni maggiori la perturbazione, dopo un certo periodo transitorio, non propaga più e rimane
confinata (fig.7).
ˆ g = 0.5 ÷ 0.7 la perturbazione in questo caso propaga a tutta la catena,
la velocità è costante e si ha perciò una crescita lineare nel tempo della
larghezza della perturbazione (fig.8). Variando le condizioni iniziali si è
trovato che la velocità si distribuisce in maniera gaussiana attorno ad un
valore medio.
ˆ g > 0.8 la perturbazione resta molto confinata. La velocità di propagazione
si può considerare nulla. I neuroni interessati dalla perturbazione sono i
neuroni inizialmente perturbati ed alcuni neuroni ad essi vicini (fig. 9).
Si può vedere come la velocità di propagazione delle perturbazioni cresca per
valori di g compresi tra 0.4 e 0.5 per poi scendere fino a zero per valori maggiori
di 0.8 (fig.10).
Figura 10: Velocità di propagazione contro costante di accoppiamento. Periodo di
campionamento T=400, intervallo di campionamento τ = 0.1. Le barre di errore
rappresentano lo scarto quadratico medio.
19
Quindi, si è visto che per un valore molto grande della costante di accoppiamento la perturbazione rimane confinata a pochi neuroni. Questo si spiega andando
ad analizzare i neuroni che non sparano per tutta la durata del campionamento.
Infatti nel caso ci siano coppie di neuroni che non sparano, non si ha passaggio di
informazione da una parte all’altra di queste coppie: la dinamica dei neuroni da
una parte non influenzerà mai la dinamica dei neuroni dell’altra (considerando
condizioni cicliche, affinchè si verifichi ciò, si devono avere almeno due coppie
di neuroni che non sparano). Il numero di doppietti di neuroni che non sparano dipende dal valore della costante di accoppiamento (fig.11). Si noti che per
g > 0.81 il numero totale di neuroni che non sparano è esattamente il doppio
del numero di doppietti. Vengono ad originarsi quindi delle zone verticali separate da coppie di neuroni che non arrivano mai a soglia (perché partiti da
un valore del potenziale di membrana inferiore rispetto ai neuroni circostanti)
che si comportano indipendentemente le une dalle altre (non c’è passaggio di
informazione).
Figura 11: La linea nera indica il numero totale di neuroni che non hanno sparato
durante il campionamento, la linea rossa rappresenta il doppio del numero di coppie
di neuroni che non hanno sparato durante il campionamento (normalizzati al numero
totale dei neuroni). Le barre di errore rappresentano lo scarto quadratico medio.
5.3
Orbite periodiche
Avere queste zone verticali, di larghezza limitata, che non possono comunicare
tra loro fa sı̀ che il sistema si disaccoppi in più catene indipendenti di dimensioni
ridotte (qualche neurone). Ciascuna di queste catene riesce a raggiungere in
breve tempo una condizione stazionaria periodica. La velocità di propagazione
delle perturbazioni infatti è nulla come nel caso di automi cellulari con regole
di aggiornamento ordinate.
Anche nel caso di piccole costanti di accoppiamento (g = 0.2 ÷ 0.3) per catene
20
di dimensioni elevate dopo un periodo transitorio la perturbazione non propaga.
In questo caso non ci sono coppie di neuroni che non sparano che disaccoppiano
la catena, ma si originano comunque delle zone verticali tra le quali il passaggio
di informazione è ridotto. Il moto è periodico o quasi periodico. Se la catena
è di dimensioni ridotte la perturbazione propaga a tutta la catena, nonostante
ciò il moto risulta essere periodico o quasi periodico, presenta cioè caos stabile
(si veda par.5.4).
Per valori intermedi della costante di accoppiamento, per i quali si è riscontrata
una velocità di propagazione finita e costante (fino alla perturbazione dei neuroni più esterni), non si nota il raggiungimento di un’orbita periodica in tempi
cosı̀ ridotti. La dinamica si dimostra pseudocaotica, lo spettro di Fourier del
potenziale di membrana di un neurone (calcolato mediante un algoritmo di Fast
Fourier Transform) infatti non mette in evidenza un’armonica principale ma
ciò non esclude che il moto sia quasi periodico e che quindi i picchi trovati siano
combinazione lineare di due o più frequenze del moto.
Vedi fig.12.
5.4
L’esponente di Lyapunov
Se si considera una rete di neuroni LIF ad accoppiamento a primi e secondi vicini
di 5 neuroni (questa è la dimensione minima del sistema preso in esame) la rete
è globalmente accoppiata. In questo caso l’esponente di Lyapunov massimo è
negativo
g = 0.2
λ = −0.0105 ± 0.0015
g = 0.5
λ = −0.87632 ± 0.00018
g = 0.9
λ = −0.98210 ± 0.00004
(calcoli effettuati per 200000 campionamenti, τ = 0.1, l’errore rappresenta lo
scarto quadratico medio). Questo è consistente con quanto osservato: si è visto
infatti che il sistema ha una dinamica periodica.
Studiando una catena di 6 neuroni per piccoli valori di g si è trovato anche in
questo caso un esponente di Lyapunov negativo
g = 0.2
λ = −0.0099 ± 0.0017
Per g > 0.4 l’esponente di Lyapunov calcolato risulta sistematicamente nullo.
Questo perché i neuroni che sparano sono quasi sempre gli stessi due (posti agli
antipodi della catena) e ci si trova quindi ad avere due oscillatori disaccoppiati.
E’ stata dimostrata una condizione sufficiente ma non necessaria affinché la
catena di sei neuroni si disaccoppi: sia l il neurone t.c. vl (0) > vi (0) ∀ i 6= l,
21
Figura 12: Trasformata di Fourier del potenziale di membrana di un neurone di
una catena di 500 neuroni.
Tempo di campionamento T = 8000, intervallo di
campionamento τ = 0.1. (a) g = 0.2 (b) g = 0.5 (c) g = 0.9.
22
sia k il neurone opposto ad l, se vj (0) < g ∀ j 6= l , j 6= k allora arrivano a
soglia solo i neuroni l e k alternativamente (vedi Appendice). Gli esponenti di
Lyapunov nulli sono almeno due e nel passaggio al tempo discreto se ne “perde”
soltanto uno.
Si è visto che per catene con un numero di neuroni N < 150 per costanti di
accoppiamento g < 0.8 si ha un esponente di Lyapunov negativo nonostante le
perturbazioni propaghino in tutta la catena. Il sistema studiato presenta cioè
caos stabile.
g = 0.2
λ = −0.0098 ± 0.0009
50
neuroni
g = 0.2
λ = −0.0104 ± 0.0017
100
neuroni
g = 0.5
λ = −0.0037 ± 0.0007
50
neuroni
g = 0.5
λ = −0.0035 ± 0.0008
100
neuroni
Figura 13: Convergenza dell’esponente di Lyapunov calcolato numericamente. Catena
di 50 neuroni. Tempo di campionamento T = 20000. Intervallo di campionamento
τ = 0.1. A sinistra: costante di accoppiamento g = 0.2. A destra: costante di
accoppiamento g = 0.5.
Per catene con un numero di neuroni maggiore, l’esponente di Lyapunov calcolato è nullo, si suppone che il moto sia periodico o quasi periodico (presenti cioè
due o più frequenze del moto fra loro incommensurabili). Per costanti di accoppiamento g ' 0.5 la perturbazione propaga in tutta la catena, dimostrando
cosı̀ una dinamica pseudocaotica nonostante l’esponente di Lyapunov non sia
positivo.
Per valori grandi della costante di accoppiamento, l’esponente di Lyapunov è
sistematicamente nullo. Questo risultato è la semplice conseguenza del disaccoppiamento ad opera di doppietti di neuroni che non arrivano a soglia. Si ha
perciò un esponente di Lyapunon nullo per ciascuna catena indipendente.
23
6
Conclusioni
La dinamica di catene di neuroni LIF ad accoppiamento a primi e secondi vicini
dipende fortemente dalla costante di accoppiamento tra i neuroni.
ˆ Per costanti di accoppiamento g < 0.8: l’esponente di Lyapunov e la
propagazione delle perturbazioni dipendono anche dalla dimensione della
catena presa in esame. Per basse dimensionalità l’esponente di Lyapunov
risulta negativo, indice di una dinamica periodica, ma le perturbazioni
propagano a tutta la catena: il sistema presenta caos stabile. A dimensionalità maggiori l’esponente di Lyapunov calcolato è nullo, indice di una
dinamica periodica o quasi periodica; le perturbazioni rimangono confinate. La spiegazione di questo fenomeno potrebbe essere argomento di
interessanti studi futuri.
ˆ Per valori grandi della costante di accoppiamento si presentano regioni
verticali separate le une dalle altre da doppietti di neuroni che non sparano che non permettono passaggio di informazione da una zona all’altra.
Questo fa sı̀ che la catena sia disaccoppiata in più catene indipendenti.
L’esponente di Lyapunov stimato col metodo numerico introdotto risulta
perciò sistematicamente nullo.
24
Appendice
Si consideri una catena di sei neuroni. Al tempo t = 0 si avrà la configurazione
6
{vi (0)}i=1
Sia l il primo neurone a raggiungere la soglia al tempo t0 . Sia k il neurone
opposto ad l. Al tempo t = t0 si avrà
vl (t+
0)=0
−
vk (t+
0 ) = vk (t0 )
−
−t0
vj (t+
+a−g
0 ) = vj (t0 ) − g = (vj (0) − a)e
Il secondo sparo avviene al tempo t = t0 + t1
vl (t− ) = 1 − e−t1 a
vj (t− ) = vj (0) − a − get0 e−(t0 +t1 ) + a
vk (t− ) = {vk (0) − a} e−(t0 +t1 ) + a
Si vuole determinare ora se il secondo a sparare è il neurone opposto alla catena
o uno dei neuroni ad esso collegati, si valuta quindi il segno della differenza
vj (t− ) − vk (t− ) = e−(t0 +t1 ) vj (0) − ge−t0 − vk (0)
Affinché sia il neurone k il secondo neurone della catena a sparare si deve avere
vk (t− ) > vj (t− ), cioé
vj (0) − get0 − vk (0) < 0
g > (vj (0) − vk (0))e−t0
condizione sufficiente ma non necessaria affinché questa sia verificata è
g > vj (0) − vk (0)
⇒
vk (0) > vj (0) − g
Questa sarà sempre soddisfatta (condizione sufficiente ma non necessaria) se
vj (0) < g
e siccome le condizioni iniziali sono assegnate da un algoritmo che ha una distribuzione di probabilità uniforme nell’intervallo [0; 1] si avrà che la probabilità
che la condizione nel riquadro sia soddisfatta è
P (vj (0) < g) = g
⇒
P (vi−1 (0), vi−2 (0), vi+1 (0), vi+2 (0) < g) = g 4
25
Si suppone d’ora in poi che la condizione g > vj (0) sia verificata. Al tempo
t = t0 + t1 + t2 si ha il terzo sparo
vl (t− ) = −ae−(t1 +t2 ) + a
n
o
vj (t− ) = (vj (0) − a − get0 )e−(t1 +t0 ) − g e−t2 + a
Si valuta il segno della differenza
vl (t− ) − vj (t− ) = e−(t1 +t2 ) (g − a) − e−t (vj (0) − a)
Il neurone l sarà il terzo neurone a sparare se questa differenza è maggiore di
zero:
g − a > e−t0 (vj (0) − a)
Ma per l’ipotesi
g − a > vj (0) − a > e−t0 (vj (0) − a)
quindi la condizione è soddisfatta: il terzo neurone a sparare sarà sicuramente
il neurone l.
Si supponga ora di essere al tempo t =
Pn
i=1 ti .
Si supponga anche che il
penultimo neurone a sparare sia stato il neurone k e l’ultimo il neurone l; sia
t∗ = t − tn−1 − tn−2 , allora si avrà
vk (t− ) = {vk (t∗ ) − a} e−(tn−2 +tn−1 ) + a
vj (t− ) = vj (t∗ ) − a − getn−2 e−(tn−2 +tn−1 ) + a
Come fatto in precedenza si studia il segno della differenza
vj (t− ) − vk (t− ) = e−(tn−2 +tn−1 ) vj (t∗ ) − vk (t∗ ) − getn−2
Quindi, l’n-esimo neurone a sparare sarà nuovamente il neurone k se
g > {vj (t∗ ) − vk (t∗ )} e−tn−2
Questa disuguaglianza è sicuramente verificata se
g > vj (t∗ ) − vk (t∗ )
ma
vj (t∗ ) − vk (t∗ ) = vj (t∗ − tn−3 − tn−4 ) − vk (t∗ − tn−3 − tn−4 ) − getn−4
Sia t∗∗ = t∗ − tn−3 − tn−4 , allora, la diseguaglianza è sicuramente verificata se
g>
vj (t∗∗ ) − vk (t∗∗ )
1 + etn−4
26
che è soddisfatta se vale
g > vj (t∗∗ ) − vk (t∗∗ );
Iterando il processo si ottiene che la diseguaglianza è soddisfatta se è verificata
g > vj (0) − vk (0)
che è vera per ipotesi.
Si può concludere che con una probabilità di P = g 4 viene soddisfatta una
condizione sufficiente ma non necessaria sulla configurazione iniziale affinché la
catena di sei neuroni si disaccoppi in due oscillatori indipendenti. Questo è consistente con quanto osservato: per valori grandi della costante di accoppiamento
è più probabile che la catena si disaccoppi in due oscillatori indipendenti. Dai
risultati ottenuti è però chiaro che la condizione trovata è troppo restrittiva,
infatti per una costante di accoppiamento g = 0.5 non si è osservato neanche un
caso in cui la catena non era disaccoppiata (l’esponente di Lyapunov calcolato
è risultato sempre nullo), mentre la probabilità che la condizione trovata sia
soddisfatta è circa del 6%.
27
Riferimenti bibliografici
[1] S. Olmi, Dinamica di reti neurali diluite ad accoppiamento impulsivo, tesi di
laurea magistrale presso l’Università degli studi di Firenze, A.A. 2008/2009
[2] B. Alberts, D. Bray, K. Hopkin, A. Johnson, J. Lewis, M. Raff, K. Roberts,
P. Walter, L’essenziale di biologia molecolare della cellula, Zanichelli, seconda
edizione: luglio 2005
[3] E. Ott, Chaos in dynamical systems, Cambridge University Press, 1993
[4] A. Fasano e S. Marmi, Meccanica analitica, Bollati Boringhieri, seconda
edizione riveduta ed ampliata: marzo 2002
[5] L. Ulivi, Frattali autosimili, tesi di laurea triennale presso l’Università degli
studi di Firenze, A.A. 2005/2006
[6] A. Politi A.Torcini A., in Nonlinear dynamics and Chaos, eds. Thiel M. et
al. (Heidelberg, Springer-Verlag, 2010).
[7] R. Zillmer, R. Livi, A. Politi, and A. Torcini. Phys. Rev. E, 74, 036203, 2006
28
Ringraziamenti
Un sentito ringraziamento al mio relatore Antonio Politi per la pazienza, le spiegazioni e la disponibilità.
Ringrazio per l’ospitalità l’Istituto dei Sistemi Complessi (ISC) del Consiglio
Nazionale delle Ricerche (CNR) dove è stato svolto questo lavoro di tesi. La
mia gratitudine va anche al dott. Giampiero Puccioni e alla dott.ssa Simona
Olmi per il prezioso aiuto offertomi in fase di programmazione.
Sono molto riconoscente al prof. Lapo Casetti per il suo aiuto, i consigli ed il
tempo dedicatomi.
Voglio ringraziare i miei genitori per tutto il loro sostegno e gli incoraggiamenti,
i miei fratelli per essermi sempre stati da esempio, mia cugina Francesca per
essere sempre buona con me, la mia famiglia tutta per essere presente in ogni
momento. Un pensiero particolare a mio zio Luigi che oggi non può essere qui
ma che c’è sempre stato e sempre ci sarà.
Voglio ringraziare i miei coinquilini Beppe, Billi, Tommi, Lapo e Iacopo per
avermi supportato, sopportato, appoggiato e tutte le belle cose che fanno i coinquilini quali cucinare, pulire e i pranzi e le cene e le bottiglie di vino...
Ringrazio i chimici Guglielmo, Chiara, Francesca e Darth Ale perché continuano
a farmi credere utile.
Ringrazio le fisiche Cate, Lalla, Giulia e Ughetta perché senza di loro mi sembrerebbe sicuramente tutto più triste.
Ringrazio i fisici Giulio e Lorenzo per le discussioni e le formative teorie sulla
vita.
Ringrazio i Collettivi del Polo per il loro costante lavoro e le loro attività all’interno dell’università.
Ringrazio la pan.go.ro© e tutti i ragazzi della sala studenti per i caffè e le colazioni e tutto il resto.
Ringrazio Milo che mi ha consigliato l’argomento di tesi e che in questo momento sta leggendo questo lavoro a fianco a me.
Ringrazio i ragazzi del tAtro per le emozioni, le toccate di sedere e le serate
passate assieme.
Ringrazio Ale, Cuz, Eli, Giulia, Ica, Lara, Marco, Miri, Tina perché ogni ricordo
in cui ci sono loro mi rende migliore.
29
Scarica