Dinamica di reti neurali diluite con accoppiamento impulsivo

annuncio pubblicitario
ANNO ACCADEMICO 2008-2009
Facoltà di Scienze Matematiche, Fisiche e Naturali
Corso di Laurea in Fisica
Tesi di Laurea
Dinamica di reti neurali diluite
con accoppiamento impulsivo
Candidata:
Simona Olmi
Relatore:
Correlatore:
prof. Roberto Livi
dott. Alessandro Torcini
25 giugno 2009
Indice
Introduzione
1
1 Elementi di neurofisiologia
5
1.1 I neuroni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
1.2 I segnali neuronali ed il potenziale di azione . . . . . . . . . . . . . .
7
1.3 Le sinapsi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
1.4 Introduzione alla dinamica neuronale . . . . . . . . . . . . . . . . . . 11
1.5 La membrana cellulare del neurone . . . . . . . . . . . . . . . . . . . 13
1.6 Canali ionici e correnti ioniche . . . . . . . . . . . . . . . . . . . . . . 15
1.7 Origine del potenziale di riposo . . . . . . . . . . . . . . . . . . . . . 17
1.7.1
Un modello cellulare semplificato . . . . . . . . . . . . . . . . 17
1.7.2
L’equazione di Nerst . . . . . . . . . . . . . . . . . . . . . . . 19
1.7.3
Effetto del sodio e pompe ioniche . . . . . . . . . . . . . . . . 20
1.7.4
Effetto della permeabilità ionica e dei meccanismi di trasporto 21
1.8 Proprietà elettriche passive della membrana . . . . . . . . . . . . . . 23
2 Modelli semplificati di neuroni
26
2.1 Dal modello di Hodgkin-Huxley al modello leaky integrate-and-fire . . 28
2.2 Neuroni leaky integrate-and-fire . . . . . . . . . . . . . . . . . . . . . 33
2.2.1
Correnti sinaptiche . . . . . . . . . . . . . . . . . . . . . . . . 36
I
2.2.2
Adattamento della frequenza di emissione degli impulsi e refrattarietà . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3 Modelli di reti neurali ad accoppiamento impulsivo
3.1 Reti neurali con accoppiamento impulsivo
41
. . . . . . . . . . . . . . . 42
3.1.1
Modello di rete di neuroni LIF globalmente accoppiati . . . . 44
3.1.2
Mappa guidata dall’evento . . . . . . . . . . . . . . . . . . . . 47
3.1.3
Analisi di stabilità lineare . . . . . . . . . . . . . . . . . . . . 49
3.2 Impulsi di durata finita . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.2.1
Lunghezze d’onda grandi . . . . . . . . . . . . . . . . . . . . . 53
3.2.2
Lunghezze d’onda brevi
3.2.3
Diagramma di fase e correzioni di taglia finita . . . . . . . . . 54
3.2.4
Altri stati collettivi della rete . . . . . . . . . . . . . . . . . . 57
. . . . . . . . . . . . . . . . . . . . . 54
3.3 Desincronizzazione in reti neurali diluite . . . . . . . . . . . . . . . . 60
4 Dinamica di una rete neurale eccitatoria diluita
66
4.1 Modello della rete in tempo continuo . . . . . . . . . . . . . . . . . . 68
4.1.1
Mappa ad evento guidato . . . . . . . . . . . . . . . . . . . . 69
4.1.2
Algoritmo numerico . . . . . . . . . . . . . . . . . . . . . . . . 71
4.1.3
Scelta aleatoria delle connessioni
. . . . . . . . . . . . . . . . 72
4.2 Analisi di stabilità lineare . . . . . . . . . . . . . . . . . . . . . . . . 74
4.2.1
Reti globalmente accoppiate . . . . . . . . . . . . . . . . . . . 76
4.2.2
Reti diluite . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.3 Diagramma di biforcazione . . . . . . . . . . . . . . . . . . . . . . . . 82
4.4 Disordine quenched . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.5 Disordine annealed . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.6 Confronto con il sistema globalmente accoppiato . . . . . . . . . . . . 100
4.7 Neuroni disaccoppiati guidati dalla rete . . . . . . . . . . . . . . . . . 102
Conclusioni
106
A Fenomenologia delle biforcazioni
109
A.1 Biforcazioni sovra-critiche di punti fissi . . . . . . . . . . . . . . . . . 110
A.2 Biforcazioni sotto-critiche . . . . . . . . . . . . . . . . . . . . . . . . 112
B Metodo della sezione di Poincaré
114
B.1 Mappa di Poincaré . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
B.2 Sezioni di Poincaré per differenti attrattori . . . . . . . . . . . . . . . 116
C Stabilità lineare
120
C.1 Stabilità lineare di orbite periodiche: moltiplicatori di Floquet . . . . 120
C.2 Esponenti di Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . 122
C.2.1 Tecnica di calcolo numerico degli esponenti di Lyapunov . . . 126
C.2.2 Dimensione dell’attrattore . . . . . . . . . . . . . . . . . . . . 128
Introduzione
Il presente lavoro di tesi rientra nell’ambito di un’ampia attività di ricerca che ha
visto, negli ultimi anni, un numero crescente di fisici orientarsi verso problematiche
che un tempo erano dominio di biologi, biochimici o fisiologi. In particolare, a
partire dagli studi pionieristici di A.L. Hodgkin e A.F. Huxley sulla fisiologia del
neurone, per i quali ottennero il premio Nobel nel 1963, si è avuto un trasferimento
continuo ed una sempre più vasta applicazione di metodologie propriamente fisiche
al campo delle neuroscienze. Questo ha portato alla realizzazione di analisi sempre
più accurate delle proprietà strutturali e dinamiche sia dei singoli neuroni che di
circuiti neurali presenti in varie aree del cervello.
Scopo di questa tesi di laurea è lo studio dei comportamenti dinamici collettivi
che emergono in reti neurali diluite, in cui i neuroni sono schematizzati con modelli
semplici, ma tali da riprodurre gli aspetti salienti della dinamica neuronale e da
consentire accurate analisi dinamiche e statistiche di reti molto estese. In particolare, intendiamo caratterizzare tali dinamiche collettive identificando gli attratori
corrispondenti e quantificando il loro grado di caoticità.
Prima di riassumere gli aspetti salienti e i risultati contenuti in questa tesi, ci
preme cercare di inquadrarla in una prospettiva più generale, che fa riferimento ad
aspetti di carattere fondamentale. Negli ultimi tre decenni gli studi di reti neurali
si sono intrecciati profondamente a quelli di meccanica statistica sui ferromagneti
aleatori (o vetri di spin) [1], a partire dal modello per memorie associative introdotto
da J.J. Hopfield nel 1982 [2, 3]. Questo modello di rete neurale, oltre ad aver avuto
applicazioni negli ambiti più vari, dalle neuroscienze alla finanza, è stato molto
rilevante anche per gli studi sulla transizione vetrosa, dato che rappresenta uno dei
pochi modelli di vetri di spin risolubili esattamente nel limite termodinamico.
Negli anni più recenti si è passati, anche grazie allo sviluppo di calcolatori più
potenti che ne hanno consentino analisi statisticamente rilevanti, da reti quali quelle
di Hopfield, ove i neuroni sono schematizzati con variabili binarie, a reti in cui la
dinamica del potenziale di membrana di ogni neurone è descritta da variabili di
stato continue, che evolvono secondo una o più equazioni differenziali. Inoltre, stimolati da osservazioni di fisiologia, si è iniziato a considerare reti con accoppiamenti
maggiormente realistici, che vengono realizzati tramite la trasmissione di impulsi.
Queste reti con accoppiamento impulsivo sono state utilizzate ampiamente sia per
studi di neuroscienze computazionali, che per il processamento di immagini e recentemente si è arrivati ad implementare la dinamica di queste reti anche in modo
“hardware”, grazie all’uso di circuiti integrati programmabili [4].
Nello specifico, in questo lavoro di tesi, si sono considerate reti con accoppiamenti eccitatori in cui l’interazione avviene tramite la trasmissione di impulsi di durata
finita. L’interesse per questi modelli è giustificato non solo da analisi teoriche, ma
anche da evidenze sperimentali. In particolare, studi analitici e numerici, svolti
in precedenza per reti globalmente accoppiate, mostrano come in questi sistemi
emergano spontaneamente stati collettivi stabili caratterizzati da dinamiche assolutamente non banali [5, 6]. D’altra parte sono state evidenziate oscillazioni collettive
anche analizzando “in vitro” l’attività elettrica della corteccia cerebrale di topi appena nati, per i quali è noto che le sinapsi sono solo di tipo eccitatorio, dato che le
interazioni inibitorie appaiono solo dopo qualche giorno dalla nascita [7]. Inoltre è
essenziale indagare la robustezza e la stabilità di queste soluzioni collettive rispetto
alla diluizione delle connessioni presenti, visto che nella corteccia cerebrale i neuroni connessi fra loro sono solo una percentuale del totale [8]. Quindi, in questa tesi
indagheremo gli effetti sulla dinamica di stati collettivi oscillatori dovuti al passaggio
da una rete in cui tutti i neuroni sono connessi con tutti, ad una in cui sia presente
una diluizione stocastica nel numero di connessioni afferenti ed efferenti da un determinato neurone. Ci avvarremo quindi di metodologie proprie della meccanica
statistica e dei sistemi dinamici per investigare le proprietà di sincronizzazione e di
auto-organizzazione di un modello non lineare di rete neurale contenente del disordine nella distribuzione delle connessioni, sia congelato (“quenched”) che generato
dinamicamente (“annealed”).
Il primo capitolo della tesi sarà dedicato ad una breve introduzione di semplici
concetti di neurofisiologia, in particolare si riporteranno una schematica descrizione
del neurone, delle sinapsi e della struttura della membrana cellulare. Si descriverà
poi la fenomenologia della dinamica neuronale, con particolare enfasi sulla generazione del potenziale d’azione in termini della dinamica delle correnti ioniche che
attraversano la membrana neuronale.
Nel secondo capitolo saranno introdotti alcuni modelli usati in letteratura per
riprodurre la dinamica dei neuroni, a partire dal modello fisiologicamente rilevante
di Hodgkin-Huxley, per arrivare ad un modello schematico, ma che riproduce gli
elementi fondamentali della dinamica neuronale, quale il modello leaky integrateand-fire [9]. Quest’ultimo modello è assai usato sia nello studio della risposta di
neuroni singoli a stimoli di varia natura, per le possibilità di trattazione analitica
che consente, sia nelle simulazioni di reti complesse con un gran numero di neuroni,
per la semplicità della sua implementazione da un punto di vista numerico.
Il terzo capitolo sarà dedicato ad una rassegna dei risultati più importanti riguardanti le soluzioni collettive osservate in reti con accoppiamenti impulsivi, sia eccitatori
che inibitori. In particolare, per reti globalmente accoppiate eccitatorie si riporterà
un’analisi di stabilità lineare recentemente sviluppata per stati coerenti in reti ove
gli impulsi scambiati hanno durata finita [10]. Per quanto riguarda le reti con accoppiamento inibitorio ricorderemo i risultati di Jin [11] che mostrano come la dinamica
di reti globalmente accoppiate converga sempre su orbite periodiche stabili; inoltre
menzioneremo i risultati di Zillmer et al. [12], che indicano come la diluizione porti
alla nascita di stati transitori stazionari la cui durata cresce esponenzialmente con
il numero di neuroni.
I contributi originali, riportati nel capitolo quarto, riguarderanno lo studio della
dinamica di una rete neurale eccitatoria con accoppiamento impulsivo. Innanzitutto caratterizzeremo in termini di esponenti di Lyapunov le soluzioni collettive
osservate in reti globalmente accoppiate. Questa analisi evidenzierà come, sia lo
stato asincrono che lo stato parzialmente sincronizzato, siano marginalmente stabili
nel limite termodinamico. Descriveremo inoltre come l’introduzione di disordine in
reti finite destabilizzi queste soluzioni rendendole caotiche. Mostreremo poi, come
al crescere del numero di neuroni della rete, la dinamica del campo medio autoconsistente associato a stati parzialmente sincronizzati converga a quella del caso
globalmente accoppiato, sia in presenza di disordine “quenched” che “annealed”.
Nel limite termodinamico mostreremo che il grado di caoticità del sistema dipende
in modo peculiare dal tipo di disordine introdotto nella rete. Infine riporteremo
indicazioni sull’origine del comportamento caotico osservato.
Nelle conclusioni riassumeremo i principali risultati ottenuti in questa tesi ed
esporremo le possibili prospettive e applicazioni future di questi studi. Infine brevi cenni alla teoria delle biforcazioni saranno riportati nell’Appendice A, mentre
l’Appendice B sarà dedicata ad una introduzione della tecnica della sezione di Poincaré. Infine l’Appendice C sarà dedicata ad una sintetica introduzione dell’analisi
di Floquet e degli esponenti di Lyapunov.
Capitolo 1
Elementi di neurofisiologia
I neuroni sono cellule altamente specializzate e si distinguono dalle altre cellule grazie alla loro abilità nel far propagare rapidamente segnali elettrici su lunghe distanze.
Gli impulsi generati dai neuroni, che viaggiano lungo fibre nervose (dette assoni ),
consentono la codifica e la trasmissione di informazione e sono emessi, in seguito a
stimoli esterni, verso altri neuroni. In questo capitolo introdurremo dunque alcuni concetti basilari relativi alla neurofisiologia del neurone, a cominciare dalla sua
morfologia. Caratteristiche morfologiche salienti del neurone sono i dendriti, che
ricevono gli impulsi in ingresso, provenienti da altri neuroni e l’assone, che porta il
segnale in uscita dal neurone verso le altre cellule. Mentre la struttura ramificata del
dendrite permette al neurone di ricevere segnali in ingresso da molti altri neuroni
attraverso le connessioni sinaptiche, l’assone può attraversare lunghe porzioni del
cervello o, in alcuni casi, trasmettere il segnale del singolo neurone attraversando
l’intera spina dorsale. Nei paragrafi successivi daremo una descrizione schematica
del neurone e delle sinapsi; inoltre descriveremo in dettaglio le caratteristiche della
membrana cellulare, sia a riposo che stimolata, con particolare attenzione alle sue
proprietà elettriche. Oltre agli aspetti morfologici analizzeremo anche gli aspetti
fisiologici del neurone ed in particolare tratteremo i meccanismi che sovraintendono
al suo funzionamento e alla generazione dei potenziali di azione in termini della dinamica delle correnti ioniche che attraversano la membrana neuronale. Il potenziale
d’azione è un segnale elettrico in grado di propagarsi per grandi distanze senza attenuazione grazie alle giunzioni mieliniche degli assoni e rappresenta l’unità elementare
di informazione scambiabile tra i neuroni.
1.1
I neuroni
I neuroni sono cellule del sistema nervoso altamente specializzate e dedicate al
trasferimento, immagazzinamento ed elaborazione delle informazioni. Tale elaborazione avviene attraverso segnali elettrici dovuti a differenze di potenziale associate
a correnti elettriche di natura ionica (essenzialmente sono rilevanti solo gli ioni sodio, potassio, calcio e cloro) che attraversano la membrana cellulare del neurone. I
neuroni sono in numero molto elevato e sono connessi fra di loro con topologie assai complesse (vedi figura 1.1): ad esempio nella corteccia cerebrale dei mammiferi
si ha una densità superiore a 104 neuroni/mm3 . Tipicamente, pur nella varietà di
tipi di cellule neuronali (neuroni della corteccia cerebrale, motoneuroni del midollo spinale, ecc.), possiamo riconoscere tre parti morfologicamente e funzionalmente
distinte: il corpo cellulare o soma; i dendriti e gli assoni. Il soma ha una struttura
compatta che risulta approssimativamente sferica (di circa 70 µm di diametro) ed è
sostanzialmente l’unità deputata all’elaborazione dell’informazione. I dendriti sono
estensioni del soma con una struttura molto ramificata che si estendono per distanze
che possono raggiungere il millimetro ed hanno la funzione di raccogliere i segnali
provenienti dagli altri neuroni e trasmetterli al soma. Gli assoni sono lunghe protuberanze (anche oltre un metro nei neuroni motori degli organismi animali superiori)
che si proiettano dal soma e la loro funzione consiste nella trasmissione del segnale
generato dal soma verso i dendriti di un’altro neurone. Usando la terminologia dei
circuiti elettronici si può quindi dire che i dendriti rappresentano il dispositivo di
ingresso (“input”), gli assoni il dispositivo di uscita (“output”) e il soma l’unità
di elaborazione delle informazioni. La morfologia di un particolare tipo di neurone
nonché la sua posizione nella rete neurale forniscono indizi sulla funzione espletata:
ad esempio il livello di arborizzazione fornisce un’idea del numero di connessioni che
può ricevere e verso quante altre cellule neuronali invii i propri segnali (vedi figura
1.2).
Figura 1.1. Neuroni della corteccia dei mammiferi osservati al microscopio. Possiamo distinguere neuroni con corpi cellulari triangolari e circolari: la cellula b è
un classico esempio di cellula piramidale con corpo triangolare [13].
1.2
I segnali neuronali ed il potenziale di azione
Si definisce potenziale di membrana la differenza di potenziale misurata ai capi di
due elettrodi, uno posto all’interno della cellula neuronale ed uno posto nel liquido
extracellulare circostante. Quando si parla di segnale neuronale ci si riferisce alla
variazione temporale e spaziale del potenziale di membrana. Quando il neurone è
a riposo, ossia non è in qualche modo eccitato dall’esterno (e chiariremo nel seguito
cosa si intende), il potenziale di membrana assume un valore caratteristico denominato potenziale di riposo, tipicamente dell’ordine di -65mV, ossia l’interno della
Figura 1.2.
Forme e dimensioni dei neuroni [14].
cellula si trova ad un potenziale inferiore rispetto all’esterno.
I potenziali di azione sono impulsi di tensione tipici, generati durante la dinamica
neuronale; essi hanno una forma pressoché stereotipata e non sono soggetti ad attenuazione o distorsione durante la propagazione lungo l’assone. In figura (1.3) è
riportata la forma tipica di un potenziale di azione. Si notino le seguenti caratteristiche:
• l’impulso di tensione ha una durata di circa 1-2 ms ed una ampiezza misurata
fra il minimo ed il massimo di circa 100-120 mV;
• nella prima fase dell’impulso si assiste ad una crescita veloce del potenziale di
membrana fino ad arrivare ad una fase denominata di depolarizzazione dove
il potenziale di membrana diventa positivo, cioè l’interno della cellula si trova
ad un potenziale superiore rispetto all’esterno;
• nella fase di discesa l’impulso prima di ritornare al valore di riposo passa
attraverso una fase denominata di iperpolarizzazione, tipicamente della durata
di circa 10 ms (e quindi molto più lenta della depolarizzazione), in cui la cellula
presenta un potenziale di membrana inferiore rispetto a quello di riposo.
Il potenziale di azione, che una volta generato nella cellula neuronale, viaggia lungo
l’assone ed è trasmesso agli altri neuroni, costituisce l’unità elementare associata
alla trasmissione dei segnali neuronali. Tipicamente quindi quando ci si riferisce al
segnale emesso da un neurone si intende la sequenza temporale di questi potenziali
di azione, detta anche treno di impulsi (in inglese spike train).
Figura 1.3.
1.3
Forma tipica di un potenziale di azione (o impulso) [15].
Le sinapsi
La sinapsi costituisce essenzialmente la giunzione tra due neuroni ossia la struttura
attraverso la quale le informazioni sono trasferite da una cellula nervosa all’altra. In
tale contesto si definisce neurone presinaptico il neurone “trasmettente” i potenziali
di azione, a monte della sinapsi, e neurone postsinaptico il neurone ’“ricevente” i
potenziali di azione, a valle della sinapsi. Con questa terminologia la sinapsi è quindi la regione in cui l’assone del neurone presinaptico “interagisce” con il dendrite
del neurone postsinaptico. Si definisce inoltre potenziale postsinaptico (che ha come
acronimo PPS ) la risposta in tensione del neurone postsinaptico conseguente all’arrivo del potenziale di azione proveniente dal neurone presinaptico.
Si distinguono essenzialmente due tipi di sinapsi: la sinapsi chimica e la sinapsi
elettrica (altrimenti detta gap-junction). La sinapsi chimica, della quale è riportato lo schema in figura (1.4), risulta la più comune nel cervello dei vertebrati e
si basa sul meccanismo che andiamo a descrivere. Il potenziale di azione generato dal neurone presinaptico, giunto all’estremità dell’assone depolarizza localmente
la membrana cellulare causando il rilascio all’interno della fessura sinaptica (ossia
il piccolo spazio tra le due membrane cellulari presinaptiche e postsinaptiche), da
parte di strutture poste sull’assone denominate vescicole sinaptiche, di particolari
sostanze chimiche denominate neurotrasmettitori. Il neurotrasmettitore, non appena raggiunto il versante postsinaptico della sinapsi, è rivelato da speciali molecole
(chemorecettori ) poste sulla membrana postsinaptica che provocano l’apertura (o
direttamente o tramite una catena di segnali biochimici) di specifici canali attraverso i quali una corrente ionica fluisce dal liquido extracellulare alla cellula. L’ingresso
di questi ioni porta a sua volta ad una variazione del valore del potenziale di membrana postsinaptico. Dunque in una sinapsi chimica si ha prima la trasformazione
di un segnale elettrico in un segnale chimico sulla membrana presinaptica e poi la
successiva trasformazione sulla membrana postsinaptica di un segnale chimico in un
segnale elettrico. La sinapsi elettrica realizza invece un accoppiamento elettrico tra
due neuroni attraverso canali ionici altamente specializzati (detti gap-junctions) che
collegano la membrana presinaptica e postsinaptica. La sinapsi elettrica permette
perciò un flusso di corrente diretto tra neuroni adiacenti ed è quindi più veloce per
la trasmissione del segnale.
Figura 1.4. Esempio di sinapsi chimica: la terminazione presinaptica libera una
sostanza chimica, il neurotrasmettitore, in risposta ad una depolarizzazione [14].
1.4
Introduzione alla dinamica neuronale
Abbiamo già accennato che l’arrivo di un potenziale di azione dal neurone presinaptico provoca una risposta in tensione (il potenziale postsinaptico) nel potenziale di
membrana del neurone ricevente. A tal proposito si distingue tra potenziale postsinaptico eccitatorio (che ha come acronimo PPSE ) e potenziale postsinaptico inibitorio (che ha come acronimo PPSI ) a seconda che l’effetto sia quello di aumentare o di
diminuire il valore del potenziale di membrana. Analogo significato ha la distinzione
tra sinapsi eccitatoria e sinapsi inibitoria ovvero tra stimolo depolarizzante e stimolo iperpolarizzante. Il numero di contatti sinaptici dipende dal tipo di neurone: ad
esempio i neuroni della corteccia cerebrale (neuroni corticali ) possiedono migliaia
di contatti sinaptici (da 3 · 103 a 104 ) con gli altri neuroni della corteccia dei quali
Figura 1.5. Registrazione di 479 PPSE sul soma di cellule piramidali della corteccia visuale del ratto, in presenza di attività neuronale spontanea (fig.A). Istogramma delle altezze di picco dei PPSE (fig.B) [17].
circa l’85% sono eccitatori ed il resto inibitori. In realtà solo una frazione dell’ordine
del 5-10% risultano sinapsi realmente attive [8, 16]. Per avere un’idea dell’ampiezza
di un PPSE si veda la figura (1.5) in cui sono riportati i PPSE registrati su una
cellula neuronale ed il relativo istogramma delle altezze di picco: come si vede il
valor medio è dell’ordine di 0.5 mV. In figura (1.6) è riportata una rappresentazione
schematica della dinamica neuronale che si instaura in risposta all’arrivo di impulsi
da neuroni presinaptici:
fig.A: un neurone postsinaptico i riceve impulsi da due neuroni presinaptici j = 1,2;
ui (t) e urest rappresentano rispettivamente il potenziale di membrana e il valore
(f )
del potenziale di riposo del neurone i; la quantità ǫi1 (t − t1 ) rappresenta il
(f )
potenziale postsinaptico generato dall’arrivo all’istante t1
di un impulso dal
neurone j = 1;
(f )
fig.B: un impulso che arriva dall’altro neurone presinaptico j = 2 ad un istante t2 ,
entro un intervallo di tempo sufficientemente breve, causa un secondo potenziale postsinaptico che si somma al precedente; in questo regime la risposta
del neurone postsinaptico risulta approssimativamente lineare nel senso che la
risposta è circa proporzionale agli input che riceve;
fig.C: quando ui (t) raggiunge un valore tipico, θ, denominato soglia di attivazione,
il comportamento del neurone diviene altamente non lineare: è generato un
potenziale di azione (il picco dell’impulso rappresentato da una freccia è fuori
dalla scala della figura) che ha una forma stereotipata e quindi senza legame
con gli stimoli che lo hanno prodotto; inoltre il neurone, per tutta la durata
del potenziale di azione, diviene per cosı̀ dire “insensibile”, ovvero refrattario,
agli stimoli che gli arrivano dagli altri neuroni.
La refrattarietà neuronale si distingue in genere in refrattarietà assoluta e refrattarietà relativa. La refrattarietà assoluta è quell’arco temporale (di circa 2ms) corrispondente alla durata del potenziale di azione in cui è impossibile che venga generato
un altro potenziale di azione. La refrattarietà relativa, che segue temporalmente la
refrattarietà assoluta, coincide con la fase di iperpolarizzazione del neurone in cui è
“difficile” ma non impossibile che il neurone venga eccitato fino ad emettere un altro
potenziale di azione. Conseguentemente il periodo di refrattarietà fornisce un limite
inferiore al minimo intervallo temporale tra due potenziali di azione consecutivi.
1.5
La membrana cellulare del neurone
La membrana cellulare del neurone (vedi figura 1.7) è composta da molecole di lipidi
e proteine. Le molecole lipidiche sono disposte in un doppio strato con uno spessore
di circa 6 nm. In questa matrice lipidica si trovano alcune molecole proteiche che
attraversano tutto lo spessore della membrana cellulare entrando quindi in contatto
sia con l’interno della cellula che con il liquido extracellulare. Tali particolari proteine prendono il nome di canali proteici, ovvero canali di membrana, canali acquosi
o canali ionici (la ragione di tali denominazioni sarà chiara a breve). La membrana
cellulare può essere attraversata dalle sostanze dall’esterno all’interno o viceversa
attraverso vari meccanismi. Vi sono ad esempio alcuni tipi di molecole (alcoli o
glicerolo) che attraversano la membrana sciogliendosi nel doppio strato lipidico e
riemergendo dall’altro lato; in tal caso la facilità di penetrazione dipende dal grado
Figura 1.6.
Rappresentazione della dinamica neuronale [15].
di solubilità nei lipidi. Gli ioni inorganici (sodio, potassio, calcio e cloro) che, come
abbiamo già detto, costituiscono le correnti ioniche alla base dell’attività elettrica
neuronale, si muovono attraverso la membrana o legandosi a particolare molecole
dette molecole di trasporto, che li veicolano, ovvero attraverso i canali proteici sopra
citati. Si noti comunque che il meccanismo di trasporto adottato durante la generazione di un potenziale di azione risulta quello dei canali proteici, in quanto i flussi
di ioni coinvolti (dell’ordine di 106 ioni/s) risultano ben oltre le possibilità di azione
delle molecole di trasporto. Nella struttura dei canali proteici (vedi figura 1.7) si
possono riconoscere i seguenti elementi:
• un poro centrale pieno d’acqua;
• una regione del poro che agisce da filtro di selettività regolando il transito degli
Figura 1.7.
a) Struttura della membrana cellulare del neurone; b) struttura di un
canale ionico [14].
ioni in base alle dimensioni ed alle caratteristiche chimico-fisiche;
• un sistema di porte (in inglese gates) che si aprono e si chiudono in modo
stocastico facendo oscillare il canale tra uno stato di apertura ed uno stato
di chiusura; di norma lo stato di chiusura predomina quando il potenziale di
membrana si trova al valore di riposo. 1 .
1.6
Canali ionici e correnti ioniche
Quando il canale ionico si trova in uno stato di apertura il canale è detto attivato,
altrimenti quando si trova in uno stato di chiusura è detto inattivato. È opportuno
sottolineare che essendo l’apertura e chiusura dei canali un processo di natura stocastica l’attivazione o disattivazione di un canale sta a significare solo un’aumentata
o diminuita probabilità di apertura del canale e non uno stato di apertura o chiusura
continua (vedi figura 1.8). Esistono varie modalità di attivazione, ossia di apertura,
di un canale. In particolare se l’apertura del canale può essere regolata dal valore
del potenziale di membrana i canali si dicono voltaggio-attivati. A titolo di esempio citiamo in questa categoria di canali, il canale voltaggio-dipendente del sodio
1
Esiste peraltro l’eccezione costituita da alcuni canali per i quali lo stato di apertura è predominante nella membrana a riposo: si tratta per lo più, come vedremo nel seguito, di quei canali del
cloro e del potassio che risultano responsabili proprio del valore del potenziale di riposo.
Figura 1.8. Esempio di corrente di canale. Come si vede tale corrente risulta di
impulsi di forma quasi rettangolare che possono essere posti in relazione con lo
stato di apertura e chiusura dei canali stessi [19].
che è quello responsabile della depolarizzazione della membrana che provoca la fase
di salita del potenziale di azione. Riguardo alla selettività alla specificità ionica, i
canali si possono distinguere in cationici e anionici a seconda che risultino rispettivamente permeabili agli ioni positivi o negativi. La permeabilità di una membrana
ad una specie ionica, indicata con p, è una proprietà intrinseca della membrana che
misura la “facilità” con cui gli ioni attraversano la membrana stessa; essa è definita
in modo empirico dalla relazione [8, 18]:
J = −p∆[C]
(1.1)
dove J è il flusso molare (misurato in mol/(cm2 ·s)) e ∆[C] rappresenta la differenza
di concentrazione ionica ai due lati della membrana (misurata in mol/cm3 ). P ha
le dimensioni di una velocità ed è solitamente misurata in cm/s. La permeabilità
dipende solo dal tipo e dal numero di canali ionici presenti sulla membrana. In
particolare i canali cationici possono essere specifici o non specifici qualora risultino
o meno specializzati per una particolare specie ionica (ad esempio si hanno canali
specifici del Na+ , K+ , Ca2+ ). I canali anionici risultano essenzialmente costituiti
dai canali del cloro (Cl− ), che è di gran lunga il maggior permeante anionico nelle
soluzioni biologiche.
La conduttanza è invece una misura dell’abilità della membrana di trasportare corrente elettrica ed è misurata solitamente in Siemens, con simbolo S, dove 1S = 1Ω −1 .
Poiché la corrente è trasportata dagli ioni, la conduttanza di una membrana non
dipenderà solo dalle proprietà della membrana (cioè dalla permeabilità) ma anche
dalla concentrazione ionica all’interno ed all’esterno della cellula (ovvero il numero
dei portatori liberi di carica). Non è tuttavia possibile ricavare una relazione matematica generale tra permeabilità e conduttanza perché tale relazione dipende strettamente dalle modalità con cui gli ioni attraversano il canale (semplice diffusione
attraverso i pori pieni d’acqua ovvero modelli più complicati che analizzano l’interazione canale-ione permeante). In generale quindi la corrente che attraversa un
canale ionico dipenderà [14, 20, 18]):
• dalla conduttanza del canale;
• dal gradiente di concentrazione tra l’interno e l’esterno della cellula che tende
a produrre un flusso dalla zona a maggior concentrazione a quella a minor
concentrazione secondo la legge empirica enunciata da Fick [18]:
Jdif f = −D
d[C]
dx
(1.2)
dove Jdif f rappresenta il flusso dovuto alla diffusione (misurato in numero di
ioni/(cm2 ·s)), D è il coefficiente di diffusione (misurato in cm2 /s) e [C] è la
concentrazione ionica (qui espressa in numero di ioni/cm3 );
• dalla differenza di potenziale applicata alla membrana.
1.7
1.7.1
Origine del potenziale di riposo
Un modello cellulare semplificato
In figura (1.9) è presentato un modello cellulare semplificato [14] ma che coglie
l’essenza dell’origine del potenziale di riposo della cellula neuronale. La cellula contiene ioni potassio (K + ), sodio (Na+ ), cloro (Cl− ) ed altri anioni (A− ) di grandi
dimensioni ed è a sua volta immersa in una soluzione di sodio, potassio e cloro. Le
Figura 1.9. Un modello semplificato per le distribuzioni ioniche all’interno ed
all’esterno della cellula. Le frecce rappresentano le direzioni dei gradienti di concentrazione ed elettrici per il potassio (K + ) e per il cloro (Cl− ). Le concentrazioni
sono espresse in millimoli per litro [14].
concentrazioni ioniche mostrate in figura sono espresse in millimoli per litro (che ha
per simbolo mM dove 1mM = 10−3 mol/l). Nelle cellule neuronali sono presenti
altri ioni, come il calcio e il magnesio, ma il loro contributo al potenziale di riposo
è trascurabile. In questo modello la membrana cellulare è completamente impermeabile al sodio ed all’anione interno (A− ) e risulta invece permeabile al potassio
ed al cloro. Il potassio risulta più concentrato dentro la cellula che fuori e tende
quindi a muoversi verso l’esterno secondo il proprio gradiente di concentrazione.
D’altro canto, come abbiamo precedentemente illustrato, la superficie interna della
membrana è negativa rispetto a quella esterna, e quindi il gradiente di potenziale
tende ad attrarre il potassio dentro la cellula. In una cellula a riposo il gradiente di
concentrazione ed il gradiente elettrico sono in equilibrio. Si definisce potenziale di
equilibrio di una specie ionica il valore del potenziale di membrana al quale non si ha
alcun flusso netto di quella specie ionica. Per il cloro il gradiente di concentrazione
ed il gradiente elettrico hanno direzione opposta rispetto al potassio.
1.7.2
L’equazione di Nerst
Il potenziale di equilibrio di ogni specie ionica è legato alle concentrazioni intracellulari ed extracellulari attraverso la cosiddetta equazione di Nerst:
Eione =
kB T [n]e
ln
q
[n]i
(1.3)
dove: Eione è il potenziale di equilibrio dello ione; [n]e , [n]i sono rispettivamente le
concentrazioni extracellulari ed intracellulari; kB ≃ 1.38 · 10−23 J/K è la costante
di Boltzmann; T è la temperatura assoluta in Kelvin; q è la carica elettrica (in
Coulomb) della specie ionica. È possibile capire l’origine dell’equazione di Nerst
attraverso il seguente ragionamento (vedi anche figura 1.10). Dalla meccanica sta′
tistica di Boltzmann per sistemi in equilibrio termico si ha che la probabilità p(U <
′
′
′
U < U + dU) che una molecola si trovi in uno stato di energia U < U < U + dU
′
′
risulta: p(U < U < U + dU) ∝ exp(−U/kB T ) [21]. Consideriamo adesso degli
ioni con carica positiva q in un campo elettrico statico. La loro energia nel punto
x risulta U(x) = qV (x) dove V (x) è il potenziale nel punto x. La probabilità di
trovare uno ione in una regione nell’intorno del punto x è perciò proporzionale alla
quantità exp(−qV (x)/kB T ). Reinterpretando la densità di probabilità come una
quantità proporzionale ad una densità ionica [n(x)], ovvero ad una concentrazione,
si ha:
p(U(x1 ))
[n(x1 )]
=
= exp(−q(V (x1 ) − V (x2 ))/kB T )
p(U(x2 ))
[n(x2 )]
(1.4)
e dunque all’equilibrio termodinamico si ha che un gradiente di potenziale elettrostatico ∆V = (V (x1 ) − V (x2 )) genera un gradiente di densità ionica . Ma poiché
questo è un assunto su uno stato di equilibrio la relazione deve valere anche nell’altro senso: ossia un gradiente di concentrazione genera un gradiente di potenziale
elettrostatico. Risolvendo la (1.4) rispetto al gradiente di potenziale si ha che all’equilibrio termodinamico vale ∆V =
kB T
q
2
ln [n]
che è appunto l’equazione di Nerst.
[n]1
La quantità kB T /q ha le dimensioni di una differenza di potenziale elettrico e per
Figura 1.10.
Origine del potenziale di Nerst [15].
una specie ionica monovalente (per la quale q = e, dove e ≃ 1.6 · 10−19 C è il valore
assoluto della carica dell’elettrone) è uguale a circa 25 mV a temperatura ambiente
(T ≃ 300 K). Per il modello cellulare mostrato in figura (1.9) nel quale il rapporto delle concentrazioni del cloro e del potassio è uguale e pari a 1:30 si avrà a
T ≃ 300 K: Ek ≃ −85 mV , ECl ≃ −85 mV . Nel modello cellulare semplificato,
essendo gli ioni potassio e cloro gli unici in grado di muoversi attraverso la membrana ed essendo entrambi in equilibrio a -85mV, la cellula non manifesta alcun
guadagno o perdita netta di ioni: il potenziale di riposo della cellula semplificata
coincide quindi con il potenziale di equilibrio del potassio e del cloro.
1.7.3
Effetto del sodio e pompe ioniche
Lo ione sodio (Na+ ) è molto più concentrato all’esterno che all’interno della cellula (vedi figura 1.9), dunque per opporsi all’ingresso del sodio dovuto al gradiente
di concentrazione la membrana deve avere una differenza di potenziale tra l’interno e l’esterno positiva: infatti usando le concentrazioni di figura (1.9) si ha che a
T ≃ 300 K il potenziale di equilibrio del sodio risulta EN a ≃ +34 mV . Dunque in
una cellula neuronale, dove il potenziale di riposo della membrana è negativo, sia
il gradiente di concentrazione, sia il potenziale di membrana favoriscono l’ingresso
del sodio. La membrana cellulare è scarsamente permeabile al sodio ma il sia pur
Figura 1.11.
Flussi ionici passivi e pompe ioniche in una cellula in stato
stazionario [14].
limitato ingresso di questo ione depolarizza leggermente la membrana rispetto al
potenziale di equilibrio del potassio, con la conseguenza che il potassio, fuori dall’equilibrio, fluisce verso l’esterno. Per mantenere lo stato di equilibrio (ovvero le
concentrazioni ioniche costanti) a fronte di queste perdite continue esistono delle
cosiddette pompe ioniche che trasportano il sodio fuori dalla cellula ed il potassio
dentro la cellula in modo da mantenere uno stato stazionario, ovvero una situazione
di equilibrio dinamico. Il più importante sistema di trasporto è costituito dalla pompa Na-K che trasporta tre ioni sodio fuori dalla cellula per ogni due ioni potassio
portati invece all’interno: in tal caso si dice che il rapporto di accoppiamento Na:K
della pompa è di 3:2. Tale situazione è rappresentata in figura (1.11) dove le frecce
tratteggiate indicano i movimenti ionici passivi (ovvero guidati solo dal bilancio tra
i gradienti elettrici e di concentrazione) mentre le frecce continue e i circoli indicano
le pompe ioniche. La lunghezza delle frecce indica l’entità dei movimenti netti ionici:
per ciascuno ione il flusso totale è nullo all’equilibrio.
1.7.4
Effetto della permeabilità ionica e dei meccanismi di
trasporto
Abbiamo visto nel paragrafo 1.7.2 che il potenziale di riposo della membrana è
determinato principalmente dal rapporto delle concentrazioni transmembranali del
potassio. Esiste tuttavia una dipendenza non solo dalle concentrazioni ioniche ma
anche dalla permeabilità alle specie ioniche. L’equazione di campo costante, detta
anche equazione GHK dagli autori D.E. Goldman [22], A.L. Hodgkin e B. Katz [23],
esprime tale dipendenza:
Eriposo =
kB T pk [K + ]e + pN a [Na+ ]e + pCl [Cl− ]i
;
ln
e
pk [K + ]i + pN a [Na+ ]i + pCl [Cl− ]e
(1.5)
dove Eriposo è il potenziale di riposo della membrana; e (valore assoluto della carica dell‘elettrone) indica la carica degli ioni monovalenti; il simbolo [I]j , dove I =
K + ,Na+ ,Cl− e j = i,e, indica la concentrazione interna ed esterna delle specie
ioniche; pk , pN a , pCl rappresentano le permeabilità ioniche di ogni ione.
Tale
equazione è basata sul presupposto che, a potenziale costante, non deve cambiare
la carica sulla membrana anche se gli ioni la attraversano in piccole quantità. Di
conseguenza le correnti trasportate dalle perdite di sodio verso l’interno, di potassio
verso l’esterno e dalle altre perdite del cloro devono dare come somma zero. Altrimenti si determinerebbe un accumulo, o una perdita, costante di carica e quindi una
deriva costante del potenziale di membrana. Il nome equazione di campo costante
è legato al fatto che una delle ipotesi alla base di essa è che il campo elettrico all’interno della membrana sia uniforme. Come si vede l’equazione ricorda quella di
Nerst ma considera tutte le specie ioniche presenti “pesate” con la loro permeabilità
e corrisponde pertanto a quello che intuitivamente era possibile aspettarsi: ovvero
che il potenziale di membrana tende tanto più al valore del potenziale di equilibrio
di una specie ionica quanto più la sua permeabilità è maggiore di quella delle altre
specie ioniche. È possibile dimostrare [14] che non vi è una grossa dipendenza del
potenziale di riposo dal cloro e pertanto il suo contributo è spesso trascurato; in tal
caso l’equazione di campo costante viene cosı̀ riscritta:
Eriposo =
kB T [K + ]e + b[Na+ ]e
;
ln
e
[K + ]i + b[Na+ ]i
(1.6)
dove b = pN a /pk . Una descrizione ancora più accurata è fornita dall’equazione di
stato stazionario [24] che considera anche gli effetti dei processi di trasporto attivo
della pompa ionica Na − K:
Eriposo =
kB T r[K + ]e + b[Na+ ]e
;
ln
e
r[K + ]i + b[Na+ ]i
(1.7)
dove r è il rapporto di accoppiamento del sistema di trasporto (nel caso della pompa Na − K si ha r = 3/2). Si capisce facilmente come gli effetti della pompa
si ripercuotano sul potenziale di membrana: infatti il diverso flusso di ioni Na+
e K + (tre ioni sodio fuori dalla cellula per ogni due ioni potassio portati invece
all’interno) causato dalla pompa genera una corrente ionica netta verso l’esterno;
questo flusso di cariche positive verso l’esterno tende a iperpolarizzare la membrana
ad un valore leggermente più negativo (ossia avvicina il potenziale di membrana
un po’ di più al potenziale di equilibrio del potassio) di quello che ci si aspetterebbe solo in base a meccanismi passivi. Per avere un’idea dell’entità del contributo delle pompe ioniche si confronti il valore del potenziale di riposo predetto
dall’equazione di campo costante e dall’equazione di stato stazionario relativamente
ad assoni di calamaro in acqua di mare alla temperatura di T ≃ 300 K: usando l’equazione di campo costante si trova Eriposo ≃ −67 mV , mentre usando l’equazione
di stato stazionario si trova Eriposo ≃ −73mV (abbiamo usato i seguenti valori realistici: [K + ]i = 400mM, [K + ]e = 10mM, [Na+ ]i = 50mM, [Na+ ]e = 460mM,
b = pN a /pk = 0.04, r = 1.5).
1.8
Proprietà elettriche passive della membrana
Da un punto di vista elettrico la più semplice schematizzazione di una porzione di
membrana cellulare a riposo fa ricorso a tre elementi circuitali: una resistenza (Rm ),
una capacità (Cm ), ed un generatore di tensione V uguale al potenziale di riposo
(vedi figura 1.12 e figura 1.13). La presenza della resistenza si spiega con l’esisten-
Figura 1.12.
Schematizzazione elettrica di una porzione di membrana cellulare
del neurone. Eriposo indica il potenziale di riposo [8].
Figura 1.13. Equivalente circuitale dell’intera membrana cellulare. I simboli Rm e
Cm in questo caso rappresentano il parallelo rispettivamente di tutte le resistenze
e le capacità delle singole porzioni di membrana; Eriposo indica il potenziale di
riposo; Iin rappresenta una corrente iniettata dentro la cellula [8].
za dei canali ionici che realizzano un contatto tra l’interno e l’esterno della cellula.
La resistenza di membrana è di solito riportata come una resistenza di membrana
specifica, rm , definita come una resistenza per unità di superficie (in unità Ω · cm2 ).
rm è quindi ottenuta dividendo Rm per l’area della membrana considerata. rm è determinata principalmente dalle permeabilità a riposo del potassio e del cloro. Valori
tipici di rm variano da circa 103 Ω · cm2 per membrane con molti canali ionici a
circa 5 x 104 Ω · cm2 per membrane con pochi canali ionici. Ma oltre a permettere il
passaggio di correnti ioniche, la membrana accumula cariche sulla superficie interna
ed esterna, ed è proprio questa separazione che detemina il potenziale di membrana.
La realizzazione di questa separazione di cariche conferisce alla membrana le proprietà di un condensatore. La capacità di membrana è di solito specificata in termini
di una capacità di membrana specifica, cm , definita come una capacità per unità
di superficie (in unità F/cm2 ). Cm è quindi ottenuta moltiplicando cm per l’area
della membrana considerata. cm è tipicamente dell’ordine di 1 µF/cm2 . Tramite
la relazione qm = cm V , dove qm è la quantità di carica per unità di superficie, ed
assumendo V ≃ -65mV si ha che qm ≃ (1µ F/cm2 ) x (65mV) ≃ 6.5 x 10−8 C/cm2
che equivale, dividendo per il valore assoluto della carica dell’elettrone, a circa 4
x 1011 ioni monovalenti per cm2 . Ci preme sottolineare che tale schematizzazione
descrive solo il comportamento passivo della membrana e non prende in considerazione eventuali componenti non lineari o attivi come ad esempio conduttanze
voltaggio-dipendenti.
Capitolo 2
Modelli semplificati di neuroni
Nella prima parte di questo capitolo introduciamo il primo modello realistico di
neurone, sviluppato nel 1952 da Hodgkin e Huxley per l’assone gigante del calamaro, che valse loro il premio Nobel per la medicina nel 1963. Hodgkin e Huxley
derivarono il loro modello in maniera fenomenologica, in modo da poter riprodurre
la fisiologia dell’assone gigante del calamaro e gli andamenti sperimentali non lineari
delle conduttanze associate alle correnti ioniche di membrana. Alcuni dei primi studi
sui potenziali di equilibrio per le varie specie ioniche furono fatti sull’assone gigante
del calamaro perché questo ha un diametro dell’ordine di 1 mm ed è dunque molto
grande rispetto al soma del neurone di un mammifero, che è dell’ordine di 70 µm,
quindi si presta meglio a studi di elettrofisiologia. Il modello di Hodgkin-Huxley
riproduce la dinamica del potenziale di membrana e il meccanismo di generazione
dei potenziali di azione, nonché l’andamento delle principali correnti ioniche di membrana. Tale modello è considerato il modello quantitativo che ha avuto il maggior
successo nelle neuroscienze: le schematizzazioni sviluppate da Hodgkin e Huxley per
l’assone gigante del calamaro hanno trovato negli anni passati e trovano anche oggi,
applicazione in centinaia di modelli per neuroni delle più diverse tipologie.
In questo capitolo inoltre spieghiamo come combinare tutti gli elementi costitutivi di un neurone (dendriti, sinapsi, conduttanze dipendenti dal potenziale, assoni)
al fine di ottenere un semplice modello funzionale della singola cellula. Questa operazione di semplificazione trascura la struttura dei dendriti e sostituisce la descrizione
dei processi di emissione dei potenziali di azione fondata sulle conduttanze (ovvero
la descrizione fornita dalle equazioni realistiche di Hodgkin-Huxley per le correnti di
membrana), con una descrizione basata sull’utilizzo di modelli formali, come il modello leaky integrate-and-fire 1, che tratteremo in dettaglio. Questo modello descrive
in modo estremamente semplificato la dinamica sottosoglia, cioè la dinamica prima
dell’emissione di un potenziale di azione, mentre il potenziale di azione è descritto sinteticamente come un evento stereotipato. In questo modo possiamo ridurre
notevolmente la complessità del problema e cosı̀ caratterizzare il comportamento dinamico dei neuroni attraverso una singola equazione differenziale ordinaria piuttosto
che tramite un sistema di più equazioni non lineari accoppiate. Tali semplificazioni
ci permettono di effettuare simulazioni numeriche di reti contenenti molti neuroni
del tipo leaky integrate-and-fire, data la rapidità di evoluzione del modello. Nei
prossimi capitoli tratteremo cosı̀ reti formate da un gran numero di neuroni interconnessi, al fine di simularne la dinamica e di analizzare la nascita e la stabilità di
soluzioni collettive non banali. La comprensione di un qualsiasi sistema complesso
passa per la scelta di un livello di descrizione che afferri le proprietà fondamentali
del sistema e trascuri quelle non essenziali allo scopo proposto.
1
Nel proseguo della tesi useremo questi anglicismi invece dei corrispondenti termini italiani
perché, ormai, sono invalsi nel linguaggio comune.
2.1
Dal modello di Hodgkin-Huxley al modello
leaky integrate-and-fire
Il modello di Hodgkin-Huxley è un modello realistico a quattro dimensioni (in cui
cioè la dinamica del neurone è descritta da quattro variabili), pensato per riprodurre
i dati sperimentali relativi ad una particolare fibra nervosa: l’assone gigante del
calamaro [25, 26]. Il modello matematico che L. Hodgkin e A. F. Huxley formularono
valse loro il premio Nobel per la medicina nel 1963 e rappresenta ancora un modello
attuale per lo studio della dinamica del singolo neurone. In particolare, questo
modello è costituito da un sistema di quattro equazioni differenziali del primo ordine
che descrivono la dinamica del potenziale di membrana e delle tre correnti ioniche
fondamentali: la corrente del sodio (IN a ), la corrente del potassio (IK ) e la corrente
di perdita, o di dispersione, (IL dall’inglese leakage current), dovuta principalmente
al cloro (Cl− ), ma che riassume anche l’effetto di altre specie ioniche minoritarie,
che non vengono descritte esplicitamente. Il meccanismo alla base di queste correnti
ioniche risiede nel fatto che le conduttanze della membrana cellulare per il sodio
(gN a ) e per il potassio (gK ) sono dipendenti dalla differenza di potenziale applicata
alla membrana, in particolare la probabilità che i canali si aprano aumenta con
la depolarizzazione della membrana. L’apertura dei canali per i vari ioni avviene
tuttavia con tempi e modalità diverse: la depolarizzazione della membrana attiva
inizialmente un aumento della conduttanza del sodio (seguita da una sua successiva
inattivazione) e solo con un certo ritardo temporale viene attivata la conduttanza
del potassio. Inoltre l’effetto sul potenziale di membrana dovuto all’aumento della
conduttanza è diverso per il sodio e per il potassio:
• per quanto riguarda il sodio si ha un processo di retroazione positiva; infatti
una piccola depolarizzazione aumenta il numero di canali aperti e questo, a
sua volta, dà luogo ad un ulteriore ingresso del sodio secondo il gradiente
Figura 2.1. Fase di salita del potenziale di azione. I segni + di colore nero indicano gli ioni N a+ che entrano nella cellula. Il gradino di tensione depolarizza la
membrana e fa aprire i canali sodio (li attiva); questo causa l’entrata del N a+ nella
cellula e ciò aumenta la depolarizzazione inducendo l’aumento della differenza di
potenziale fra l’interno e l’esterno della cellula.
elettrochimico e ad una depolarizzazione ancor più grande;
• per quanto riguarda il potassio, si ha invece che il flusso in uscita secondo
il gradiente elettrochimico, dovuto alla depolarizzazione, porta alla ripolarizzazione della membrana e quindi alla conseguente riduzione della conduttanza
fino al suo valore di riposo (retroazione negativa).
Il profilo tipico di un potenziale di azione è quindi spiegabile, per quanto riguarda
la fase di salita, con un improvviso grande aumento della permeabilità di membrana
al sodio (vedi figura 2.1); la conseguente corrente del sodio porta rapidamente il
potenziale di membrana a spostarsi verso il potenziale di equilibrio del sodio stesso
(EN a = 55 mV ).
La fase di caduta del potenziale di azione, ovvero la ripolar-
izzazione della membrana, è dovuta invece ad un successivo aumento della permeabilità al potassio (vedi figura 2.2): a causa della corrente ionica del potassio, il
potenziale di membrana si sposta questa volta, verso il potenziale di equilibrio del
potassio (Ek = −75 mV ). Si ha infine una fase di rilassamento del potenziale verso
il suo valore di riposo (Eriposo = −70 mV ).
Figura 2.2. Fase di caduta del potenziale di azione. I segni + di colore nero
indicano gli ioni N a+ , mentre i segni + di colore verde indicano gli ioni K + che
lasciano la cellula. Alla depolarizzazione segue infatti una inattivazione dei canali
N a; i canali K sono attivati con un certo ritardo e questo causa la fuoriuscita degli
ioni K + e la ripolarizzazione della membrana.
Figura 2.3. Ricostruzione teorica dell’andamento del potenziale d’azione e delle
relative variazioni della conduttanza del sodio gN a e del potassio gK in funzione
del tempo [14].
Il modello di Hodgkin-Huxley spiega inoltre l’esistenza di un livello di soglia
del potenziale di membrana al di sopra del quale viene emesso l’impulso, senza
richiedere alcuna discontinuità nella conduttanza del sodio (gN a ) o in quella del
potassio (gK ). Il fenomeno può essere compreso se immaginiamo di far passare una
corrente attraverso la membrana depolarizzandola solo sino alla soglia (Esoglia =
−55 mV ) e poi di interrompere la corrente. Essendo il potenziale di membrana
lontano dal potenziale di equilibrio del potassio, vi sarà un aumento della corrente
di potassio in uscita, ma verranno attivati anche alcuni canali di sodio, aumentando
la corrente di sodio in ingresso. Alla soglia questi aumenti di corrente sono uguali e
opposti (si ha un equilibrio dinamico), ma la conduttanza del sodio ora è instabile.
Infatti se nella cellula entra un solo ione di sodio in più, la depolarizzazione aumenta,
gN a aumenta, entra altro sodio e si innesca la retroazione positiva. Se d’altra parte
uno ione in più di potassio lascia la cellula, la depolarizzazione diminuisce, gN a
diminuisce, la corrente di sodio diminuisce e la prevalenza della corrente di potassio
determina la ripolarizzazione. Man mano che il potenziale di membrana si avvicina
al proprio livello di riposo, la corrente di potassio diminuisce poi fino ad eguagliare
nuovamente la corrente a riposo del sodio diretta verso l’interno. Riassumendo, la
depolarizzazione oltre la soglia determina un aumento di gN a sufficiente a innescare il
processo che porta all’emissione di un potenziale di azione, mentre depolarizzazioni
appena più deboli portano il potenziale di membrana a rilassarsi verso il suo valore
di riposo.
Un ultimo aspetto spiegabile con questo modello è il tempo di refrattarietà; come
già detto nel paragrafo (1.4), dopo l’emissione di un potenziale di azione abbiamo a
che fare con due periodi diversi di retrattarietà: il periodo di refrattarietà assoluto
e quello relativo. Il periodo refrattario assoluto coincide essenzialmente con l’intera
durata del potenziale di azione ed è causato dall’inattivazione dei canali Na+ che in
precedenza si erano aperti per depolarizzare la membrana; questi canali rimangono
inattivi finché la membrana non si ripolarizza, dopodiché si chiudono e si riattivano
riacquistando cosı̀ la loro capacità di aprirsi in risposta ad uno stimolo. Il periodo
refrattario relativo è successivo a quello assoluto; i canali potassio si aprono per terminare il potenziale di azione ripolarizzando la membrana, dunque la conduttanza
di membrana del potassio cresce drasticamente. Gli ioni K + che fluiscono in gran
numero fuori dalla cellula fanno sı̀ che il potenziale di membrana si avvicini molto al
potenziale di equilibrio del potassio; questo determina una breve iperpolarizzazione
della membrana, cosicché il potenziale di membrana diventa più negativo dell’usuale
potenziale di riposo (Eriposo = −70 mV ). Quindi, finché la conduttanza del potassio non ritorna di nuovo al suo valore di riposo, è necessario uno stimolo maggiore
per raggiungere il valore di soglia e dar vita ad una seconda depolarizzazione. Il
raggiungimento del potenziale di equilibrio di riposo determina la fine del periodo
di refrattarietà relativo.
Un neurone dunque genererà un potenziale di azione quando il suo potenziale di
membrana raggiungerà un valore di soglia compreso tra −55 e −50 mV . Durante
l’emissione del potenziale di azione, il potenziale di membrana descresce rapidamente e assume un valore che è iperpolarizzato rispetto al potenziale di soglia. Il
meccanismo per cui le conduttanze dipendenti dal potenziale K + e Na+ producono
dei potenziali di azione è ben compreso e modellizzabile accuratamente per il neurone del calamaro gigante.
D’altra parte, come vedremo nel paragrafo successivo, i modelli dei neuroni possono
essere semplificati se non vengono esplicitamente inclusi i meccanismi biofisici responsabili dei potenziali di azione. I modelli integrate-and-fire nascono da questa
semplificazione supponendo che il potenziale di azione sia generato ogni volta che il
potenziale di membrana del neurone modello raggiunge un valore di soglia Θ; dopo
l’emissione del potenziale di azione, al potenziale viene riassegnato un valore R inferiore al potenziale di soglia, R < Θ. Tali modelli formali partono dal presupposto
che un potenziale di azione costituisca un evento stereotipato, per cui viene descritta solo la dinamica sottosoglia da un’unica variabile che rappresenta il potenziale
di membrana (modello unidimensionale). Inoltre questi modelli non riproducono in
modo dettagliato i potenziali di azione né includono l’effetto di adattamento o il
tempo di refrattarietà. L’insorgenza del potenziale di azione è cosı̀ caratterizzata
solo dal tempo di sparo (o in inglese firing time).
2.2
Neuroni leaky integrate-and-fire
Il modello integrate-and-fire è stato proposto da Lapicque nel 1907 [27], molto prima
che fosse compreso il meccanismo di generazione dei potenziali di azione; nonostante
la sua semplicità, questo modello rappresenta tuttora una descrizione estremamente
utile dell’attività neuronale. Non volendo fornire una descrizione biofisica del potenziale di azione, a questi modelli rimane il compito, più semplice, di modellizzare la dinamica del potenziale di membrana sottosoglia. Questo compito può esser svolto con
vari livelli di rigore; nella versione più semplice, sono ignorate tutte le conduttanze di
membrana attive, compresi gli input sinaptici, e l’intera conduttanza di membrana
è schematizzata con un singolo termine di perdita, passivo, im = ḡL(V − EL ), con
im corrente di membrana, V potenziale di membrana, EL potenziale di riposo e ḡL
che rappresenta una conduttanza efficace di membrana a riposo. Questa versione è
denominata passiva o modello leaky integrate-and-fire (al quale ci riferiremo anche
come LIF). Sperimentalmente è noto che le conduttanze neuronali sono approssimativamente costanti per piccole fluttuazioni attorno al potenziale di membrana di
riposo; il modello LIF assume che questa costanza si mantenga nell’intero intervallo
di variazione del potenziale sottosoglia. Per alcuni neuroni, questa si rivela un’approssimazione ragionevole, mentre per altri meno.
Con queste approssimazioni il neurone si comporta come un circuito elettrico costituito da una resistenza ed una capacità in parallelo (figura 2.4) ed il potenziale di
membrana si determina cosı̀ attraverso l’equazione
cm
dV
Ie
= −im +
dt
A
(2.1)
dove cm è la capacità per unità di superficie della membrana, A è la superficie della
membrana, im è la corrente di membrana per unità di superficie ed Ie è la corrente
esterna iniettata nel neurone. Con im = ḡL (V − EL ) si ha infine
cm
dV
Ie
= −ḡL (V − EL ) + .
dt
A
(2.2)
È conveniente moltiplicare l’equazione (2.2) per la resistenza specifica di membrana
Figura 2.4.
Circuito equivalente per il modello di neurone. [15].
rm , data in questo caso da rm = 1/ḡL ; questo cancella il fattore ḡL nel membro a
destra dell’equazione e lascia un fattore cm rm = τm nel membro di sinistra, dove τm
è la costante di tempo di membrana del neurone. L’ultimo termine del membro di
destra diviene rm /A = Rm , dove Rm è la resistenza di membrana totale. Si arriva
cosı̀ all’equazione fondamentale per i modelli leaky integrate-and-fire:
τm
dV
= EL − V + Rm Ie .
dt
(2.3)
Per completare la dinamica del modello LIF occorre aggiungere una regola “ad
hoc”: riassegnare al potenziale il valore R ogniqualvolta il potenziale V raggiunga
il valore di soglia e venga emesso un potenziale di azione. L’equazione (2.3) mostra
che, quando Ie = 0, il potenziale di membrana si rilassa esponenzialmente con una
costante di tempo τm a V = EL ; EL è dunque il potenziale di riposo della cellula
modello.
Il potenziale di membrana per il modello passivo integrate-and-fire è determinato
integrando l’equazione (2.3) e applicando la regola aggiuntiva riguardo alla soglia
ed alla riassegnazione del valore del potenziale per la generazione del potenziale di
azione. In figura (2.5) è mostrata la risposta di un neurone LIF ad una corrente
esterna che varia nel tempo.
Figura 2.5. Modello leaky integrate-and-fire guidato da una corrente esterna che
varia temporalmente. Il grafico superiore indica il potenziale di membrana, mentre
quello inferiore la corrente applicata. I potenziali d’azione sono semplicemente
sovrapposti alla traiettoria del potenziale di membrana ogniqualvolta il potenziale
raggiunga il valore di soglia. [9].
La frequenza d’emissione dei potenziali d’azione di un modello LIF in risposta
ad una corrente iniettata costante può essere calcolata analiticamente. Quando Ie è
indipendente dal tempo, il potenziale sottosoglia V (t) può essere facilmente calcolato
risolvendo l’equazione (2.3):
V (t) = EL + Rm Ie + (V (0) − EL − Rm Ie )exp(−t/τm ),
(2.4)
dove V (0) è il valore di V al tempo t = 0. Questa equazione è valida per il modello
passivo solo finché V rimane sottosoglia. Supponiamo che a t = 0 il neurone abbia
appena emesso un potenziale di azione e si abbia quindi V (0+ ) = R; il potenziale
di azione successivo verrà emesso quando il potenziale di membrana raggiungerà il
valore di soglia Θ, cioè, ad un tempo t = tisi dove
V (tisi ) = Θ = EL + Rm Ie + (R − EL − Rm Ie )exp(−tisi /τm ).
(2.5)
Risolvendo per tisi , ovvero per il tempo a cui si ha il potenziale di azione successivo,
possiamo determinare l’intervallo tra uno sparo e l’altro (in inglese interspike interval
o ISI) per una corrente Ie costante, o, equivalentemente, il suo inverso, che possiamo
chiamare frequenza d’emissione dei potenziali d’azione del neurone,
risi
1
Rm Ie + El − R
=
= τm ln(
)
tisi
Rm Ie + EL − Θ
−1
.
(2.6)
Questa espressione è valida se Rm Ie > Θ − EL , altrimenti risi = 0. Per valori
sufficientemente grandi di Ie , possiamo espandere al primo ordine l’equazione (2.6)
ed ottenere
risi
"
#
Rm Ie + El − Θ
≈
,
τm (Θ − R)
(2.7)
che mostra come la frequenza di emissione cresca linearmente con Ie per grandi
valori di Ie .
La figura (2.6A) mostra che la frequenza di emissione dei potenziali di azione,
determinata come l’inverso dell’intervallo temporale tra i primi due impulsi emessi
da un neurone corticale in vivo in risposta ad una corrente iniettata (cerchi pieni), è
in accordo con i risultati ricavati dal modello LIF, anche se il neurone reale esibisce
una caratteristica di adattamento della frequenza di emissione prima di raggiungere
uno stato stazionario (figura 2.6B), che non è inclusa in questa semplice versione del
modello.
2.2.1
Correnti sinaptiche
Nel caso in cui il neurone riceva degli impulsi da altri neuroni, la cosa si può schematizzare nell’ambito dei modelli LIF sostituendo alla corrente esterna Ie , che compare
Figura 2.6. (A) Confronto delle frequenze di emissione dei potenziali d’azione in
funzione della corrente iniettata, calcolate l’una con il modello integrate-and-fire,
l’altra attraverso le misure su un neurone corticale in vivo. I punti derivano da
una cellula piramidale nella corteccia visiva primaria di un gatto. I cerchi pieni
mostrano l’inverso dell’ISI per i primi due impulsi emessi, mentre i cerchi vuoti
mostrano la frequenza di emissione degli impulsi nello stato quasi stazionario, dopo
l’adattamento della frequenza stessa. (B) Registrazione dell’attività di un neurone
corticale, soggetto ad una corrente iniettata costante, in cui è visibile l’adattamento della frequenza di emissione. (C) Traiettoria del potenziale di membrana e
potenziali di azione per un modello integrate-and-fire con una corrente aggiuntiva
Ia (vedi paragrafo 2.2.2). [9].
nell’equazione (2.3), la corrente sinaptica Isin . In particolare l’effetto prodotto da
un solo impulso ricevuto dal neurone al tempo t corrisponde ad una corrente postsinaptica che si può scrivere nel seguente modo:
Isin = −Gm [V + W ]τm δ(t)
(2.8)
per una sinapsi che risponda in modo infinitamente rapido [28]. In questa equazione
Gm = 1/Rm è la conduttanza di membrana, mentre W è il potenziale di inversione
della sinapsi il cui segno determina se l’effetto dell’impulso è eccitatorio o inibitorio.
Dato che il potenziale di membrana V ha segno negativo, la sinapsi è detta eccitatoria
(rispettivamente inibitoria) se W < 0 (W > 0); il segno di V è all’origine anche del
segno negativo nell’equazione (2.8). Nel caso in cui il neurone sia connesso ad altri
N neuroni pre-sinaptici il modello LIF si può riscrivere come
τm V̇ = EL − V − τm (V + W )
(k)
dove il tempo tj
N X
X
j=1 k
(k)
δ(t − tj ) ,
(2.9)
rappresenta l’istante di ricezione dell’impulso k-esimo emesso dal
j-esimo neurone pre-sinaptico.
-50
Θ
-52
-54
V
-56
-58
R
-60
150
175
tempo
200
Figura 2.7. Andamento temporale del potenziale di membrana per un neurone
LIF soprasoglia in assenza di stimoli presinaptici. Le frecce indicano l’istante in
cui avviene l’emissione di un potenziale di azione.
Un modello ancora più semplificato, ma largamente usato in letteratura e che
mette in connessione la dinamica del modello LIF con quella di oscillatori di fase è
il seguente [6]
v̇ = a − v −
N X
X
j=1 k
(k)
δ(t − tj ) ,
(2.10)
dove si è assunto che EL = 0, che il tempo unitario sia τm e che il potenziale di
membrana sia stato riscalato come v = (V − R)/(Θ − R), in modo che il valore di
soglia sia 1, mentre il valore di riazzeramento sia 0, quindi v ∈ [0,1]. Nell’equazione
(2.10) il termine a rappresenta una corrente esterna adimensionale. In assenza di
stimoli esterni, la soluzione dell’equazione (2.10) è semplicemente v(t) = a(1 −
exp(−t)), quindi se a < 1 il suo valore asintotico resta sempre sottosoglia (essendo
la soglia posta ad 1), altrimenti se a > 1 il potenziale di membrana raggiunge soglia
e viene riazzerato in modo ripetitivo con periodo tisi = ln[(a − 1)/a]. In questo
ultimo caso il neurone è detto soprasoglia e la sua dinamica ricorda quella di un
semplice oscillatore armonico sovrasmorzato. Tale dinamica è riportata in figura
(2.7). Questo modello sarà oggetto degli studi sviluppati nel cap.4.
2.2.2
Adattamento della frequenza di emissione degli impulsi e refrattarietà
L’adattamento della frequenza di emissione dei potenziali d’azione è una caratteristica comune dei neuroni piramidali della corteccia celebrale dei mammiferi e consiste
nell’allungamento degli ISI col passare del tempo in presenza di una corrente costante
iniettata nella cellula, sino a giungere ad una frequenza di emissione stazionaria (vedi figura 2.6). La considerazione di questo fenomeno ci permette di mostrare come
un modello LIF possa essere modificato per incorporare una dinamica più complessa. Il modello LIF che abbiamo descritto nel paragrafo precedente è basato su
due approssimazioni distinte: una descrizione altamente semplificata del potenziale
di azione e l’assunzione di una dipendenza lineare dal potenziale di membrana per
la corrente ionica complessiva. Il processo di adattamento della frequenza di emissione degli impulsi può essere incluso nel modello LIF aggiungendo all’equazione
fondamentale un’ulteriore termine di corrente Ia = −rm gsra(V − EK ),
τm
dV
= EL − V − rm gsra (V − EK ) + Rm Ie .
dt
(2.11)
La conduttanza associata all’adattamento della frequenza di emissione degli impulsi
gsra è stata schematizzata come una conduttanza K + , cosicché, quando viene attivata, iperpolarizza il neurone, rallentando qualsiasi impulso che può sopraggiungere.
EK è il potenziale di inversione del potassio. Assumiamo che questa conduttanza si rilassi esponenzialmente a 0 con una costante temporale τsra soddisfacendo
l’equazione
τsra
dgsra
= −gsra .
dt
(2.12)
Ogniqualvolta un neurone genera un impulso, gsra è accresciuto di un fattore ∆gsra ,
cioè gsra → gsra + ∆gsra ; durante una sequenza di potenziali d’azione emessi, la
corrente si modifica attraverso una sequenza di passi successivi che causano una
diminuzione della frequenza di emissione (come mostrato in figura 2.6).
La probabilità che un neurone spari è significativamente ridotta nel breve lasso temporale successivo alla generazione di un potenziale di azione; tale effetto di
refrattarietà non è incluso nel modello base LIF. Il modo più semplice per introdurre nel modello un periodo di refrattarietà assoluto è quello di aggiungere una
condizione alla regola base di superamento della soglia tale che proibisca l’emissione
di un altro potenziale di azione per un periodo di tempo immediatamente successivo
all’emissione dell’impulso. La refrattarietà può essere incorporata in un modo più
realistico aggiungendo una conduttanza simile a quella introdotta per l’adattamento in frequenza di emissione dei potenziali di azione; stavolta però la conduttanza
dovrà avere un tempo di recupero più veloce ed un incremento più grande in seguito all’emissione di un potenziale di azione. Grazie ad un consistente incremento,
dovuto all’emissione di un potenziale di azione, il valore del potenziale del neurone
si avvicina al potenziale di equilibrio del potassio EK , prevenendo in maniera temporanea un ulteriore sparo e producendo un periodo di refrattarietà assoluto. Nel
momento in cui questa conduttanza si avvicina a zero, l’emissione del potenziale
di azione sarà nuovamente possibile anche se inizialmente poco probabile. Questo
meccanismo produce cosı̀ anche un periodo di refrattarietà relativo.
Capitolo 3
Modelli di reti neurali ad
accoppiamento impulsivo
I singoli neuroni, di svariate tipologie e morfologie, sono connessi in reti assai complesse tramite sinapsi chimiche ed elettriche nelle varie aree del cervello, presenti in
tutti i vertebrati e in molti invertebrati. Ad esempio, il cervello umano contiene circa
100 miliardi di neuroni ed ogni neurone può essere connesso ad un gran numero di
altri neuroni, sino a 10 mila. La complessità della rete cerebrale è tale da non poter
essere studiata in modo numerico (o teorico) con un approccio diretto, cioè realizzando una riproduzione il più fedele possibile del cervello o di porzioni di esso, questo sia
perché entrare in dettagli estremi di descrizione della rete neurale rischia, a causa
della presenza di un numero elevatissimo di parametri da calibrare, di rendere lo
stato della rete sensibilissimo a piccole variazioni dei parametri stessi, sia perché da
un punto di vista numerico, la simulazione di questa rete diverrebbe assai onerosa
in termini di calcolo, rendendo possibili solo simulazioni per brevissimi intervalli
temporali. Per lo studio della dinamica di reti neurali è allora necessario ricorrere a
modelli mesoscopici, che si possono ottenere con vari livelli di approssimazione. In
questo e nel prossimo capitolo ci occuperemo di reti di neuroni leaky integrate-andfire ad accoppiamento impulsivo, sia globalmente connesse, che con diluizione nella
connettività. Nonostante l’estrema semplicità dei modelli di rete considerate, queste
danno luogo a dinamiche collettive assolutamente non banali. Nel primo paragrafo
introdurremo un modello di rete leaky integrate-and-fire globalmente accoppiata;
ridurremo le equazioni differenziali che ne descrivono la dinamica ad una mappa a
tempo discreto ed introdurremo l’analisi di stabilità lineare relativa ai modelli in
questione. Nel secondo paragrafo effettueremo l’analisi di stabilità di stati collettivi
della rete, distinguendo tra i modi di lunghezze d’onda grandi e quelli di lunghezze
d’onda brevi. Infine nell’ultimo paragrafo considereremo una rete diluita ed analizzeremo gli effetti che tale diluizione comporta, come l’osservazione, in regime di
caos stabile, di transitori che divergono esponenzialmente con il numero di neuroni
della rete. .
3.1
Reti neurali con accoppiamento impulsivo
Una rete neurale è, formalmente, un grafo i cui nodi sono costituiti dai neuroni e
le cui connessioni rappresentano le sinapsi; in particolare, ciascuna connessione è
pesata con la corrispondente efficienza sinaptica [8]. Le sinapsi costituiscono cosı̀ un
grafo con connessioni unidirezionali ed orientate. Ciascun nodo è caratterizzato da
un’equazione di evoluzione in cui lo stato del neurone dipende dai neuroni connessi
ad esso, ovvero dai neuroni presinaptici; i pesi sinaptici possono essere fissati oppure
possono anche evolvere nel tempo (plasticità sinaptica), in accordo con la storia dei
due nodi connessi dalla sinapsi [9, 20]. Se consideriamo le reti neurali come sistemi
dinamici, possiamo dare una formulazione canonica della dinamica neurale; ciascun
neurone i è caratterizzato dal suo stato, xi , che appartiene ad un certo insieme
compatto Ξ ∈ Rq , dove q è il numero di variabili che caratterizzano lo stato di un
neurone. Assumiamo inoltre che tutti i neuroni siano descritti dallo stesso numero di
variabili. Il LIF corrisponde al caso in cui q = 1, xi = Vi è il potenziale di membrana
del neuroni i e Ξ = [R,Θ], come mostrato nel paragrafo (2.2). L’evoluzione di N
neuroni è data cosı̀ da un sistema dinamico deterministico del tipo:
dx
= Fγ (x,t),
dt
tempo continuo,
(3.1)
o,
x(t + 1) = fγ [x(t),t],
tempo discreto.
(3.2)
La variabile x = {xi }N
i=1 rappresenta lo stato dinamico di una rete con N neuroni
al tempo t; tipicamente x ∈ M = Ξ N , dove M è lo spazio delle fasi dell’equazione
(3.2) ed Fγ (M) ⊂ M. La funzione Fγ : M → M dipende da un insieme di
parametri γ ∈ Rp ; il caso tipicamente considerato in seguito sarà γ = (Gc , I(ext) ),
dove Gc è la matrice N × N dei pesi sinaptici, mentre I(ext) rappresenta il vettore
N-dimensionale delle correnti o stimoli esterni ricevuti dai singoli neuroni. Cosı̀ γ
è un punto nello spazio dei parametri di controllo di dimensione p = N 2 + N.
Un neurone i emette un potenziale d’azione ogni qual volta il suo stato xi appartiene ad una certa regione connessa P1 del suo spazio delle fasi, altrimenti è quiescente se x ∈ P0 = Ξ\P1 . Per N neuroni identici questo porta ad una “partizione
naturale” P dello spazio delle fasi M. Chiamiamo Γ = {0,1}N , ω = [ωi ]N
i=1 ∈ Γ ,
allora P = {Pω }ω∈Γ , dove Pω = Pω1 ×Pω2 × · · · × PωN . Equivalentemente, se
x ∈ Pω , si ha che tutti i neuroni con ωi = 1 stanno emettendo impulsi, mentre
quelli con ωk = 0 sono quiescenti.
A ciascuna condizione iniziale x ∈ M possiamo associare un “raster plot” definito come ω̃ ≡ {ω(t)}+∞
t=0 tale che x(t) ∈ Pω (t) , ∀t ≥ 0; cosı̀ ω̃ è la sequenza di
configurazioni successive dei neuroni della rete che emettono impulsi quando viene
preparata nella condizione iniziale x (vedi figura 3.1). Il “raster plot” è la successione dei tempi di emissione dei potenziali di azione di tutti i neuroni della rete
100
0.8
80
Indice di Neurone
1
0.6
vk
0.4
0.2
60
40
20
(a)
0
226
226.2
226.4
226.6
Tempo
226.8
227
227.2
(b)
0
1750
1800
1850
1900
1950
Tempo
Figura 3.1. (a) La figura mostra l’andamento del potenziale di membrana del kesimo neurone in funzione del tempo, in una rete omogenea di N neuroni. (b) Nella
seconda figura è riportato l’indice del neurone che emette un impulso in funzione
del tempo, una volta che gli indici dei neuroni sono stati inizialmente ordinati.
Questo “raster plot” corrisponde ad uno stato asincrono. [10]
che partecipano alla dinamica soprasoglia. Ad esempio, supponiamo di aver a che
fare con una rete omogenea di N neuroni. In questo caso l’ordine con cui i vari
neuroni emettono in sequenza potenziali d’azione non cambia nel tempo [11]; allora
nel caso dello stato asincrono (o ”splay state” di cui parleremo nel paragrafo 3.1.1),
caratterizzato da una frequenza di sparo costante T /N, ove T è l’ISI uguale per ogni
neurone, il raster plot assume il semplice aspetto riportato in figura (3.1)
3.1.1
Modello di rete di neuroni LIF globalmente accoppiati
La comprensione di alcuni aspetti dei meccanismi di elaborazione dell’informazione
nel cervello può essere perseguita analizzando le proprietà dinamiche dei modelli di
reti neurali; pensare di avvicinarsi a questo problema nella sua assoluta generalità
è un obiettivo incredibilmente ambizioso, dal momento che occorre tenere in conto
(i) del ruolo della topologia delle connessioni, (ii) della dinamica delle stesse connessioni, al fine di rappresentare la plasticità sinaptica, (iii) della dinamica interna a
ciascun modello di neurone, che può dipendere dal numero di canali ionici ma anche
da altre variabili e parametri, (iv) dalla diversità tra i neuroni e le loro connessioni e,
infine, (v) dall’inevitabile presenza di rumore. Ad ogni modo possiamo congetturare
che almeno alcuni meccanismi di base siano robusti e possano dipendere solo da
pochi ingredienti; infatti anche i modelli semplici composti da unità identiche globalmente accoppiate esibiscono proprietà dinamiche interessanti e, indubbiamente,
non ovvie e non totalmente comprese. Consideriamo ad esempio il cosidetto “splay
state” (o stato asincrono), che costituisce un modo collettivo che emerge in reti di
oscillatori non lineari completamente accoppiati (vedi figura 3.1) [5]; questo stato è
caratterizzato dal fatto che tutte le oscillazioni abbiano la stessa forma d’onda X e
che le fasi di tali oscillatori si dispongano sul cerchio unitario nel piano complesso
in modo equispaziato. In questo caso lo stato del singolo oscillatore xk può essere
descritto al tempo t da
xk (t) = X(t + kT /N) = A cos(ωt + 2πk/N);
ω = 2π/T ;
k = 1, · · · ,N
(3.3)
dove N è il numero di oscillatori del sistema, T il periodo dell’oscillazione collettiva,
X la forma d’onda comune, 2πk/N è la fase di ogni oscillatore ed A l’ampiezza
dell’oscillazione stessa. La stabilità degli stati stazionari di questi sistemi è ancora
un problema dibattuto [5, 12].
Il metodo usato di solito per determinare le proprietà di stabilità di tali semplici modelli è basato sull’approssimazione di campo medio [5]; questo ci permette
di ottenere lo spettro degli autovalori associati alla matrice di stabilità nel limite termodinamico N → ∞, dove N denota il numero di neuroni. La stima della
stabilità lineare dello stato asincrono costituisce il passo preliminare verso una completa comprensione delle proprietà dinamiche della rete neurale; per effettuare tale
stima si può introdurre la sezione di Poincaré, (vedi appendice B), che trasforma il
sistema dinamico originale in una mappa che connette le configurazioni dinamiche
della rete neurale corrispondenti a istanti successivi in cui si ha l’emissione di impulsi
consecutivi da parte di un neurone qualsiasi della rete come vedremo nei paragrafi
successivi.
Consideriamo dunque una rete di N neuroni identici LIF; la dinamica dell’iesimo neurone è descritta da una singola variabile, il potenziale di membrana vi (t),
che obbedisce all’equazione differenziale
v̇i = a − vi + gE(t),
i = 1, · · · ,N,
(3.4)
dove tutte le variabili e i parametri sono espressi in unità adimensionali opportunamente riscalate (vedi paragrafo 2.2.1). In accordo con la precedente equazione,
in assenza del campo esterno E(t) e per a > 1, il potenziale di membrana rilassa
al valore a, ma, non appena raggiunge il valore di soglia vi = 1, viene riscalato a
vi = 0 e viene inviato, simultaneamente, un impulso a tutti gli altri neuroni (questa
procedura di riassegnazione del valore del potenziale è un modo approssimato per
descrivere il meccanismo di scarica presente nei neuroni reali). Come già ricordato
nel paragrafo (2.2.1) il parametro a > 1 corrisponde alla corrente di ingresso soprasoglia, mentre g regola l’ampiezza del campo E(t) agendo come accoppiamento
efficace. Il campo E(t) è la sovrapposizione lineare degli impulsi emessi nel passato
ogniqualvolta il potenziale di membrana di ciascun singolo neurone raggiunge il valore di soglia. Assumendo che la forma di ogni impulso sia data da Es (t) =
α2 t −αt
e
N
,
dove 1/α è la larghezza temporale dell’impulso [5], allora l’evoluzione del campo
totale è data dall’equazione [5]:
Ë(t) + 2αĖ(t) + α2 E(t) =
α2 X
δ(t − tn ) ,
N n|tn <t
(3.5)
dove la sommatoria nel membro a destra rappresenta il termine di sorgente dovuto
agli impulsi emessi a tempi tn < t. Quindi la dinamica della rete è data da N
equazioni differenziali ordinarie del primo ordine del tipo (3.4) più la (3.5) che è
un’equazione del secondo ordine e descrive l’evoluzione del campo. In totale si
hanno quindi N + 2 gradi di libertà.
3.1.2
Mappa guidata dall’evento
È conveniente trasformare le equazioni differenziali in una mappa a tempo discreto;
per fare questo occorre integrare l’equazione (3.5) tra il tempo tn e il tempo tn+1 ,
dove tn è il tempo immediatamente successivo all’emissione dell’n-simo impulso. La
mappa risultante associata alla dinamica del campo macroscopico E è
E(n + 1) = E(n)e−ατ (n) + NQ(n)τ (n)e−ατ (n)
Q(n + 1) = Q(n)e−ατ (n) +
α2
,
N2
(3.6)
(3.7)
dove τ (n) = tn+1 − tn è l’intervallo temporale tra un impulso e il successivo e
dove abbiamo introdotto la nuova variabile Q := (αE + Ė)/N. L’equazione (3.4)
può essere integrata esplicitando la dipendenza temporale nota del campo E fra un
impulso e l’altro,
vi (n + 1) = vi (n)e−τ (n) + a 1 − e−τ (n) + gF (n)
i = 1, . . . ,N .
(3.8)
dove F è
e−τ (n) − e−ατ (n)
NQ(n)
τ (n)e−ατ (n)
F (n) =
E(n) +
−
NQ(n) .
α−1
α−1
(α − 1)
!
(3.9)
L’intervallo temporale tra un impulso e il successivo τ è ottenuto imponendo la
condizione vm (n + 1) = 1,
"
vm (n) − a
τ (n) = ln
1 − gF (n) − a
#
.
(3.10)
dove l’indice m identifica il neurone più vicino a soglia al tempo τ . Le equazioni
(3.8) e (3.9) possono essere scritte in una forma più compatta esprimendo F (n) come
funzione di τ (n) per mezzo dell’equazione (3.10), cioè
vi (n + 1) = vi (n)e−τ (n) + 1 − vm (n)e−τ (n)
j = 1, . . . ,N − 1 .
(3.11)
Dal momento che in una rete di neuroni indistinguibili globalmente accoppiati viene
preservato l’ordine dei potenziali vi [11], è conveniente per prima cosa ordinarli e
poi mettersi in un sistema di riferimento solidale con uno qualsiasi dei neuroni;
si ha perciò la trasformazione di variabili xj (n) = vj−n (n). In questo sistema di
riferimento l’indice del neurone più vicino a soglia è sempre lo stesso e può essere
scelto uguale a 1, senza perdere in generalità; l’equazione di evoluzione può dunque
essere riscritta come
xj−1 (n + 1) = xj (n)e−τ (n) + 1 − x1 (n)e−τ (n)
j = 1, . . . ,N − 1 ,
(3.12)
con la condizione al contorno xN = 0 e dove,
"
x1 (n) − a
τ (n) = ln
1 − gF (n) − a
#
.
(3.13)
L’insieme di equazioni (3.6, 3.7, 3.12, 3.13, 3.9) definisce una mappa a tempo
discreto che è completamente equivalente all’insieme di equazioni differenziali di
partenza. Si ottiene cosı̀ che una rete di N neuroni identici può essere descritta
per mezzo di N + 1 equazioni, due delle quali tengono conto della dinamica del
campo macroscopico, mentre le rimanenti N − 1 equazioni descrivono l’evoluzione
dei neuroni. Un grado di libertà è stato perso a causa della sezione di Poincaré
effettuata (ovvero xN non è più una variabile dal momento che è stata posta, per
definizione, sempre uguale a 0). Inoltre, in questo sistema di riferimento, lo stato
asincrono periodico si riduce ad un punto fisso che soddisfa le seguenti condizioni:
τ (n) ≡
T
,
N
E(n) ≡ Ẽ ,
(3.14)
Q(n) ≡ Q̃ ,
x̃j−1 = x̃j e−T /N + 1 − x̃1 e−T /N ,
(3.15)
(3.16)
dove T è il tempo che intercorre tra due emissioni di impulso consecutive dello stesso
neurone. Attraverso un semplice calcolo si ottiene
Q̃ =
−1
α2 −αT /N −1
αT /N
1
−
e
,
Ẽ
=
T
Q̃
e
−
1
.
N2
La soluzione dell’equazione (3.16) coinvolge una serie geometrica, la quale, insieme
alla condizione al contorno x̃N = 0, porta ad un’equazione trascendente per il periodo T . Per semplicità riportiamo la soluzione esplicita contenente solo i termini
all’ordine O(1/N) nel limite N ≫ 1,
aT + g 1 − e−j T /N ,
"T
#
aT + g
T = ln
.
(a − 1)T + g
x̃N −j =
(3.17)
(3.18)
Se supponiamo di aver a che fare con neuroni soprasoglia, cioè se prendiamo a > 1,
il periodo T è ben definito nel caso eccitatorio (g > 0) solo per g < 1 (T → 0
quando g si avvicina ad 1), mentre nel caso inibitorio (g < 0), esiste una soluzione
significativa per qualsiasi valore dell’accoppiamento (inoltre T → ∞ per g → −∞).
3.1.3
Analisi di stabilità lineare
Al fine di effettuare l’analisi di stabilità dello stato asincrono, è necessario linearizzare le equazioni (3.6, 3.7, 3.12) attorno al punto fisso (3.14, 3.15, 3.16), cioè:
δE(n + 1) = e−αT /N δE(n) + T e−αT /N δQ(n)
−
(3.19)
αẼ − N Q̃e−αT /N δτ (n) ,
δQ(n + 1) = e−αT /N δQ(n) − αQ̃e−αT /N δτ (n) ,
δxj−1 (n + 1) = e−T /N [δxj (n) − δx1 (n)] + e−T /N (x̃1 − x̃j )δτ (n) ,
(3.20)
(3.21)
dove δE, δQ, {δx} rappresentano le perturbazioni lineari delle variabili corrispondenti e dove abbiamo introdotto per sinteticità δτ (n), la cui espressione può essere
ottenuta linearizzando le equazioni (3.9, 3.13)
δτ (n) = τx δx1 (n) + τE δE(n) + τQ δQ(n) ,
con τx := ∂τ /∂x1 , τE := ∂τ /∂E e τQ := ∂τ /∂Q.
(3.22)
1.0
Im{µk}
0.5
0.0
-0.5
-1.0
-1.0
-0.5
0.0
Re{µκ}
0.5
1.0
Figura 3.2. Cerchio unitario e spettro dei moltiplicatori di Floquet per la mappa
completa per N = 20 (cerchi rossi) e N = 10 (cerchi blue) per accoppiamento
eccitatorio. I parametri sono a = 3.0, g = 0.4, e α = 30.0.[10]
La condizione al contorno xN ≡ 0 dovuta al sistema di riferimento mobile impone
che δxN = 0. In pratica, il problema di stabilità è risolto calcolando lo spettro
dei moltiplicatori di Floquet1 {µk }, k = 1, · · · ,N + 1, associati con il problema agli
autovalori dell’insieme di equazioni lineari (3.19, 3.20, 3.21); tale calcolo deve essere,
in generale, effettuato, numericamente. Discutiamo innanzitutto il caso banale g =
0; in questo caso si trova che µk = exp(iϕk ), dove ϕk =
2πk
,
N
k = 1, · · · ,N − 1, e
µN = µN +1 = exp(−αT /N). Gli ultimi due esponenti interessano la dinamica del
campo E(t), il cui decadimento è regolato dalla scala temporale α−1 . Non appena
l’accoppiamento g > 0, piccole fluttuazioni di ampiezza ∼ O(g/N) influenzano la
dinamica dei neuroni e i moltiplicatori dello spettro di Floquet assumono la forma
generica
µk = eiϕk eT (γk +iωk )/N , ϕk =
2πk
, k = 1, . . . ,N − 1 ,
N
(3.23)
µN = eT (γN +iωN )/N , µN +1 = eT (γN+1 +iωN+1 )/N ,
dove γk e ωk sono la parte reale e immaginaria degli esponenti di Floquet.
In figura (3.2) mostriamo lo spettro dei moltiplicatori di Floquet dello stato asincrono nel caso di accoppiamento eccitatorio e valori di N finiti. I moltiplicatori con
1
La teoria generale dell’analisi di stabilità per mezzo dello spettro dei moltiplicatori di Floquet
sarà discussa in dettaglio in appendice C.1.
k = 1, · · · ,N − 1 sono molto vicini al cerchio unitario, mentre i due moltiplicatori
isolati µN e µN +1 giacciono molto vicini all’asse reale all’interno del cerchio unitario.
Dal momento che, già per g/N ≈ O(10−2 ), i moltiplicatori del caso accoppiato possono essere visti come una piccola “perturbazione” del caso non accoppiato (cioè
con g = 0), possiamo cercare di dar vita ad un approccio perturbativo. Prima di effettuare questo tipo di analisi occorre sottolineare che la variabile ϕk gioca un ruolo
analogo a quello del numero d’onda nell’analisi di stabilità lineare di sistemi spazialmente estesi, cosı̀ che possiamo dire che γk caratterizza la stabilità del k-esimo modo.
Nell’analisi che segue è conveniente distinguere tra i modi caratterizzati da ϕk ≈ 0,
mod(2π) +O(1/N) e tutti gli altri modi. Si identificano dunque due componenti
spettrali che richiedono di essere trattate in modo matematicamente diverso: la prima componente corrisponde alla condizione kµk − 1k ∼ N −1 ed è identificata con
la dicitura “lunghezze d’onda grandi” (LOG); la seconda componente corrisponde a
kµk − 1k ∼ O(1) ed è identificata con “lunghezze d’onda brevi” (LOB) [10].
3.2
Impulsi di durata finita
Analizziamo adesso il problema di stabilità dello stato asincrono per reti soggette
ad impulsi con α finito per grandi valori di N. Considerando i termini all’ordine
1/N, la mappa ad evento guidato (vedi equazioni (3.6, 3.7, 3.12) ) si semplifica nel
seguente insieme di N + 1 equazioni:
E(n + 1) = (1 − ατ )E(n) + NQ(n)τ ,
(3.24)
Q(n + 1) = (1 − ατ )Q(n) +
(3.25)
α2
,
N2
xj−1 (n + 1) = (1 − τ )xj (n) + 1 − x1 (n) + τ ,
(3.26)
dove j = 1, . . . ,N −1 mentre τ x1 è stato approssimato con τ poiché 1−x1 ≈ O(1/N).
L’espressione per l’intervallo tra una emissione e la successiva del potenziale di azione
(3.13) si semplifica cosı̀ in
τ (n) =
1 − x1 (n)
.
a − 1 + gE(n)
(3.27)
La soluzione periodica per il campo che tiene conto di tutti gli impulsi diventa
Ẽ = T −1 e Q̃ = α/NT , mentre x̃j e il periodo T sono ancora dati dall’equazioni
(3.17, 3.18). Lo spettro degli autovalori di Floquet µk , k = 1, · · · ,N + 1 può essere
ottenuto linearizzando le equazioni (3.24, 3.25, 3.26) nell’intorno di questa soluzione
periodica e assumendo che ciascuna perturbazione cresca come µk
δE(n + 1) = µk δE(n) = (1 − αT /N)δE(n) + T δQ(n) ,
(3.28)
δQ(n + 1) = µk δQ(n) = (1 − αT /N)δQ(n) −
(3.29)
α2
δτ (n) ,
NT
δxj−1 = µk δxj−1 (n) = (1 − T /N)δxj (n) − δx1 (n) + (1 − x̃j )δτ (n) , (3.30)
Un’espressione esplicita per δτ si può ottenere valutando la derivata dell’equazione
(3.27)
δτ = −
T2
T
δE − δx1 .
N
g
Sostituendo quanto trovato nelle equazioni (3.28, 3.29, 3.30), vediamo che il problema agli autovalori consiste nel trovare le N +1 radici µk del polinomio associato; una
semplificazione parziale del problema può essere ottenuta estraendo dalle equazioni
(3.29) e (3.30) la dipendenza di δτ dalla perturbazione del potenziale del neurone
più vicino a soglia δx1
δτ = Kδx1
(3.31)
dove
α2 gT
K = −(a − 1 + g/T ) + 2
N (µk − 1 + αT /N)2
"
#−1
.
(3.32)
Infine, sostituendo questa espressione nell’equazione (3.30), otteniamo un insieme
chiuso di equazioni per le perturbazioni del potenziale di membrana,
µk δxj−1 = (1 − T /N)δxj + (K − 1)δx1 − K x̃j δx1 .
(3.33)
Dopo aver imposto la condizione al contorno δxN = 0, l’equazione (3.33) si riduce
alla seguente equazione implicita agli autovalori:
µkN −1 eT = K(a + g/T )
1 − µkN −1
1 − µkN −1 eT
− [K(a − 1 + g/T ) + 1]
,
1 − µk
1 − µk eT /N
(3.34)
dove K è una funzione di µk ed è dato dall’equazione (3.32). Al fine di risolvere
questa equazione analiticamente è necessario effettuare la distinzione tra lunghezze
d’onda grandi e piccole.
3.2.1
Lunghezze d’onda grandi
Innanzitutto consideriamo i modi per cui kµk − 1k ∼ N −1 (o, equivalentemente,
ϕk ≈ 0, mod(2π) +O(1/N)). Al fine di semplificare la notazione definiamo
Λk :=
N
ln µk = γk + iωk ,
T
con ϕk ≈ 0, mod(2π).
All’ordine principale O(1/N), K vale
α2 g
K = −(a − 1 + g/T ) +
T (Λk + α)2
"
#−1
.
Sostituendo questa espressione nell’equazione agli autovalori (3.34) e rimuovendo i
termini di ordine 1/N, si ottiene
aT + g 2
T
−Λk T
−Λk T
, ||Λk || =
6 0.
(Λ
+
α)
(Λ
+
1)
=
Λ
e
−
e
1
−
e
k
k
k
α2 g
(3.35)
Questa equazione coincide con l’approssimazione derivata da Abbott e van Vreeswijk
[5] (che nel presente contesto corrisponde ad effettuare un “limite del continuo”,
ovvero a considerare solo lunghezze d’onda grandi), eccetto per il fattore ||Λk || = 0,
che corrisponde all’esponente di Floquet zero dell’evoluzione temporale continua
(3.4) e che scompare nella dinamica a tempo discreto. Occorre sottolineare ancora
che, nonostante l’equazione (3.35) abbia N + 1 radici, questa dà una soddisfacente
approssimazione solo per quegli autovalori che soddisfano la relazione ||µk − 1|| ∼
N −1 , cioè per quegli autovalori che giacciono vicino al punto (1,0) (vedi figura 3.2).
3.2.2
Lunghezze d’onda brevi
La seconda componente dello spettro (3.23) è ottenuta quando ||µk − 1|| ∼ O(1). In
questo caso l’espressione (3.32) si semplifica alquanto,
K = −(a − 1 + g/T )−1 .
Introducendo nell’equazione (3.34) la forma esplicita della soluzione periodica (3.18),
si ottiene una notevole semplificazione anche per lo spettro, ovvero
−T
µN
k = e
a + g/T
=1.
a − 1 + g/T
(3.36)
Questo risultato ci dice che abbiamo uno spettro di Floquet completamente degenere,
ωk ≡ 0 , γ k ≡ 0
(3.37)
Ricordiamo che questa approssimazione vale solo per quegli autovalori per cui ||µk −
1|| ∼ O(1), ovvero vale per la maggior parte dello spettro, eccetto quegli autovalori
che giacciono vicino al punto (1,0), dove il cerchio unitario intercetta l’asse reale
(vedi fig. 3.2). Inoltre il risultato (3.37) è esatto nel limite N → ∞, mentre il caso
ad N finito verrà trattato nel paragrafo successivo.
Per quanto riguarda gli autovalori isolati µN e µN +1 , si può facilmente intuire
che questi possano essere sempre contenuti all’interno del cerchio unitario, vicino
all’asse reale, per N finiti e ampiezze dell’impulso finite, e che si avvicinino al punto
(1,0) da sinistra nel limite N → ∞; dunque questi possono al più contribuire alla
stabilità marginale della dinamica complessiva.
3.2.3
Diagramma di fase e correzioni di taglia finita
In accordo con i precedenti risultati possiamo dire che, nel limite N → ∞, il manifestarsi dell’instabilità è determinato dagli esponenti di Floquet associati con le
LOG, dato che lo spettro associato alle LOB (3.37) è esattamente nullo. Inoltre si
α
200
150
INSTABILE
100
50
STABILE
0
0
0.2
0.4
g
0.6
0.8
1
Figura 3.3. Diagramma di fase per la stabilità lineare dello stato asincrono in una
rete neurale con accoppiamento eccitatorio mediata da impulsi di durata finita. La
linea continua che separa la regione stabile da quella instabile nel piano (g,α) è
stata ricavata dalla formula analitica dello spettro di Floquet (3.35) con a = 1.3 .
Occorre sottolineare che, in questo contesto, stabile si riferisce ad N finiti, dal
momento che per sistemi infiniti la stabilità diventerà marginale.[10]
ottiene che lo stato asincrono è sempre instabile per accoppiamento di tipo inibitorio
(g < 0). Nel caso di accoppiamento eccitatorio l’analisi di Abbott e van Vreeswijk
[5] predice stabilità per lo stato asincrono per α ≤ αc (g,a), dove αc (g,a) è la linea
critica che separa la regione stabile da quella instabile (vedi figura 3.3). Questa
linea corrisponde ad una biforcazione di Hopf sovracritica che dà vita ad un nuovo
comportamento periodico collettivo chiamato sincronizzazione parziale (vedi paragrafo 3.2.4). Inoltre si ha che αc diverge a +∞ per g → 1 (mentre per g > 1 non
può essere sostenuto un regime stazionario dal momento che l’evoluzione accelera in
maniera uniforme). Nel limite opposto di accoppiamento che si annulla (g → 0), la
biforcazione sopravvive; dall’equazione (3.35) si può vedere inoltre che la frequenza
ωc della soluzione di biforcazione converge a ωc = 2π/T e αc = −1 +
q
1 + ωc2 .
Includendo il ruolo dei modi con LOB possiamo concludere che, nel limite N →
∞, lo stato stazionario può essere al più marginalmente stabile per α ≤ αc (g,a).
Nel caso di numero di neuroni finito si verifica, risolvendo numericamente le equazioni
(3.19, 3.20, 3.21), che lo stato asincrono risulta strettamente stabile e che l’esponente
di Floquet massimo tende a zero da valori negativi con un andamento del tipo 1/N 2
10
-2
γk
(a)
|γk|
0
(b)
-0.001
10
-3
-0.002
10
10
-4
-0.003
-0.004
-5
-0.005
10
-6
10
0
10
1
10
2
k
10
3
-600 -400 -200
0
ϕkN
200
400
600
Figura 3.4. (a) Grafico in scala doppiamente logaritmica dei valori assoluti degli
esponenti di Floquet γk , ordinati dal più grande al più piccolo come funzione
dell’indice k = 1,...,N per N = 100,200,400. La linea tratteggiata ha una pendenza
di -2. (b) Esponente di Floquet come funzione della fase riscalata ϕN , per N = 100
(cerchi neri) e N = 200 (cerchi rossi). In entrambe le figure i valori dei parametri
sono a = 3.0, g = 0.4, e α = 30.0.[10]
(vedi figura 3.4) [5].
Questo implica che una soluzione approssimata all’ordine 1/N della mappa ad
evento guidato non può tener conto delle instabilità del modello originale, che sono
dell’ordine 1/N 2 . Questo è confermato dalla figura (3.5) dove gli spettri di Floquet ottenuti con approssimazioni al primo e al secondo ordine della mappa guidata
dall’evento danno luogo ad uno stato asincrono instabile, anche se la soluzione numerica del problema di stabilità del modello esatto indica che il modello ad N finito
è stabile. Quindi nello studio di questi sistemi va fatta estrema attenzione al livello
di approssimazione usato.
Riassumendo, la stabilità dello stato asincrono può essere indagata riducendo un
modello di equazioni differenziali globalmente accoppiate a delle opportune mappe
guidate dall’evento, che mettono in relazione le configurazioni della rete corrispondenti a due emissioni consecutive di potenziali di azione. L’analisi analitica dello
Jacobiano nel limite di grandi N rivela che lo spettro degli autovalori è costituito
da due componenti: (i) modi propri di grandi lunghezze d’onda; (ii) modi propri di
brevi lunghezze d’onda. Un approccio di campo medio (o di “limite del continuo”)
è capace di riprodurre la parte dello spettro associata ai modi di grandi lunghezze
8×10
-4
γk
4×10
-4
0
-4×10
-4
-4
-8×10 -π
-π/2
0
π/2
ϕk
π
Figura 3.5. Esponenti di Floquet γk (ϕ) come funzione della fase ϕk per impulsi
di durata finita α = 30.0 e numero di neuroni finito N = 500 nel caso di accoppiamento eccitatorio g = 0.4. I cerchi pieni neri rappresentano il risultato esatto
per N finito, mentre i quadrati rossi vuoti e i triangoli blu vuoti si riferiscono a
risultati approssimati, corretti rispettivamente fino al primo e al secondo ordine in
1/N . Il parametro qui è a = 3.[10]
d’onda col rischio però di non catturare eventuali instabilità che si manifestassero a
lunghezze d’onda piccole.
3.2.4
Altri stati collettivi della rete
Discutiamo brevemente adesso le caratteristiche della soluzione collettiva che nasce
al di sopra della linea αc (g,a) (vedi figura 3.3), detta stato di sincronizzazione
parziale. In questo regime il campo E(t) esibisce una dinamica periodica che si manifesta in assenza di qualsiasi sincronizzazione tra i singoli neuroni, i quali mostrano
invece un moto quasi periodico, cioè caratterizzato da due frequenze non commensurabili fra loro [6, 29]. La sincronizzazione parziale deriva dalla destabilizzazione
dello stato asincrono, che è invece caratterizzato da un campo medio costante e da
un comportamento periodico dei singoli neuroni, con fasi equispaziate.
In una rete di neuroni LIF, in cui l’accoppiamento impulsivo è modellizzato da
una funzione α, come in (3.5), troviamo che, per accoppiamenti eccitatori, le reti
evolvono verso uno stato asincrono se α è piccolo, cioè per impulsi di lunga durata.
Quando α aumenta, la rete inizia a sincronizzarsi; per costanti di tempo finite la
3
2.5
2
E
1.5
1
0.5
0
356
357
358
359
360
Tempo
Figura 3.6. Andamento del campo E in funzione del tempo nel regime di sincronizzazione parziale e in assenza di rumore additivo. La simulazione è stata
effettuata utilizzando i seguenti valori dei parametri: α = 9, g = 0.4, a = 1.3. In
questo caso αc = 8.34 ± 0.01 [29].
rete non raggiunge sincronia completa anche se è costituita da oscillatori identici e
il sistema è completamente privo di rumore. Solo nel limite di α → ∞ (cioè per
durate dell’impulso che tendono a zero), lo stato diventa completamente sincronizzato [29]. Dunque se percorriamo il diagramma di fase nel piano (g,α) mantenendo
l’accoppiamento g costante, passiamo, al crescere di α, dallo stato asincrono alla
sincronizzazione parziale e solo nel limite α → ∞ otteniamo una sicronizzazione
completa.
Con accoppiamento inibitorio la rete sincronizza completamente per α piccoli; al
crescere di α la rete si divide in due o più gruppi di neuroni completamente sincronizzati al loro interno. Il numero medio di questi gruppi cresce al crescere di α, sebbene
il numero esatto di tali gruppi dipenda dalle condizioni iniziali. Per una rete con un
numero grande ma finito di oscillatori il numero di gruppi che si formano tenderà
ad essere pari al numero di neuroni, dunque, lo stato finale sarà indistinguibile dallo
stato asincrono. Cosı̀ con accoppiamento inibitorio, il sistema passa da uno stato
completamente sincronizzato per piccoli α, ad uno stato sostanzialmente asincrono
per grandi α, attraverso la formazione di un numero crescente di raggruppamenti di
neuroni completamente sincronizzati al loro interno.
Dato che il regime di sincronizzazione parziale sarà il soggetto principale del
lavoro originale di questa tesi descriviamo ora in maggior dettaglio la dinamica della
rete associata a tale stato collettivo. Come mostrato in figura (3.6) la dinamica del
campo è ora periodica, mentre, come già detto, nel caso dello stato asincrono era
costante. A questo si associa l’andamento periodico della frequenza istantanea di
emissione degli impulsi, definita come
π(t) =
1
N(tm+1 − tm )
,
(3.38)
dove (tm+1 − tm ) ≈ (1/N) è l’intervallo tra due spari consecutivi della rete. Il
membro a sinistra di questa equazione non presenta il pedice m, perché nel limite
N → ∞ la variabile temporale diventa continua. L’andamento periodico è mostrato
in figura (3.7c), mentre nel caso dello stato asincrono era costante.
Un’altra peculiarità dello stato di sincronizzazione parziale è il fatto che gli ISI
dei singoli neuroni differiscano dal periodo della dinamica macroscopica; in altre
parole i tempi tra un’emissione e la successiva di un impulso, da parte del singolo neurone, sono sempre più piccoli del periodo di oscillazione del campo forzante.
Possiamo spiegare il fenomeno, in maniera qualitativa, osservando che, da un lato, i neuroni tendono a raggrupparsi, dall’altro, i neuroni che si trovano sul fronte
del raggruppamento tendono a sfuggire al gruppo, mentre quelli che raggiungono il
gruppo dalle retrovie vi si uniscono. Questo giustifica anche il nome di “sincronizzazione parziale” attribuito a questo fenomeno. Dunque la dinamica quasi-periodica
dei singoli neuroni (vedi figura 3.7b) si combina in modo opportuno cosı̀ da generare una dinamica collettiva, espressa dal campo E(t), periodica. Questo si vede in
figura (3.7a), dove la curva chiusa riportata nel piano (E,Ė) rappresenta l’attrattore
associato alla dinamica collettiva della rete.
Infine, dalle analisi numeriche svolte sul modello originale soggetto a rumore
additivo, uniformemente distribuito e a media nulla, vediamo (figura 3.7(a)) che il
comportamento collettivo persiste, nonostante sia depresso dall’azione del rumore.
Il campo E ha un’ampiezza più piccola in presenza del rumore, mentre le fluttuazioni
sembrano descrescere all’aumentare del numero di oscillatori presenti nella rete con
√
un andamento del tipo 1/ N [6].
Figura 3.7. Risultati di simulazioni numeriche effettuate su una rete di N =
100 neuroni, utilizzando i seguenti valori dei parametri: α = 9, g = 0.4, a =
0.3. (a) Rappresentazione nel piano delle fasi (E,Ė). I punti corrispondono a
simulazioni effettuate in presenza di rumore additivo uniformemente distribuito; le
linee rappresentano invece le simulazioni effettuate in assenza di rumore additivo.
(b) Evoluzione, in funzione del tempo, dell’intervallo temporale tra uno sparo e
l’altro del singolo neurone (T ). (c) Evoluzione temporale della frequenza istantanea
π (B.1). [6]
3.3
Desincronizzazione in reti neurali diluite
In una rete corticale reale ogni neurone è connesso a moltissimi altri, ma non è
connesso a tutti i neuroni della corteccia cerebrale. È allora importante analizzare
l’effetto della diluizione del numero di connessioni fra i neuroni sulla dinamica di una
rete neurale. Per rete diluita si intende una rete in cui siano stati recisi dei legami fra
neuroni anche in modo asimmetrico. In particolare in questa sezione ci limiteremo
ad accoppiamenti solo inibitori, mentre il caso di accoppiamenti eccitatori sarà il
soggetto dei risultati originali della tesi (vedi cap.4).
Per comprendere il ruolo della diluizione, ricordiamo innanzitutto i risultati noti
per reti di neuroni LIF globalmente accoppiati. In quest’ambito sono di notevole
importanza i risultati rigorosi pubblicati da Jin in Ref. [11] per una rete non omogenea di neuroni LIF globalmente accoppiati, le cui connessioni siano prevalentemente
inibitorie. Jin ha dimostrato che, in questo modello, la sequenza di impulsi converge
a configurazioni periodiche stabili da quasi tutti gli stati iniziali. Ha dimostrato
inoltre che il tempo necessario a tale convergenza (detto transitorio) è finito ed al
massimo può divergere come una potenza del numero di neuroni nella rete nel limite
N → ∞; in particolare il transitorio si abbrevia al crescere dell’inibizione globale.
Si potrebbe osservare una divergenza del transitorio solo nell’eventualità che due
neuroni raggiungessero contemporaneamente la soglia, ma tale situazione si ottiene
solo per un insieme ristretto di stati iniziali dei neuroni, insieme che si restringe
sempre di più al crescere del livello di inibizione [11].
A partire dal modello di rete neurale con accoppiamento inibitorio, descritto in
[11], introduciamo la diluizione e mostriamo che nella versione diluita di tale modello
si possono osservare tipicamente dei transitori che crescono esponenzialmente con
il numero di neuroni nella rete, in presenza di un accoppiamento sufficientemente
grande, anche se l’esponente di Lyapunov2 massimo del sistema rimane negativo.
Questo fenomeno è noto in letteratura come “caos stabile” [30]. In altri termini, per
piccoli valori della costante di accoppiamento la dinamica converge, dopo un breve
transitorio, verso lo stato asincrono e l’unico effetto dovuto alla soppressione di una
piccola percentuale di legami tra i neuroni è la presenza di inomogeneità nelle mutue
interazioni che porta a piccole difformità negli intervalli tra un’emissione e l’altra
dell’impulso. D’altra parte, per valori dell’accoppiamento sufficientemente grandi,
sono osservati dei transitori che mostrano dinamica simil-stocastica, la cui durata è
esponenzialmente lunga con la dimensione della rete. Dal momento che vari indicatori mostrano che questo regime è stazionario, è logico aspettarsi che, nel limite
2
La caratterizzazione della dinamica in termini di esponenti di Lyapunov verrà discussa in
dettaglio in appendice C.2.
di reti infinitamente grandi, questo transitorio rappresenti una fase termodinamica
perfettamente legittima [12]. Dal momento che il caos stabile è dovuto alle discontinuità nell’evoluzione dinamica del sistema [30, 31], è naturale aspettarsi che questo
valga anche nel caso presente; osserviamo infatti che in presenza di disordine, dove
i neuroni non sono più l’uno equivalente all’altro, si verificano cambiamenti nella
sequenza con cui i neuroni emettono impulsi successivi e questa variazione di ordinamento induce discontinuità nell’evoluzione della rete. La transizione si manifesta
dunque come un fenomeno di desincronizzazione collettivo; tale fenomeno è analizzabile solo attraverso simulazioni numeriche, dal momento che l’analisi di stabilità
lineare non permette di identificare la soglia oltre la quale si ha la transizione poiché
tutte le traiettorie sono asintoticamente stabili in entrambi i regimi. Riportiamo di
seguito i principali risultati numerici conseguiti da Zillmer et al. [12].
Nel modello di rete LIF studiato in [12], lo stato dell’i-esimo neurone è completamente determinato dal potenziale di membrana Vi (t̃) ed obbedisce all’equazione
τm V̇i = a − Vi − τm (Vi + W )
N X
X
j=1 k
(k)
gij δ(t̃ − t̃j ) ,
(3.39)
dove N è il numero di neuroni, τm è la costante di tempo di membrana, a è la corrente
in ingresso soprasoglia (che si riferisce ad una resistenza di membrana unitaria) e W
è il potenziale di inversione. Ogniqualvolta il potenziale Vj (t̃) raggiunge il valore di
soglia Θ, viene riassegnato al valore R < Θ e viene emesso un impulso; tale impulso
è ricevuto istantaneamente da tutti i neuroni connessi a quello che ha emesso un
(k)
impulso, al tempo t̃j (k identifica l’evento di emissione del potenziale di azione del
j-esimo neurone). La ricezione dell’impulso da parte dell’i-esimo neurone provoca
un abbassamento del potenziale di membrana di tale neurone, in accordo con la
trasformazione
Vi′ + W = (Vi + W ) exp(−gij ).
(3.40)
L’ultimo ingrediente che definisce la dinamica del sistema è la matrice di connettività
gij . L’accoppiamento è riscalato con il grado di connettività del neurone che riceve
l’impulso, per cui
gij =







G/ℓi , se i e j sono connessi,
0,
(3.41)
altrimenti,
dove G è la costante di accoppiamento e li il numero di connessioni in ingresso al
neurone i. In altre parole, consideriamo il tipo più semplice di disordine, determinato dalla presenza, o dall’assenza, dei legami tra i neuroni (le autointerazioni
sono escluse). La frazione ̺m di legami mancanti è determinata fissando deterministicamente il numero totale Nm di legami recisi [Nm = ̺m N(N − 1)]; ad esempio,
scegliendo di tagliare il 5% dei legami si ha ̺m = 0.05 (caso di debole disordine).
A differenza del modello analizzato in Ref. [11], dove sono distribuite in maniera
casuale sia le costanti di accoppiamento gij , che le correnti di soglia Cij , qui l’unica sorgente di disordine è la presenza (assenza) di connessioni inibitorie. L’altra
importante differenza riguarda la costante di accoppiamento: mentre in [11] non è
ipotizzata nessuna dipendenza dalla dimensione del sistema, in questo caso è assunta
una dipendenza inversamente proporzionale dal numero di connessioni entranti.
Ci aspettiamo che il debole disordine introdotto dalla diluizione riduca l’accoppiamento efficacie tra i neuroni e faccia aumentare il valore dell’esponente di Lyapunov
massimo λ1 , rispetto al caso di neuroni completamente accoppiati. Analizzando la
figura (3.8) vediamo che l’esponente di Lyapunov massimo λ1 in effetti cresce al
crescere della frazione di legami tagliati, ma rimane negativo almeno fino a ̺m = 0.2.
Inoltre le simulazioni numeriche indicano che λ1 rimane finito nel limite termodinamico N → ∞. Dunque, prima o poi, la dinamica deve convergere verso un’orbita
periodica stabile.
In realtà le cose sono assai più complicate. In particolare, la durata media dei
transitori < ttr > necessari a raggiungere l’orbita periodica dipende dall’accoppiamento G. All’aumentare dell’accoppiamento < ttr > prima decresce e poi si
-3.8
N=100
N=200
N=300
λ1
-4
-4.2
-4.4
0
Figura 3.8.
10
0.1
0.05
ρm
Esponente di Lyapunov massimo in funzione della frazione di legami
recisi e per tre valori diversi della dimensione della rete.[12]
5
10
(a)
N=100
N=200
4
<ttr>
<ttr>
10
10
5
(b)
G=1.8
4
10
10
10
0.2
0.15
3
G=0.5
2
3
0.5
1
1.5
10
1
50
G
100
150
200
N
250
300
Figura 3.9. (a) Lunghezza media del transitorio < ttr > in funzione della costante
di accoppiamento G per due dimensioni diverse della rete. (b) Lunghezza media
del transitorio < ttr > in funzione della dimensione della rete per due valori della
costante di accoppiamento. I quadrati verdi corrispondono al valore della costante
di accoppiamento G = 0.5; i cerchi rossi a G = 1.8. In ordinata la scala usata è
logaritmica. [12]
innalza rapidamente per G ≥ 1. Inoltre all’aumentare di N il tasso di crescita è
assai maggiore, come mostrato in figura (3.9a). D’altra parte la lunghezza media
del transitorio cresce in modo diverso con N a seconda dell’accoppiamento, come
mostrato in figura (3.9b). Per G <≈ 1 < ttr > cresce linearmente con N, mentre
per G >≈ 1 esso diverge esponenzialmente.
Per G <≃ 1, l’evoluzione dinamica del sistema è simile a quella del caso completamente accoppiato. Dopo un transitorio di breve durata, il sistema converge
ad uno stato caratterizzato da una sequenza di N impulsi (emessi da tutti gli N
250
Indice di Neurone
50
Indice di Neurone
40
30
20
200
150
100
50
10
(a)
0
10250
10300
10350
10400
10450
Tempo
0
140
150
160
170
Tempo
Figura 3.10. (a) Indice del neurone che emette un impulso vs tempo per un tipico
attrattore periodico per G = 2, N = 50. (b) Indice del neurone che emette un
impulso vs tempo durante il transitorio per G = 2, N = 50. [12]
neuroni), che si ripetono periodicamente (vedi figura 3.10a). Tutti i neuroni emettono impulsi con lo stesso ritmo, ma le loro fasi sono equispaziate; in altri termini
la soluzione asintotica è uno stato asincrono. La differenza sostanziale con il caso
completamente accoppiato sta nel fatto che sequenze di impulsi differenti non sono
equivalenti l’una all’altra. Nel limite di neuroni identicamente accoppiati la dinamica è invariante sotto qualsiasi permutazione, cosa che non è più vera nel momento
in cui si introducono delle eterogeneità nella connettività della rete.
Per valori della costante di accoppiamento G ≥ 1, si manifesta un regime dinamico irregolare, dove il mutuo ordinamento cambia durante l’intero transitorio, come si
può vedere in figura (3.10b), dove compare un lento ma sistematico riaggiustamento
dell’ordine con cui i neuroni emettono impulsi successivi.
Riassumendo, la dinamica transitoria osservata per G ≈> 1: (i) è caratterizzata
da un esponente di Lyapunov negativo; (ii) è effettivamente stazionaria; (iii) ha
durate temporali esponenzialmente lunghe. Queste sono le caratteristiche distintive
del “caos stabile”, associato alla presenza di discontinuità nello spazio delle fasi [30].
Nel caso presente le discontinuità sono dovute a cambiamenti nell’ordinamento con
cui i neuroni emettono impulsi in successione, ordinamento che può cambiare a causa
della diluizione delle connessioni [32]
Capitolo 4
Dinamica di una rete neurale
eccitatoria diluita
Nei capitoli precedenti abbiamo dato un’ampia descrizione della dinamica di reti
globalmente accoppiate. La questione che ci poniamo adesso è quella di capire da
una parte, quali caratteristiche delle reti omogenee permangano con la diluizione e
dall’altra, quali differenze insorgano. Il lavoro che ci proponiamo di fare è dunque
quello di analizzare la dinamica collettiva di reti diluite con accoppiamento eccitatorio impulsivo, ove cioè l’accoppiamento fra i vari neuroni sia mediato solo dagli
impulsi. A causa della diluizione delle connessioni, effettuata in modo aleatorio,
ogni neurone riceve impulsi solo dai neuroni presinaptici a cui è connesso, quindi
la sequenza di impulsi ricevuta è diversa per ogni neurone. Nell’ambito dei modelli
matematici nel quale si collocano le reti neurali, è naturale introdurre due tipi di
diluizione e trattare parallelamente il caso di disordine quenched (temprato) e quello
di disordine annealed (ricotto)1 . Dall’analisi di reti diluite in presenza di disordine
quenched risulta che permangono alcune segnature della dinamica del sistema globalmente accoppiato ma che, nel limite termodinamico, abbiamo a che fare con un
1
Nel proseguo della tesi useremo questi anglicismi invece dei corrispondenti termini italiani
perché, ormai, sono invalsi nel linguaggio comune.
attrattore genuinamente caotico. Dall’analisi di reti con disordine annealed si ricava
invece una completa corrispondenza col sistema globalmente accoppiato nel limite
termodinamico. L’origine del caos può essere ricondotta alle minime fluttuazioni
nella periodicità dei campi autoconsistenti dei singoli neuroni, come cercheremo di
mostrare forzando un sistema di più neuroni con un campo periodico. Dunque,
anche se molte caratteristiche strutturali delle reti diluite si possono dedurre dall’analisi di campo medio effettuata in reti globalmente accoppiate, nascono anche
molte differenze già dall’introduzione di due tipi di disordine e dalla conseguente
investigazione, in parallelo, della corrispondente dinamica.
Nel primo paragrafo introdurremo il modello, oggetto della nostra analisi, che
risulta una generalizzazione di quello introdotto nel paragrafo 3.1.1, dal momento
che adesso ogni neurone è soggetto ad un campo distinto. Inoltre, analogamente a
quanto fatto in precedenza, ridurremo la dinamica della rete leaky integrate-and-fire
ad una mappa ad evento guidato. Nel secondo paragrafo ci concentreremo sull’analisi
di stabilità lineare delle soluzioni collettive che emergono in questa rete, sia nel caso
completamente accoppiato, che diluito. In particolare ci interesseremo a stati asincroni ed a regimi di sincronizzazione parziale. Nel terzo paragrafo studieremo come
l’introduzione del disordine vada a modificare lo scenario di biforcazione osservato
in reti globalmente accoppiate. Al fine di caratterizzare tale scenario di biforcazione
analizzeremo sia l’andamento dei campi che degli esponenti di Lyapunov massimi
al variare del parametro che determina l’ampiezza temporale degli impulsi. Nei
paragrafi quattro e cinque caratterizzeremo lo stato parzialmente sincronizzato dal
punto di vista dinamico, per dimensioni crescenti della rete, in presenza di disordine
quenched (paragrafo quattro) e di disordine annealed (paragrafo cinque). Vedremo
in questi paragrafi che la peculiare dinamica caotica osservata dipende dal tipo di
disordine introdotto. Nel sesto paragrafo verificheremo come si possano mettere in
corrispondenza i sistemi con disordine annealed e quelli globalmente accoppiati. In
particolare mostreremo che rescindere una precisa percentuale di legami corrisponde
a ridurre, in una rete globalmente accoppiata, la costante di accoppiamento di un
fattore pari alla percentuale di legami recisi. Infine nell’ultimo paragrafo cercheremo
di dare una spiegazione dell’origine delle dinamiche caotiche osservate. In particolare
analizzeremo la risposta del nostro sistema ad un campo periodico esterno uguale
per tutti i neuroni della rete e confronteremo quanto ottenuto con quanto trovato
nei paragrafi precedenti in presenza di un campo autoconsistente.
4.1
Modello della rete in tempo continuo
Consideriamo una rete di N neuroni LIF con accoppiamento eccitatorio mediato da
impulsi di forma Es (t) =
α2 t −αt
e
N
. La dinamica del singolo neurone è descritta da
un insieme di variabili (vi ,Ei ), dove vi descrive il potenziale di membrana del singolo
neurone, mentre Ei è il campo dovuto agli impulsi ricevuti in passato dal neurone
in oggetto. L’evoluzione dinamica del neurone i è regolata dalle seguenti equazioni
differenziali
v̇i = a − vi + gEi (t),
Ëi (t) + 2αĖi + α2 Ei (t) =
i = 1, · · · ,N
α2 X
δ(t − tn ),
N n|tn <t
(4.1)
(4.2)
dove tutte le variabili e i parametri sono espressi in unità adimensionali. Come già
sottolineato nel paragrafo (3.1.1), la condizione a > 1 corrisponde ad una corrente
soprasoglia in ingresso, mentre g rappresenta la costante di accoppiamento con il
campo autoconsistente. Nelle nostre simulazioni abbiamo fissato a = 1.3 e g = 0.4
per potersi confrontare con i risultati riportati nel lavoro seminale di van Vreeswijk
[29] sugli stati parzialmente sincronizzati in reti globalmente accoppiate. Ogni neurone dunque, in questa schematizzazione, è soggetto ad un campo forzante diverso,
generato dalla somma degli impulsi da lui ricevuti nel passato e provenienti dai
neuroni a lui connessi. Nel caso di reti globalmente accoppiate questa descrizione
è ridondante dal momento che ogni singolo neurone in esame è sottoposto agli impulsi di tutti gli altri elementi costitutivi della rete: tutti i neuroni sono identici e
rispondono agli impulsi esterni allo stesso modo, quindi i campi forzanti {Ei } sono
tutti identici. Tale descrizione diventa però fondamentale alla luce dell’introduzione
della diluizione. Nel caso di sistemi diluiti è necessario mantenere la descrizione
esplicita dei diversi campi, perché ogni neurone non risulta identico agli altri, non
avendo lo stesso grafo di connessione. Se il numero di connessioni varia da neurone
a neurone, varia anche il numero di impulsi ricevuti dai neuroni connessi in un certo
intervallo di tempo e dunque varia il campo Ei , che rappresenta la sovrapposizione
di tali impulsi.
4.1.1
Mappa ad evento guidato
Trasformiamo il sistema dinamico originale (4.1, 4.2) in una mappa tra due configurazioni successive della rete; queste corrispondono ai tempi di emissione di due
impulsi consecutivi da parte di due neuroni qualsiasi della rete. Indichiamo con tn il
tempo immediatamente successivo all’emissione dell’n-esimo impulso. Se integriamo
l’equazione (4.2) tra il tempo tn e il tempo tn+1 si ottengono le risultanti equazioni
per la mappa ad evento guidato
Ei (n + 1) = Ei (n)e−ατ (n) + Pi (n)τ (n)e−ατ (n) ,
Pi (n + 1) = Pi (n)e−ατ (n) + gk,i
α2
,
N
i = 1, · · · ,N.
(4.3)
(4.4)
dove τ (n) = tn+1 − tn è l’intervallo temporale che intercorre tra l’emissione dell’nesimo e dell’(n + 1)-esimo impulso, mentre Pi è una nuova variabile, introdotta per
semplicità e legata al campo Ei dalla relazione Pi = (αEi + Ėi ). La matrice di
connettività gij tiene conto della presenza o meno del legame tra il neurone j e
il neurone i; la connessione è unidirezionale e diretta da j a i. Nel caso in cui il
legame sussista scegliamo gij = 1, altrimenti gij = 0. Ovviamente nel caso di reti
globalmente connesse gij sarà sempre 1. Nella mappa (4.4) compare uno specifico
indice per la matrice di connessione, k; tale indice identifica il neurone più vicino a
soglia, ovvero rappresenta l’indice del neurone che sparerà al tempo tn+1 . Integrando
anche la (4.1), si ottiene la terza equazione della mappa ad evento guidato (le altre
due essendo la 4.3 e la 4.4):
vi (n + 1) = vi (n)e−τ (n) + a(1 − e−τ (n) ) + gFi (n), i = 1, · · · ,N ,
(4.5)
dove Fi è data da
e−τ (n) − e−ατ (n)
Pi (n)
τ (n)e−ατ (n)
Fi (n) =
Ei (n) +
−
Pi (n) .
α−1
α−1
(α − 1)
!
(4.6)
L’intervallo di tempo τ è calcolato a partire dall’equazione trascendente
"
vk (n) − a
τ (n) = ln
1 − gFk (n) − a
#
.
(4.7)
dove l’indice k è ancora relativo al neurone più vicino a soglia. Le equazioni (4.5,
4.6) possono essere riscritte in una forma ancora più compatta, esprimendo F (n)
come una funzione di τ (n) grazie alla (4.7), cioè:
vi (n + 1) = vi (n)e−τ (n) + 1 − vk (n)e−τ (n) ,
i = 1, · · · ,N − 1 ,
(4.8)
vk (n + 1) = 0.
Un aspetto importante delle reti globalmente connesse è il fatto che l’ordine dei
potenziali di membrana si mantiene inalterato nel tempo [11]; in altri termini qualsiasi sia l’ordine iniziale degli impulsi emessi dai neuroni questo rimane inalterato col
passare del tempo, dal momento che non può essere cambiato dalla regola dinamica.
Quindi una volta ordinati i potenziali, è sufficiente stimare, ad ogni passo, la (4.7)
per il neurone successivo a quello che ha appena emesso un impulso e ripetere l’operazione ciclicamente nel tempo. Questo non è più vero in presenza di diluizione e di
N differenti campi, poiché, in questo caso, l’ordine può cambiare nel tempo. Dato
l’ordine iniziale dei potenziali, non sarà più noto l’indice del neurone più vicino a
soglia già alla seconda iterazione della mappa, per cui, ad ogni iterazione, occorre
calcolare quale degli N − 1 neuroni che non hanno sparato, è quello più prossimo
ad emettere un impulso. Questo significa risolvere, ad ogni passo di iterazione della
mappa, N − 1 equazioni trascendenti del tipo
"
vi (n) − a
τi (n) = ln
1 − gFi(n) − a
#
.
(4.9)
e vedere quale neurone k soddisfa la relazione (k : inf i {τi (n)} = τk (n)).
4.1.2
Algoritmo numerico
A livello di simulazioni numeriche, un algoritmo siffatto comporta un ingente dispendio di tempo di calcolo, per cui abbiamo implementato un algoritmo maggiormente efficiente, capace di ridurre i tempi di simulazione di un fattore 6 − 7. Tale
schema di evoluzione della mappa consiste in quattro passi principali:
1. Presi in esame tutti i potenziali dei neuroni della rete ad un certo istante,
ne riordiniamo gli indici in modo che i valori dei corrispondenti potenziali
compaiano in ordine decrescente. In altri termini registriamo gli indici dei
neuroni in modo che l’indice del neurone più vicino a soglia sia il primo della
lista, l’indice del secondo neurone più vicino a soglia compaia al secondo posto
nella lista e cosı̀ via.
2. Calcoliamo il minimo τi (n) risolvendo l’equazione trascendente (4.9) solo per
una frazione M = N/10 di neuroni. I neuroni selezionati per effettuare tale
calcolo sono i primi M neuroni della lista precedente.
3. Facciamo evolvere la mappa per un numero di iterate minore di M, tipicamente
I = M/4. L’evoluzione della mappa interessa tutti gli N neuroni della rete,
mentre il calcolo dei tempi necessari ai neuroni per arrivare a soglia (e di
conseguenza la stima del tempo più piccolo) continua ad interessare solo gli
M neuroni selezionati al punto (2).
4. Dopo I passi di aggiornamento della mappa, si riordinano nuovamente i potenziali e si procede ripercorrendo i passi precedenti.
Prendendo in esame solo il blocco dei primi M neuroni per calcolare i tempi minimi
di raggiungimento della soglia, corriamo il rischio di trascurare eventi rilevanti e
di considerare invece eventi fittizi. Occorre dunque cautelarsi da eventuali sorpassi
effettuati dai neuroni non contenuti nel blocco degli M neuroni selezionati al passo
(2). Per fare questo abbiamo ulteriormente raffinato l’algoritmo tenendo conto del
fatto che, ogniqualvolta un neurone emette un impulso, il suo potenziale di membrana viene riazzerato. Di conseguenza dopo ogni iterata della mappa abbiamo
posto l’indice del neurone che ha appena emesso un impulso in fondo alla lista dei
potenziali ordinati, fuori dunque dal blocco dei primi M. Abbiamo cosı̀ inserito al
suo posto, nel sottoinsieme su cui calcolare i tempi minimi di raggiungimento della
soglia, il primo neurone della lista ordinata che si trova dopo gli M del gruppo selezionato. Possiamo cosı̀ lavorare sempre su un sottoinsieme di dimensione costante
M (< N), su cui calcolare, per I iterate, i tempi necessari ai neuroni per arrivare a
soglia e, contemporaneamente, essere sicuri di tenere sotto controllo sempre i neuroni
più vicini a soglia.
4.1.3
Scelta aleatoria delle connessioni
La scelta delle connessioni nel caso diluito viene fatta in modo aleatorio quindi,
dato che non tutte le connessioni sono attive, ciò introduce del disordine nel sistema. Questo disordine può essere inserito nella matrice di accoppiamento gij in
due diversi modi: disordine quenched (temprato) o annealed (ricotto) [1]. Queste
definizioni rimandano alla tecnica della tempra (quench) in cui un metallo viene
raffreddato rapidamente per aumentarne la durezza. Il procedimento con cui un
metallo temprato viene riportato ad alta temperatura e poi raffreddato lentamente
per renderlo più malleabile è invece detto ricottura (annealing). Nel nostro caso
il disordine quenched corrisponde ad un grafo di connessione aleatorio definito una
volta per tutte prima di far evolvere la mappa, mentre con disordine annealed indichiamo la riassegnazione aleatoria delle connessioni tra i neuroni (e le eventuali
disconnessioni) ad ogni passo di iterazione della mappa. Per quanto riguarda l’implementazione numerica del disordine quenched agli elementi della matrice gij , si
assegna il valore 0, 1 con una certa probabilità ν, che dipende dalla percentuale di
legami che vogliamo recidere; tale assegnazione viene effettuata all’inizio del programma, prima di far evolvere la mappa. Per quanto riguarda invece il disordine
annealed, l’assegnazione dei valori 0, 1 agli elementi di matrice avviene all’interno
dell’algoritmo di evoluzione della mappa, sempre con una certa probabilità ν fissata,
prima di ogni passo di evoluzione. Ad ogni passo di aggiornamento della mappa i
neuroni possono dunque essere connessi in modo diverso con gli altri neuroni della
rete, ma la percentuale di neuroni presinaptici in media è ν. In presenza di disordine quenched occorre comunque definire una matrice di connessione di dimensione
N × N. In questo caso dobbiamo dunque confrontarci con i limiti di memoria dei
calcolatori che non ci permettono di estendere le simulazioni a reti arbitrariamente
grandi. In presenza di disordine annealed possiamo ovviare a questo problema dal
momento che nelle equazioni della mappa ad evento guidato (4.3, 4.4, 4.8) compare
solo la riga gk,i della matrice di connessione. Questo ci permette di introdurre un
vettore di dimensione N che identifica ad ogni iterata le connessioni tra il neurone k
più vicino a soglia e gli altri N − 1 neuroni della rete. Lavorando con un vettore di
dimensione N che viene ridefinito ad ogni passo di evoluzione della mappa, piuttosto
che con una matrice N × N abbiamo un notevole risparmio di memoria. Nel caso
di disordine annealed questo ci consente dunque di implementare reti di dimensioni
maggiori rispetto al caso quenched.
4.2
Analisi di stabilità lineare
Per l’analisi di stabilità lineare si deve considerare l’evoluzione dinamica delle perturbazioni; ciò si ottiene linearizzando le equazioni della mappa (4.3, 4.4, 4.8), in
modo da ottenere l’evoluzione di tali perturbazioni nello spazio tangente:
δEi (n + 1) = e−ατ (n) δEi (n) + τ (n)e−ατ (n) δPi (n)
(4.10)
− [αEi (n) − Pi (n) + ατ (n)Pi (n)]e−ατ (n) δτ (n),
δPi (n + 1) = e−ατ (n) δPi (n) − αPi (n)e−ατ (n) δτ (n),
(4.11)
δvi (n + 1) = e−τ (n) (δvi (n) − δvk (n)) − (vi (n) − vk (n))e−τ (n) δτ (n),
(4.12)
i = 1, · · · ,N − 1,
δvk (n + 1) ≡ 0,
(4.13)
con
δτ (n) =
(
δPk (n)
e−τ (n) − e−ατ (n)
e−τ (n) − e−ατ (n)
δEk (n) +
− τ (n)e−ατ (n)
·
α−1
α−1
α−1
1
"
(
·
δvk (n)
g
+
·
vk (n) − a 1 − gFk (n) − a
1−
g
1−gFk (n)−a
n
αe−ατ (n) −e−τ (n)
α−1
h
Ek (n) +
Pk (n)
α−1
i
−
e−ατ (n) Pk (n)
α−1
+
#
))
ατ (n)e−ατ (n)
Pk (n)
α−1
(4.14)
o.
Indicando con δu = (δE1 , · · · ,δEN ,δP1 , · · · ,δPN ,δv1 , · · · ,δvN ) il vettore dello spazio
tangente, è possibile definire la matrice di evoluzione Φ a partire dalle equazioni
(4.10,4.11,4.12) come δu(n + 1) = Φδu(n) 2 . Possiamo effettuare a questo punto
una stima dell’esponente massimo e dello spettro di Lyapunov della rete, che costituiscono gli indicatori di caos maggiormente efficaci per descrivere sistemi con molti
gradi di libertà. Si ricorda che un sistema si dice caotico se il massimo esponente
di Lyapunov risulta positivo [33]. Lo spettro di Lyapunov {λj }, j = 1, · · · ,3N − 1
2
Si noti che Φ viene calcolata sulla traiettoria del sistema di equazioni (4.3, 4.4, 4.5).
0
λ0j
-0.002
−1
-0.004
λj
−2
-0.006
0
10
20
30
40
j
−3
−4
(a)
0
100
50
150
j
0
λj
0
-2
-0.001
-4
λj
-0.002
-6
0
5
10
-8
j
15
-10
-12
(b)
0
100
50
150
j
Figura 4.1. Spettro di Lyapunov per una rete globalmente connessa di N = 50
neuroni. Gli spettri presentati sono ordinati in modo decrescente, dunque gli esponenti vanno dal più grande (in alto a sinistra), al più piccolo (in basso a destra).
(a) Le simulazioni sono state effettuate prendendo come valori dei parametri α = 3,
g = 0.4, a = 1.3. L’inserto mostra come gli esponenti di Lyapunov della prima
banda siano tutti negativi e si presentino a coppie. (b) I valori dei parametri sono
gli stessi di quelli utilizzati per la simulazione in (a), a parte α che, in questo caso,
vale 9. L’inserto mostra come l’esponente di Lyapunov massimo sia nullo.
è stimato numericamente dal tasso di crescita esponenziale del modulo degli autovalori della matrice di evoluzione nello spazio tangente, ove, per aumentare la precisione numerica, gli autovettori vengono periodicamente ortonormalizzati secondo lo
schema di Gram-Schmidt [34, 35] (si veda l’appendice C.2 per una descrizione più
dettagliata di questi indicatori e della loro stima numerica).
4.2.1
Reti globalmente accoppiate
Per prima cosa stimiamo gli spettri di Lyapunov per reti globalmente accoppiate; in
particolare analizziamo la figura (4.1) in cui sono riportati gli spettri completi di reti
neurali composte da N = 50 neuroni globalmente accoppiati. In figura (4.1a) è riportato lo spettro relativo al regime di stato asincrono (α = 3), mentre in figura (4.1b)
sono presentati i risultati delle simulazioni numeriche in regime di sincronizzazione
parziale (α = 9) (vedi paragrafo 3.2.4). In entrambi i casi lo spettro è composto da
due bande più due autovalori isolati: la banda superiore corrisponde alla dinamica dei vi , i = 1, · · · ,N − 1, mentre i due autovalori isolati sono associati ai campi
(E, P ) non ridondanti e corrispondenti ai due autovalori isolati di Floquet presenti
in figura (3.2); infine la seconda banda corrisponde all’evoluzione dei campi {Ei , Pi }
ridondanti e tutti identici tra loro. Nel caso di una rete globalmente connessa di
dimensione N, le variabili indipendenti sono N + 1; tali variabili indipendenti sono
i potenziali di membrana v1 , · · · ,vN −1 ed i campi E1 , P1 3 . Nel caso della mappa
ad evento guidato da noi considerata, (equazioni 4.3, 4.4, 4.8), le variabili in gioco
sono 3N − 1. In questo caso infatti abbiamo a che fare con i potenziali di membrana v1 , · · · ,vN −1 e con i campi E1 , · · · ,EN ,P1 , · · · ,PN , dal momento che un grado
di libertà viene rimosso grazie alla sezione di Poincaré anche nel caso globalmente
accoppiato. Questo significa che 2(N − 1) variabili sono ridondanti e che queste
sono E2 , · · · ,EN , P2 , · · · ,PN . Si può dimostrare che il valore dei 2(N − 1) esponenti
di Lyapunov associati alle variabili ridondanti è λl = −α, per l = 1, · · · ,2(N − 1).
Per dimostrarlo e per calcolare il valore degli esponenti di Lyapunov della seconda
banda procediamo nel seguente modo. Supponiamo che (E1 , P1 ) sia la coppia di
variabili non ridondanti e studiamo la dinamica degli altri campi rispetto a questa
3
Possiamo scegliere come indice dei campi non ridondanti 1 senza perdita di generalità.
coppia introducendo le variabili differenza
wi = Ei − E1
zi = Pi − P1
i = 2, · · · ,N
(4.15)
Le equazioni di evoluzione per le variabili differenza sono
wi (n + 1) = wi (n)e−ατ (n) + zi (n)τ (n)e−ατ (n)
zi (n + 1) = zi (n)e−ατ (n) + gk,i
α2
N
(4.16)
i = 2, · · · ,N.
(4.17)
Per effettuare l’analisi di stabilità lineare consideriamo, come di consueto, l’evoluzione
dinamica delle perturbazioni e differenziamo le equazioni precedenti. Si ottiene
δwi (n + 1) = δwi (n)e−ατ (n) + δzi (n)τ (n)e−ατ (n)
(4.18)
δzi (n + 1) = δzi (n)e−ατ (n)
(4.19)
i = 2, · · · ,N,
o, in forma matriciale





δwi 
δzi



n+1

=

−ατ
−ατ
e
τe
−ατ
0
e





δwi 
δzi



n

=Ψ


δwi 
δzi


(4.20)
n
Risolvendo l’equazione agli autovalori per la matrice d’evoluzione Ψ , con unità di
tempo τ

det[Ψ − e−λτ I] = det 


−ατ
e
−λτ
−e
0
−ατ
τe
e−ατ − e−λτ




=0
(4.21)
si ottiene (λ + α)2 = 0, quindi λ = −α con degenerazione 2. Inoltre, dato che abbiamo svolto la dimostrazione con un indice i generico, si ottiene che gli esponenti
valgono tutti λl = −α per l = 1, · · · ,2(N − 1). Questi esponenti corrispondono agli
esponenti di Lyapunov trasversi nello studio della sincronizzazione dei sistemi dinamici [36, 37] in quanto misurano il tasso di convergenza esponenziale verso lo stato
sincronizzato in cui tutti i campi sono uguali a causa dell’accoppiamento globale.
Dunque tutte le variabili si sincronizzano tra loro e, dal momento che l’autovalore
è negativo, si sincronizzano con la dinamica della coppia (E1 , P1 ). Questo spiega
perché otteniamo in figura (4.1) una banda pari a −α sia nello stato asincrono che
nello stato parzialmente sincronizzato.
Focalizziamo adesso la nostra attenzione sull’inserto della figura (4.1b), dove
abbiamo evidenziato l’andamento degli esponenti di Lyapunov in prossimità dello
zero. L’esponente di Lyapunov massimo λ1 è zero, mentre gli altri sono tutti negativi; questo significa che abbiamo a che fare con una dinamica quasiperiodica. Gli
esponenti di Lyapunov nulli del sistema a tempo continuo sono in realtà due, ma uno
di essi viene eliminato passando al tempo discreto a causa della sezione di Poincaré
effettuata. In figura (4.1a) invece gli esponenti sono tutti negativi, come si vede
chiaramente nell’inserto, e l’unico esponente nullo, tipico di uno stato periodico, è
stato rimosso in virtù del passaggio al tempo discreto.
Indaghiamo adesso l’esistenza di eventuali leggi di scala che caratterizzino gli
spettri di Lyapunov per reti globalmente accoppiate al variare del numero di neuroni
N della rete. Limitiamo la nostra analisi a due casi specifici: reti neurali con a = 1.3,
g = 0.4 e α = 3 che si trovano nello stato asincrono e reti con a = 1.3, g = 0.4
e α = 9 che sono caratterizzate da un regime di sincronizzazione parziale (vedi
paragrafo 3.2.4). Nel caso α = 3 ci aspettiamo che gli spettri di Lyapunov scalino
come 1/N 2 dal momento che già gli esponenti di Floquet associati alle componenti
di lunghezza d’onda breve mostrano tale dipendenza da N (vedi paragrafo 3.2.2). I
risultati di simulazioni numeriche (vedi figura 4.2a) ci confermano la validità di tale
legge di scala al variare di N per reti neurali che si trovino nello stato asincrono. In
particolare, tali risultati ci dicono che gli spettri degli esponenti di Lyapunov, per
α = 3, una volta moltiplicati per N 2 , collassano su una curva universale quando siano
riportati in funzione di una variabile riscalata j/N, dove j è l’indice dell’esponente
di Lyapunov, una volta che lo spettro sia stato ordinato in maniera decrescente. Nel
caso di reti in regime di sincronizzazione parziale (α = 9) tale legge di scala sembra
-0.4
(b)
(a)
-5
-0.5
-0.6
2
λj N
λj N
2
-6
-0.7
-7
-0.8
N=50
N=100
N=200
-0.9
N=50
N=100
N=200
-8
-1
0
0.1
0.2
0.3
0.4
-9
0.5
0
0.1
0.2
j/N
0.3
0.4
0.5
j/N
Figura 4.2. Analisi del riscalamento degli spettri di Lyapunov per sistemi di dimensione diversa (N = 50,100,200). Gli spettri originali, ordinati in maniera decrescente, sono riportati in funzione della variabile riscalata j/N , dove j è l’indice
dell’esponente di Lyapunov. In ordinata gli esponenti sono moltiplicati per N 2 .
Per maggiore chiarezza è riportata solo la prima banda dello spettro. (a) Le reti
indagate sono globalmente connesse e in regime di stato asincrono (α = 3). (b)
Le simulazioni interessano reti globalmente connesse in regime di sincronizzazione
parziale (α = 9). L’autovalore massimo, che vale per tutte e tre le realizzazioni
di reti 0, è stato omesso dalla figura, in modo da visualizzare meglio l’andamento
della parte restante dello spettro riportata.
0.06
0.012
λ1
λ1
0.05
0.01
0.008
0.04
0.006
0.03
0.004
0.02
0.002
0
0.01
(a)
0
0.1
0.2
Percentuale di legami recisi
(b)
0.3
0
0
0.1
0.2
0.3
Percentuale di legami recisi
Figura 4.3. Andamento dell’esponente di Lyapunov massimo in funzione della
percentuale di legami recisi. Le simulazioni sono state fatte utilizzando una rete
di N = 200 neuroni in presenza di disordine quenched. I risultati presentati interessano due diversi valori del parametro α: in figura (a) è stato utilizzato α = 3; in
figura (b) invece α = 9. In entrambi i casi a = 1.3 e g = 0.4.
essere verificata solo per grandi dimensioni della rete; i risultati numerici sembrano
indicare infatti che gli spettri collassino anche in questo caso su una curva universale
solo per N sufficientemente grandi (vedi figura 4.2b)
4.2.2
Reti diluite
Passiamo ora a reti diluite e vediamo come varia l’esponente di Lyapunov massimo
λ1 in funzione della percentuale di legami recisi. Non appena i neuroni non sono
40
0%
1%
5%
10%
20%
25%
30
P
20
10
0
0
1
0.5
2
1.5
2.5
E
Figura 4.4. Andamento della variabile P̄ in funzione del campo Ē al variare della
percentuale di legami recisi. Le simulazioni interessano una rete di N = 1600
neuroni, in presenza di disordine annealed. I parametri usati sono α = 9, a = 1.3
e g = 0.4.
0.02
(a)
(b)
0
0
0
0
λj
-0.02
λj
-1
-2
λj
-0.04
-0.05
-5
λj
-0.1
-3
-10
-4
-0.06
-0.15
50
0
10
j
100
0
150
20
30
j
40
50
0
50
10
j
100
150
20
30
40
50
j
Figura 4.5. Spettro di Lyapunov per una rete diluita composta da N = 50 neuroni. Gli esponenti di Lyapunov λj sono ordinati in maniera decrescente. (a) I
risultati si riferiscono ad α = 3. (b) I risultati di simulazioni numeriche interessano
reti caratterizzate da α = 9. In entrambi i casi si ha una diluizione del 20%, la
presenza di disordine quenched ed inoltre g = 0.4 e a = 1.3.
più equivalenti tra loro, ovvero non appena alcune connessioni vengono meno, il
sistema diventa caotico e l’esponente massimo diventa positivo, come si può vedere
in figura (4.3). Fissata la dimensione della rete, si osserva che il valore dell’esponente
di Lyapunov massimo aumenta all’aumentare della diluizione, sia nel caso α = 3
(figura 4.3a), che nel caso α = 9 (figura 4.3b) 4 . All’aumentare della percentuale di
legami recisi varia anche la forma dell’attrattore, come si può vedere in figura (4.4).
4
Per calcolare le barre di errore abbiamo stimato l’esponente di Lyapunov massimo, a parità
del valore dei parametri e della percentuale di diluizione, a partire da dieci configurazioni iniziali
diverse della rete e dunque a partire da dieci realizzazioni del disordine diverse. Le barre di errore
rappresentano la deviazione standard su questi dieci valori ottenuti per l’esponente massimo.
In questa figura riportiamo l’andamento della variabile P̄ in funzione del campo Ē
per molti tempi successivi; tali variabili sono ottenute mediando, ad ogni passo di
integrazione della mappa, {Ei , Pi } fra tutti i neuroni, cioè
Ē(n) =
PN
Ei (n)
,
N
i=1
P̄ (n) =
PN
Pi (n)
.
N
i=1
(4.22)
Solo nel caso di una diluizione minima, pari all’1% dei legami totali, la forma dell’attrattore è simile a quella del sistem globalmente accoppiato, anche se aumentano sia l’ampiezza del campo Ē, che quella della variabile P̄ ; per diluizioni superiori l’ampiezza del campo Ē diminuisce, mentre aumenta quella della variabile
P̄ . Le curve si deformano, si allargano e tendono ad esplorare, all’aumentare della diluizione, la parte del piano caratterizzata da piccoli valori di Ē. Si ricorda
che grandi valori del campo corrispondono a neuroni che emettono impulsi a tempi
ravvicinati, mentre piccoli valori sono associati ad emissioni decorrelate.
Analizziamo adesso gli spettri di Lyapunov per una rete diluita di N = 50
neuroni (vedi figura 4.5). Come nel caso globalmente accoppiato, anche in questo
caso sono presenti due bande distinte e due autovalori isolati; la banda superiore è
quella relativa alla dinamica dei vi , mentre quella inferiore deriva dalla dinamica dei
campi Ei , Pi . L’introduzione del disordine nella rete, dovuto alla diluizione, fa sı̀ che
la seconda banda non sia più una retta orizzontale di valore esattamente pari a −α,
come era in figura (4.1). In questo caso gli autovalori della banda assumono valori
prossimi a −α, dato che, a causa dell’introduzione della diluizione, non ci sono più
variabili ridondanti ed i campi {Ei , Pi }, per i = 1, · · · ,N, sono tutti indipendenti
e diversi tra loro. Sia in figura (4.5a) che in (4.5b) è evidenziata la struttura della
banda superiore, mentre, in piccolo, è riportato l’intero spettro. Si nota che un
numero finito di esponenti di Lyapunov è positivo; questo significa che il caos è
alto-dimensionale, dal momento che il numero di esponenti positivi corrisponde al
numero di gradi di libertà attivi del sistema [33]. In particolare la dimensione di
Kaplan-Yorke del sistema Dky (che fornisce una stima delle dimensioni dell’attrattore
caotico, vedi appendice C.2.2 per maggiori dettagli) è pari a Dky = 45.3 nel caso
α = 3 ed a Dky = 37.0 nel caso α = 9.
4.3
Diagramma di biforcazione
In questo paragrafo studieremo come l’introduzione del disordine vada a modificare lo scenario di biforcazione osservato in reti omogenee globalmente accoppiate
(vedi paragrafo 3.2.3). Vogliamo indagare inoltre quanto sia robusto rispetto alla
diluizione lo stato parzialmente sincronizzato del sistema globalmente accoppiato.
Ci limiteremo a considerare come valori dei parametri g = 0.4 ed a = 1.3, che corrispondono a quelli utilizzati da van Vreeswijk nel suo articolo del 1996 [29]; con tali
parametri van Vreeswijk verificò, per reti globalmente accoppiate, la presenza di una
transizione dallo stato asincrono allo stato parzialmente sincronizzato in corrispondenza di un valore di α pari ad αc = 8.34 ± 0.01. Questa analisi è stata estesa da
Zillmer et al. [10] a tutto l’intervallo dei valori di g. Questo ci consente dunque di
dare una stima della variazione del valore di αc dovuta alla presenza della diluizione
nella rete. Se supponiamo che alla diluizione possa corrispondere, in una rete omogenea, una diminuizione del parametro di accoppiamento g di una percentuale pari
a quella dei legami recisi, possiamo stimare, a priori, il valore di αc per reti diluite,
utilizzando i risultati numerici ottenuti per reti globalmente connesse [10]. Consideriamo dunque una rete con il 20% di legami recisi. Essa corrisponderebbe ad una
rete omogenea con un accoppiamento riscalato pari a gr = 0.32 invece di 0.4. Quindi, a partire dal diagramma di fase (3.3) si ottiene che il valore di ᾱc corrispondente
a tale gr è ᾱc = 6.8 ± 0.4.
Proseguiamo la nostra analisi confrontando alcuni risultati ottenuti per reti
diluite e per reti omogenee. Abbiamo già ampiamente discusso del caso di reti
40
3
5
6
6.7
7
9
11
30
P(v)
(a)
20
10
0
0
0.2
0.4
v
0.6
0.8
1
Figura 4.6. (a) Andamento della densità di probabilità P (v) in funzione del potenziale di membrana v. Facendo riferimento al diagramma di fase (3.3) descritto nel
paragrafo (3.2.3), sappiamo che si ha una transizione per ᾱc = 6.8 ± 0.4, in corrispondenza di gr = 0.32. (b) Andamento del campo P̄ in funzione del campo Ē
al variare della costante α. I dati riportati si riferiscono ad una rete globalmente
connessa con N = 1600 neuroni, gr = 0.32 e a = 1.3.
globalmente accoppiate, ma vogliamo presentare in questo paragrafo una diversa descrizione dell’attrattore e l’andamento della densità di probabilità P (v) del
potenziale di membrana v. Il calcolo della densità di probabilità P (v) ci permette
di analizzare la sincronizzazione dei neuroni e la formazione di raggruppamenti. Per
studiare la situazione di massima sincronizzazione, la densità di probabilità P (v) è
calcolata, qui come nel resto della tesi, a tempi successivi corrispondenti ai massimi
del campo Ē. Questo equivale ad effettuare campionamenti successivi in situazioni
analoghe della rete; in altre parole la condizione di massimo ci consente di effettuare una sezione di Poincaré dell’evoluzione dinamica dei potenziali di membrana.
La scelta dei punti di massimo del campo Ē non è casuale se vogliamo studiare
la situazione di massima sincronizzazione, infatti il singolo campo Ei costituisce la
sovrapposizione lineare degli impulsi ricevuti dall’i-esimo neurone, quindi tanto più
Ē è elevato, tanti più neuroni emettono impulsi in sincronia.
Nel caso di rete globalmente connessa (vedi figura 4.6a) passiamo da una densità
di probabilità pressoché omogenea per α < ᾱc , tipica dello stato asincrono, a curve
estremamente localizzate per α ≥ 9; questo significa che al crescere di α si ha una
tendenza ad aumentare la sincronia e già per α = 9, si realizza uno stato quasi
3
5
6
6.7
7
9
11
12
10
8
P(v)
(a)
6
4
2
0
0.2
0.4
v
0.6
0.8
1
Figura 4.7. (a) Andamento della densità di probabilità P (v) in funzione del potenziale di membrana v, al variare della costante α. (b) Andamento del campo P̄ in
funzione del campo Ē al variare della costante α. I dati riportati si riferiscono
ad una rete con N = 1600 neuroni, con il 20% di legami rotti e in presenza di
disordine quenched; inoltre g = 0.4 e a = 1.3.
sincronizzato. Le curve estremamente localizzate ottenute per α > 9 indicano anche
la presenza di un chiaro raggruppamento di neuroni (vedi figura 4.6a per α = 11).
Nel caso di rete diluita con disordine quenched (vedi figura 4.7) lo scenario è simile
e anche in questo caso si può notare la transizione da uno stato che ricorda lo stato
asincrono ad uno stato assimilabile a quello parzialmente sincronizzato. Non possiamo parlare propriamente di stato asincrono o di stato parzialmente sincronizzato
in presenza di diluizione, dal momento che gli stati, in questo nuovo scenario, sono
caotici. Abbiamo dunque a che fare con stati diversi da quelli che caratterizzano la
dinamica di reti globalmente accoppiate; nonostante ciò alcune caratteristiche della
dinamica microscopica associata all’evoluzione dei vi e delle variabili Ei , Pi , si mantengono anche in presenza di diluizione. L’introduzione del disordine fa sı̀ che la
curva P (v) sia molto meno localizzata e liscia ad α = 9 rispetto al caso precedente,
ma rimane una chiara indicazione dell’aumento del grado di sincronizzazione.
Per caratterizzare la forma dell’attrattore che descrive la dinamica collettiva della rete riportiamo ora i valori delle variabili Ē, P̄ , a vari istanti di tempo, nel piano
(Ē,P̄ ). Nel caso di rete globalmente accoppiata (vedi figura 4.6b) la forma dell’attrattore varia al crescere di α; per α < ᾱc gli attrattori sono punti fissi stabili,
mentre per α > ᾱc divengono orbite periodiche stabili la cui forma varia con α. Nel
caso di una rete diluita quenched (vedi figura 4.7) si osserva uno scenario analogo:
per α < ᾱc al punto fisso si sostituisce un attrattore caotico che forma una nube di
punti, mentre per α > ᾱc l’attrattore si sviluppa intorno ad una curva chiusa, che
cambia al variare di α. A parità di dimensioni della rete e del valore parametro a
ed utilizzando una costante di accoppiamento opportunamente riscalata, osserviamo
che queste curve chiuse non coincidono con le orbite della rete globalmente connessa.
Ad ogni modo l’immagine della dinamica della rete globalmente accoppiata rimane
min E, max E
4
Fase I
3
Fase II
2
1
0
0
5
αc
10
15
α
20
Figura 4.8. Diagramma di biforcazione per il passaggio da un apparente punto
fisso stabile ad un’orbita simil-periodica stabile in corrispondenza di un valore ᾱc .
I punti rossi rappresentano i valori di massimo del campo Ē, mentre i punti neri
corrispondono ai valori di minimo assunti dal campo Ē. Ogni coppia di valori si
riferisce ai risultati delle simulazioni per un singolo valore di α. Le barre di errore
non sono state riportate in quanto minori delle dimensioni dei simboli usati. Le
simulazioni effettuate si riferiscono ad una rete con N = 1600 neuroni in presenza
di disordine quenched e con il 20% di legami recisi; inoltre g = 0.4 e a = 1.3. La
linea tratteggiata si riferisce al valore di α¯c (vedi testo per maggiori dettagli).
analoga a quella della rete diluita. Questo è dovuto al fatto che gli attrattori caotici
rimangono localizzati in prossimità degli attrattori del sistema non disordinato. La
diluizione produce quindi caos su scale relativamente piccole vista la localizzazione
dell’attrattore caotico. Ha senso dunque estendere il diagramma di biforcazione al
caso di rete diluita. Tale diagramma è mostrato in figura (4.8) assieme al valore ᾱc
di cui abbiamo discusso in precedenza. Per costruire tale diagramma di biforcazione
abbiamo riportato i valori massimi e minimi ottenuti, per ogni valore di α, per il
campo Ē 5 . In questo modo possiamo dedurre quali sono le soluzioni della dinamica
del sistema. Per α < ᾱc i valori massimi e minimi di Ē assumono valori molto prossimi tra loro mentre per α ≥ ᾱc i due valori sono assolutamente non coincidenti. Il
diagramma di biforcazione cosı̀ ottenuto risulta simile a quello riportato nella figura
(3.3). Più precisamente si osserva una transizione da un “quasi punto fisso” (cioè
l’attrattore dato dalla nube di punti per α < ᾱc ) ad una “quasi orbita periodica”
(rappresentata dalla nube di punti attorno all’orbita periodica per α > ᾱc ). In realtà questo abuso di linguaggio risulta naturale nella descrizione dell’analogia tra il
caso globalmente accoppiato e quello diluito: in quest’ultima situazione si ottengono
attrattori che, seppur caotici, rimangono prossimi a quelli del caso marginalmente
stabile e stabile.
In seguito ci riferiremo, unicamente per semplificare la notazione, agli stati ottenuti per α < ᾱc e corrispondenti al “quasi punto fisso” come a “stati della fase
I”, mentre ci riferiremo agli stati ottenuti per α > ᾱc come a “stati della fase II”.
Entriamo ora in dettaglio considerando un solo stato nella fase I corrispondente ad
α = 3 ed uno solo nella fase II corrispondente ad α = 9.
In una rete omogenea in regime di stato asincrono i campi associati ai singoli neuroni sono costanti nel tempo ed identici fra di loro. Nel caso diluito per α = 3, come
mostrato in figura (4.9a), i singoli campi mostrano piccole oscillazioni nel tempo e
sono distinti. Il disordine ha quindi un effetto chiaramente visibile nella dinamica di
questo stato. In uno stato asincrono esatto i neuroni emettono potenziali di azione
in modo temporalmente equispaziato; la presenza di disordine quenched (vedi figura
4.10a) fa sı̀ che i potenziali di membrana non siano più equispaziati ed alcuni neuroni
tendano a raggrupparsi. Queste sono le caratteristiche del comportamento caotico
del modello diluito che comunque lo mantengono prossimo al comportamento di
5
I minimi ed i massimi di Ē riportati in figura (4.8) sono stati stimati identificando i punti
estremali di Ē nel tempo e calcolandone le relative medie e deviazioni standard. In particolare
abbiamo considerato una sequenza temporale di Ē contenente 3100 minimi e massimi.
2
(a)
0.88
(b)
1.5
0.86
E
E
1
0.84
0.82
0.5
0.8
272
274
276
278
261
261.5
262
Tempo
262.5
263
Tempo
Figura 4.9. Andamento del campo esterno in funzione del tempo. (a) I risultati
si riferiscono ad α = 3. Mentre le linee continue nera, verde ed arancione si
riferiscono a campi di singolo neurone, la linea tratteggiata magenta si riferisce al
campo medio Ē. (b) I risultati si riferiscono ad α = 9. Le linee continue viola,
azzurro e magenta si riferiscono a campi di singolo neurone, mentre la linea nera,
tratteggiata, si riferisce al campo medio Ē. In entrambi i casi si ha una a che fare
con una rete con N = 400 neuroni, con disordine quenched e diluizione del 20%;
inoltre g = 0.4 e a = 1.3.
1
1
0.8
0.8
0.6
0.6
V
V
0.4
0.4
0.2
0.2
(a)
0
140
140.5
141
141.5
Tempo
142
(b)
0
271.5
272
273
272.5
273.5
274
Tempo
Figura 4.10. Andamento di alcuni potenziali di membrana di singolo neurone
in funzione del tempo. (a) I risultati di simulazioni numeriche interessano reti
caratterizzate da α = 3. (b) I risultati interessano reti caratterizzate da α = 9. In
entrambi i casi la rete analizzata è composta da N = 400 neuroni, in presenza di
disordine quenched, con una diluizione del 20% ed inoltre con g = 0.4 e a = 1.3.
quello globalmente accoppiato.
In corrispondenza di un regime di sincronizzazione parziale proprio della rete
accoppiata otteniamo un andamento periodico per i campi Ei di singolo neurone.
In una rete diluita si osserva una dinamica caotica corrispondente ad un attrattore
localizzato nell’intorno di quello della rete globalmente accoppiata. Come mostrato
in figura (4.9b) per α = 9, anche in questo caso sono presenti scarti e fluttuazioni
tra i singoli campi e il campo medio, analoghe a quelle trovate per α = 3, ma non
sono visibili su questa scala data l’ampiezza delle oscillazioni dei campi. Per α = 9
0.06
λ1
0.05
0.04
Fase I
0.03
Fase II
0.02
0.01
0
0
5
αc
10
α
15
Figura 4.11. Andamento dell’esponente di Lyapunov massimo in funzione di α.
Le simulazioni effettuate si riferiscono ad una rete con N = 200 neuroni, in presenza
di disordine quenched e con il 20% di legami recisi; inoltre g = 0.4 e a = 1.3. La
linea tratteggiata si riferisce al valore stimato di ᾱc .
inoltre i potenziali di membrana risultano più in fase rispetto al caso α = 3, ma sono
comunque diversi da neurone a neurone (vedi figura 4.10b). Ciò è dovuto al fatto che,
nello stato parzialmente sincronizzato, i potenziali di membrana emettono i rispettivi
potenziali di azione quasi contemporaneamente (questo spiega anche perché i campi
Ei siano cosı̀ grandi rispetto al caso di stato asincrono). Qualcosa di analogo, a
causa della caoticità della dinamica, avviene anche nel caso diluito.
Più in generale possiamo chiederci se lo scenario del diagramma di biforcazione
si rifletta nell’andamento degli esponenti di Lyapunov massimi che misurano con
precisione l’insorgenza del caos (vedi appendice C.2). Il diagramma di biforcazione
infatti avrebbe un significato di per sè discutibile se non fosse che gli attrattori dei
sistemi diluiti sono localizzati vicino a quelli dei sistemi non diluiti, dal momento
che, in presenza di disordine, non possiamo parlare nè di stati stabili nè di vere e
proprie fasi termodinamiche. Per avvalorare quanto ottenuto con il diagramma di
biforcazione stimiamo numericamente l’andamento dell’esponente di Lyapunov massimo, al variare di α, per reti con disordine quenched ed a partire dalla mappa ad
evento guidato introdotta nel paragrafo (4.1.1). Analizzando l’andamento dell’esponente di Lyapunov massimo λ1 in funzione di α, riportato in figura (4.11), possiamo
notare che lo stato della fase I appare debolmente caotico (λ1 ∼ 10−2 ), mentre lo
stato della fase II appare più caotico (λ1 ∼ 5 10−2 ). Se facciamo un parallelo con
quanto trovato per le reti globalmente accoppiate (paragrafo 3.2.3), vediamo che,
anche in quel caso, il passaggio dallo stato asincrono allo stato parzialmente sincronizzato comportava un aumento dell’instabilità, poiché l’esponente di Lyapunov
massimo passava da negativo (stato stabile) a nullo (stato marginalmente stabile).
Ad ogni modo troviamo, anche nel presente caso, una chiara indicazione della transizione. Il fatto che la transizione sembri avvenire in corrispondenza di un valore di
α minore di ᾱc è dovuto ad effetti di taglia finita. I risultati delle simulazioni numeriche si riferiscono infatti a sistemi con N = 200 neuroni. Effettuare simulazioni
a taglie più elevate sarebbe stato troppo dispendioso, comunque ci aspettiamo che
nel limite N → ∞ il punto di transizione coincida con ᾱc 6 .
In quanto segue ci limiteremo ad analizzare il caso α = 9, che presenta caoticità maggiore, al fine di studiare in maggior dettaglio gli effetti di differenti tipi di
disordine su uno stato dinamico collettivo della rete.
4.4
Disordine quenched
Caratterizziamo adesso uno stato della fase II dal punto di vista dinamico, in presenza di disordine quenched, per dimensioni crescenti della rete. L’ampiezza dei campi
osservata nel regime corrispondente alla fase II (vedi figura 4.9b), ci fa supporre di
aver a che fare con un raggruppamento di neuroni che viaggiano assieme. Analizzando l’andamento della densità di probabilità P (v) ci aspettiamo cosı̀ di trovare
curve sempre più localizzate all’aumentare delle dimensioni del sistema e di avere
una sincronizzazione completa nel limite termodinamico. Facendo riferimento al6
Le barre di errore riportate in figura sono calcolate utilizzando i risultati ottenuti a partire da
dieci configurazioni iniziali diverse della rete. Per ogni valore della costante α abbiamo calcolato
l’esponente di Lyapunov massimo per dieci realizzazioni diverse della rete ed abbiamo preso come
barra di errore la deviazione standard calcolata sui valori trovati per gli esponenti.
800
1600
3200
6400
12800
46000
15
Pmax
15
10
10
P(v)
0
10000
20000
30000
40000 N
5
5
(a)
0
0
0.2
0.4
v
0.6
0.8
1
Figura 4.12. (a) Andamento della densità di probabilità P (v) in funzione del
potenziale di membrana v, al variare delle dimensioni della rete. La curva tratteggiata di colore verde si riferisce all’andamento della densità di probabilità ottenuto per una rete di N = 100,000 neuroni in presenza di disordine annealed.
Nell’inserto mostriamo l’andamento dei valori assunti dalla densità di probabilità
in corrispondenza dei massimi, Pmax , in funzione di N . Le barre di errore non sono
riportate nell’inserto perché risultano minori dei simboli impiegati. La linea verde
tratteggiata indica il valore massimo assunto dalla densità di probabilità Pmax nel
caso di una rete con 100,000 neuroni, in presenza di disordine annealed. (b) Andamento del campo P̄ in funzione di Ē, al variare delle dimensioni della rete. In
entrambi le figure si ha una diluizione del 20% ed inoltre α = 9, g = 0.4 e a = 1.3.
la figura (4.12a), vediamo non solo che le curve P (v) diventano più localizzate al
crescere di N, ma anche che la struttura delle curve varia all’aumentare delle dimensioni della rete. In figura (4.12a) è riportato inoltre l’andamento della densità
di probabilità P (v) per una rete con N = 100,000 neuroni, in presenza di disordine
annealed. Tale curva appare come la curva limite per la densità di probabilità calcolata in presenza di disordine quenched. Nell’inserto è mostrato l’andamento dei
valori massimi assunti dalla densità di probabilità Pmax in funzione di N; tali valori
aumentano all’aumentare della dimensione della rete e sembrano saturare al valore
massimo assunto dalla densità di probabilità stimata per una rete di N = 100,000
neuroni con disordine annealed.
Per caratterizzare lo stato collettivo del sistema riportiamo, nel piano (Ē, P̄ ),
l’attrattore corrispondente (figura 4.12b). All’aumentare delle dimensioni della rete
le curve si allargano e il loro spessore si assottiglia e sembrano convergere ad una
curva limite, riportata in figura e corrispondente ad una rete di N = 100,000 neuroni, con disordine annealed. Il caso con disordine quenched sembra cosı̀ convergere
a quello con disordine annealed nel limite termodinamico. Questa congettura, che il
limite termodinamico dei sistemi con disordine quenched sia rappresentato da quelli
con disordine annealed, è confermata, oltre che dai risultati riportati in figura (4.12),
anche dall’analisi dell’andamento del valore massimo assunto da Ē in funzione del
numero di neuroni nella rete. Come mostrato in figura (4.13a), tale valore tende ad
un valore asintotico al crescere di N; l’asintoto è rappresentato dal valore massimo
del campo Ē ottenuto nel caso di disordine annealed per N = 100,000 neuroni.
Per verificare quantitativamente se le fluttuazioni di Ē tendono a svanire nel limite
termodinamico, stimiamo la sua deviazione standard σ
7
su una serie di misure suc-
cessive. Dalla figura (4.13b) si osserva un decadimento di σ con una legge a potenza
del tipo N −ζ con ζ = 0.52 ± 0.02. Questo risultato è assolutamente non ovvio, dato
che σ non rappresenta l’errore sulla media Ē, ma la larghezza della distribuzione dei
valori assunti istantaneamente dai campi {Ei }, quindi ci dice che nel limite termodinamico i campi si sincronizzano tutti fra di loro. Il fatto che l’esponente con cui
decade σ sia prossimo ad 1/2 ci suggerisce che gli scarti osservati fra i vari campi
abbiano un’origine di tipo stocastico. In effetti ogni campo Ei , ad un determinato
7
Indicando con H il numero di potenziali d’azione emessi nell’intervallor
di tempo considerato, la
PN
P
P
Ek2 (tj )
H
H
1
1
k=1
deviazione standard riportata è definita come σ = H j=1 σj = H j=1
− Ē 2 (tj ).
N
istante, è dato dalla sovrapposizione lineare di impulsi che hanno raggiunto il neurone i a tempi diversi. Quindi, questi impulsi avranno ampiezze differenti al tempo
considerato ed il campo si può quindi vedere come una sovrapposizione lineare di
variabili stocastiche. Assumendo che gli impulsi di ampiezza rilevante per il campo abbiano raggiunto il neurone in un intervallo di tempo unitario, precedente al
tempo in esame, è facile mostrare che il loro numero è proporzionale ad N. Quindi
ci possiamo aspettare dal teorema del limite centrale8 , assumendo la decorrelazione
degli impulsi, che nel limite N → ∞, i campi Ei siano distribuiti in modo gaussiano
√
con una deviazione standard che decresce come 1/ N .
0.1
2.2
max E
2.1
2
σ
0.01
1.9
1.8
1.7
1.6
(b)
(a)
100
1000
10000
N
0.001
100
1000
10000
N
Figura 4.13. (a) Andamento del valore massimo assunto dal campo Ē al variare
delle dimensioni della rete. È riportato inoltre il valore limite a cui tali campi
dovrebbero convergere nel limite termodinamico. Il valore limite è dato dal massimo di Ē, trovato con disordine annealed. L’asse delle ascisse è riportata in scala
logaritmica. Il valore massimo di Ē è stato calcolato considerando, a seconda del
valore di N , da 104 sino a 106 iterazioni della mappa ad evento guidato che corrispondono, per ogni N , a 3100 punti di massimo. (b) Andamento della deviazione
standard del campo Ē in funzione delle dimensioni della rete. Entrambi gli assi
sono, in questo caso, in scala logaritmica. La deviazione standard ha un andamento stimato pari a σ ∝ N −ζ con ζ = 0.52 ± 0.02. Il numero di impulsi emessi
nell’intervallo di tempo considerato, su cui viene eseguita la media temporale per
σ, è pari a H = 900. In entrambe le figure si ha una diluizione del 20% ed inoltre
α = 9, g = 0.4 e a = 1.3.
Stimiamo ora il grado di caoticità del sistema attraverso il calcolo dell’ esponente
di Lyapunov massimo per varie taglie del sistema. Riportiamo in figura (4.14) l’andamento dell’esponente di Lyapunov massimo λ1 in funzione delle dimensioni della
8
Il teorema del limite centrale afferma che la somma di un un numero Z sufficientemente alto
di variabili indipendenti e aleatorie, ognuna con varianza e media finite, sarà distribuita come una
gaussiana con la stessa media delle variabili originarie e varianza ridotta di un fattore Z.
√
rete. Nonostante le fluttuazioni di Ē decrescano come 1/ N , λ1 rimane positivo al
crescere di N e tende a saturare verso un valore asintotico, anch’esso diverso da zero
e positivo, entro le barre di errore 9 . Una stima del valore a cui tende l’esponente
di Lyapunov massimo nel limite N → ∞ si ottiene dall’interpolazione dei dati a
N ≥ 6400 con un andamento del tipo A + B/ ln(N) ed in particolare dal valore
dell’intercetta A. Si ha cosı̀ che il valore asintotico stimato è λ1 = (12 ± 1) · 10−2.
L’andamento logaritmico con N di λ1 si può collegare a quanto trovato per sistemi
caotici a molti gradi di libertà, con accoppiamento diffusivo, quali le mappe accoppiate [38, 39], ove è stato visto che l’esponente di Lyapunov massimo del sistema
varia rispetto all’esponente della singola mappa caotica in maniera inversamente proporzionale al valore assoluto del logaritmo della costante di accoppiamento; questo
si osserva per accoppiamenti sufficientemente piccoli. Occorre notare che, nel caso presente, la costante di accoppiamento è proporzionale a 1/N, come si deduce
dall’espressione per l’accoppiamento impulsivo (4.3, 4.4).
Dunque, nonostante i campi Ei si sincronizzino tra loro e la dinamica macroscopica, caratterizzata dal campo Ē, tenda a divenire periodica, il sistema resta
caotico nel limite N → ∞. Questo indica chiaramente che il caos, in questo caso,
ha un’origine microscopica nella dinamica dei singoli potenziali di membrana. È importante notare che questa situazione è altamente non banale. Questa si può vedere
come una generalizzazione dello stato parzialmente sincronizzato in reti globalmente
connesse ad una situazione in cui la dinamica dei singoli neuroni è diversa a causa
del disordine presente nella rete.
9
Le barre di errore sono state calcolate prendendo dieci diverse realizzazioni della rete su cui
calcolare, in maniera indipendente, λ1 e la deviazione standard tra questi valori.
0.1
0.08
0.06
λ1
0.04
y= A + B/ ln N
0.02
0
0
5000
10000
15000
20000
25000
30000
N
Figura 4.14. Andamento dell’esponente di Lyapunov massimo λ1 in funzione di N .
La curva tratteggiata magenta rappresenta l’interpolazione ottimale dei dati con
6400 ≤ N ≤ 25600 con una curva del tipo y = A + B/ ln(N ), con A = 0.12 ± 0.01
e B = −0.24 ± 0.04. Le simulazioni effettuate si riferiscono ad una rete con il 20%
di legami recisi, α = 9, g = 0.4 e a = 1.3.
4.5
Disordine annealed
Caratterizziamo in questo paragrafo la dinamica della rete ad α = 9 in presenza
di disordine annealed; il disordine della rete viene adesso generato ad ogni passo
di evoluzione della mappa, quindi la presenza (o l’assenza) dei legami tra i neuroni
viene ridefinita ad ogni passo di integrazione. Per brevità non riportiamo, in questo
paragrafo, i risultati numerici relativi all’analisi dello scenario di biforcazione in presenza di disordine annealed, dato che qualitativamente otteniamo gli stessi risultati
trovati nel paragrafo (4.3) in presenza di disordine quenched. Ci concentriamo invece sull’analisi della dinamica microscopica e macroscopica della rete, alla stregua
di quanto fatto nel paragrafo precedente.
Analizzando la densità di probabilità P (v), osserviamo, analogamente al caso di
disordine quenched, curve sempre più localizzate all’aumentare delle dimensioni del
sistema. Ma, mentre nel caso di reti con disordine quenched variava sia la forma
della curva che l’altezza del picco, nel caso presente la forma della curva non cambia
sostanzialmente all’aumentare delle dimensioni della rete. Questa è un’indicazione
800
1600
3200
6400
25000
50000
100000
15
16
Pmax
14
10
12
P(v)
0
20000
40000
60000
80000
10
1e+05
N
5
0
0
0.2
0.4
v
0.6
0.8
1
Figura 4.15. Andamento della densità di probabilità P (v) in funzione del potenziale di membrana v, al variare delle dimensioni della rete. Nell’inserto mostriamo
l’andamento del valore assunto dalla densità di probabilità in corrispondenza del
massimo, Pmax , al variare di N . Nell’inserto non sono riportate le barre di errore perché risultano minori dei simboli impiegati. Le simulazioni effettuate si
riferiscono ad una rete con il 20% di legami recisi, α = 9, g = 0.4 e a = 1.3.
della maggior omogeneità della rete anche a valori bassi di N. Inoltre, data la localizzazione sempre maggiore delle curve mostrate in figura (4.15), ci aspettiamo,
anche in questo caso, di avere una sincronizzazione completa nel limite termodinamico. Questo è confermato da quanto riportato nell’inserto della figura (4.15), dove
mostriamo l’andamento crescente del valore assunto da P (v) in corrispondenza del
picco, al variare di N.
Analizziamo adesso l’attrattore associato alla dinamica macroscopica (figura
4.16), caratterizzato dalle curve riportate nel piano (Ē,P̄ ) per vari N. Nel caso
presente si osserva una modesta modifica della forma delle curve, che si allargano in
modo relativamente ridotto al crescere delle dimensioni della rete, mentre si osserva
sempre una diminuzione delle fluttuazioni delle curve con N, come ci si aspettava da
quanto riportato al paragrafo precedente. In altri termini le ampiezze massime dei
campi Ē e P̄ variano poco all’aumentare di N e si osserva solo una diminuzione dello
spessore degli attrattori, che convergono ad una curva limite per N → ∞, come è
36
P
35
1600
6400
25000
100000
34
0.9
1
1.1
1.2
1.3
(b)
1.4
1.5
E
Figura 4.16. Entrambe le figure mostrano l’andamento del campo P̄ in funzione
di Ē, al variare delle dimensioni della rete. (a) Sono riportate le curve complete
nel piano (Ē,P̄ ), per sette diverse dimensioni della rete. (b) In questo caso la
figura mostra un particolare ingrandito delle curve mostrate in (a); i risultati delle
simulazioni interessano, in questo caso solo quattro diverse dimensioni della rete,
per maggior chiarezza. In entrambi i casi si ha una diluizione del 20% ed inoltre
α = 9, g = 0.4 e a = 1.3.
ben visibile in figura (4.16b), dove abbiamo ingrandito una piccola zona degli attrattori mostrati in figura (4.16a), nell’intorno del massimo di Ē. Si deduce dunque
l’esistenza di una curva limite, che è identica, sia per il caso di disordine quenched,
che per quello annealed. In altri termini, i due sistemi sembrano convergere ad
un’unica curva nel limite termodinamico.
La generazione aleatoria delle connessioni attive tra i neuroni ad ogni passo di
evoluzione della mappa comporta, per il sistema, la capacità di automediarsi. È
lecito supporre dunque che le fluttuazioni tra i campi dei singoli neuroni siano più
piccole nel caso di disordine annealed rispetto al caso di disordine quenched. Le
800
800, E
3200
3200, E
50000
50000, E
2.5
2
1.5
E
1
0.5
(a)
0
4525
4530
4535
4540
4545
4550
Tempo
Figura 4.17. Andamento di un campo E di singolo neurone e del campo Ē in funzione del tempo. Le simulazioni sono state eseguite per differenti dimensioni della
rete; in particolare i risultati riportati interessano reti con N = 800, 3200, 50,000
neuroni. Inoltre si ha una diluizione del 20%, α = 9, g = 0.4 e a = 1.3.
fluttuazioni nel caso presente sono effettivamente piccole, come si vede in figura
(4.17). Qui confrontiamo infatti l’andamento del campo Ei dell’i-esimo neurone
con il campo medio Ē, per diverse taglie del sistema. Anche per la taglia più
piccola (N = 800 neuroni) si nota che la differenza tra il campo del singolo neurone
e quello mediato su tutti i neuroni è minima; questo significa che vi è una forte
sincronizzazione fra tutti i campi Ei .
Le fluttuazioni tendono a svanire nel limite N → ∞. Questo è riscontrabile
anche attraverso l’ulteriore analisi riportata in figura (4.18), dalla quale si ricava
che il campo Ē satura ad un valore fissato al crescere di N e che la larghezza della
distribuzione dei campi {Ei }, quantificata ad ogni istante dalla deviazione standard
σ definita nel paragrafo precedente, tende a zero al crescere di N come N −ζ , con
ζ = 0.51 ± 0.01, come mostrato in figura (4.18b). Questo risultato indica che le
fluttuazioni dei campi si comportano in modo analogo a quanto riportato per il
caso di disordine quenched. In figura (4.18a) viene mostrato l’andamento del valore
massimo assunto da Ē in funzione della dimensione della rete. Diversamente dal
caso di disordine quenched, in cui il valore massimo di Ē sembrava saturare ad
0.1
2.28
2.27
max E
2.26
σ
2.25
0.01
2.24
2.23
(a)
2.22
1000
10000
N
1e+05
(b)
0.001
100
1000
10000
1e+05
N
Figura 4.18. (a) Andamento del valore massimo assunto dal campo Ē al variare
delle dimensioni della rete. L’asse delle ascisse è riportata in scala logaritmica. Il
valore massimo di Ē è stato calcolato considerando, a seconda del valore di N ,
da 104 sino a 106 iterazioni della mappa ad evento guidato che corrispondono,
per ogni N , a 3100 punti di massimo. (b) Andamento della deviazione standard
del campo Ē in funzione delle dimensioni della rete. La deviazione standard è
stata calcolata secondo la formula riportata nel paragrafo precedente. Entrambi
gli assi sono, in questo caso, in scala logaritmica. La stima dell’andamento della
deviazione standard è σ ∝ N −ζ , con ζ = 0.51±0.01. Il numero degli impulsi emessi
nell’intervallo di tempo considerato, su cui si effettua la media temporale per σ,
è pari a H = 900. In entrambe le figure si ha una diluizione del 20% ed inoltre
α = 9, g = 0.4 e a = 1.3.
un valore costante solo nel limite N → ∞, nel caso di disordine presente il valore
massimo sembra saturare ad un valore fissato già per N = 25,000.
Caratterizziamo ora la dinamica del sistema attraverso il calcolo degli esponenti
di Lyapunov massimi per varie taglie della rete. L’andamento di questo indicatore
è ciò che differenzia maggiormente il caso di disordine quenched da quello annealed.
Infatti, nonostante la dinamica del campo Ē per i sistemi con disordine quenched
tenda a saturare verso quella per sistemi con disordine annealed, si ha un diverso
andamento di λ1 nel limite N → ∞. Facendo riferimento alla figura (4.19) vediamo
che, nel caso di disordine annealed, l’esponente di Lyapunov massimo sembra tendere
a zero nel limite N → ∞ con un andamento del tipo 1/ ln N. In questo caso
abbiamo evidenze numeriche che il sistema diventi periodico e riacquisti le proprietà
dinamiche del sistema globalmente accoppiato nel limite termodinamico
10
10
.
Anche nel caso presente le barre di errore sono calcolate utilizzando 10 configurazioni iniziali
diverse della rete e 10 risultati diversi dell’esponente di Lyapunov massimo su cui calcolare la
deviazione standard. Le barre di errore sono più piccole rispetto al caso precedente dal momento
che la variazione delle configurazioni iniziali della rete influisce meno sul proseguo della simulazione
nel caso di disordine annealed rispetto al caso di disordine quenched. Nel caso di disordine annealed
Possiamo osservare che il decadimento a zero come 1/ ln N dell’esponente di
Lyapunov massimo è stato osservato anche in sistemi di particelle autogravitanti globalmente accoppiate [40]. In tali sistemi il campo autoconsistente a cui sono
soggette le particelle fluttua irregolarmente, mentre nel caso di reti diluite con disordine annealed il campo Ē sembra avere un andamento periodico nel limite N → ∞.
Dal momento che le particelle autogravitanti in questione sono indistinguibili, possiamo considerare il fatto che entrambi i sistemi presentino lo stesso andamento
dell’esponente di Lyapunov massimo in funzione di N, come una chiara indicazione
dell’effetto di omogeneizzazione degli accoppiamenti visti dai vari neuroni, introdotto
dal disordine annealed. In altri termini questo ci fa supporre che una rete diluita con
disordine annealed si comporti come una rete globalmente accoppiata ed omogenea
nel limite termodinamico.
0.03
(a)
0.025
0.02
λ1 0.015
0.01
0.005
0
0
10000
5000
N
Figura 4.19. Andamento dell’esponente di Lyapunov massimo in funzione di N .
Sono riportati i risultati delle simulazioni effettuate con disordine annealed in scala
lineare. Le simulazioni effettuate si riferiscono ad una rete con il 20% di legami
recisi, α = 9, g = 0.4 e a = 1.3.
le connessioni vengono comunque rigenerate ad ogni passo di evoluzione della mappa, quindi la
condizione iniziale pesa molto di più nelle reti con disordine quenched, visto che rimane fissata per
tutto il tempo di evoluzione della mappa.
4.6
Confronto con il sistema globalmente accoppiato
Come riportato nel paragrafo precedente la generazione del rumore annealed è tale
da indurre, di fatto, una omogeneizzazione degli accoppiamenti visti dai vari neuroni
quindi, nel limite N → ∞, ci possiamo aspettare che una rete diluita, con disordine
annealed, si comporti dinamicamente come una rete omogenea con un termine di
accoppiamento ridotto della percentuale di diluizione dei legami.
Chiariamo ora in maggiore dettaglio come l’accoppiamento entri nella dinamica
di ogni singolo neurone. Come si nota dall’equazione (3.4), il termine forzante che
regola la dinamica del neurone è gE(t), quindi ci aspettiamo che due reti con uguali
termini forzanti (g Ē, g P̄ ) abbiano la stessa dinamica, qualora tutti i campi siano
sufficientemente sincronizzati.
Per prima cosa verifichiamo se, per una rete omogenea ad α fissato, cambiare il
parametro di accoppiamento g non equivalga ad un banale riscalamento dei campi
(Ē,P̄ ). Consideriamo il caso α = 9; in questo caso sappiamo, dal diagramma di fase
(3.3), che a gc = 0.42±0.02 si ha una transizione da uno stato asincrono ad uno stato
parzialmente sincronizzato. Come confermato dall’analisi della densità di probabilità
P (v) riportata in figura (4.20a), per g > gc la densità di probabilità è pressoché
uniforme, mentre si presenta sempre più localizzata per g < gc , al diminuire di g.
Se riportiamo invece gli attrattori per vari valori di g, con le ampiezze riscalate
del valore dell’accoppiamento corrispondente (figura 4.20b) vediamo che le curve
cambiano forma e non è possibile sovrapporre una curva all’altra. Quindi variare
l’accoppiamento ad α costante vuol dire modificare strutturalmente l’attrattore e la
dinamica del neurone corrispondente.
Cerchiamo adesso di verificare l’ipotesi fatta, secondo la quale vi è corrispondenza
0.20
0.24
0.28
0.32
0.36
0.40
0.44
0.48
0.52
30
P(v) 20
10
(a)
0
0
0.2
0.4
v
0.8
0.6
1
Figura 4.20. (a) Andamento della densità di probabilità P (v) in funzione del
potenziale di membrana v. Facendo riferimento al diagramma di fase (3.3) descritto
nel paragrafo (3.2.3), sappiamo che si ha una transizione dallo stato parzialmente
sincronizzato allo stato asincrono in corrispondenza di gc = 0.42 ± 0.02 per il
valore di α utilizzato. Questa transizione si può notare anche in figura, dove si
passa da una distribuzione piccata ad una uniforme tra g = 0.40 e g = 0.44. (b)
Andamento del campo riscalato gP̄ in funzione del campo riscalato gĒ al variare
della costante di accoppiamento g. Le varie curve sono dunque riscalate per la
costante di accoppiamento corrispondente. Le simulazioni effettuate si riferiscono
ad una rete globalmente connessa con N = 1600 neuroni, α = 9 e a = 1.3.
15
10
gP
5
0
0
0.2
0.4
0.6
0.8
1
gE
Figura 4.21. Andamento del campo riscalato gP̄ in funzione del campo riscalato
gĒ. La curva azzurra è il risultato della simulazione del comportamento di una
rete globalmente connessa con N = 1600 neuroni, con parametri α = 9, a = 1.3
e g = 0.32. In questo caso i campi Ē, P̄ sono moltiplicati dunque per g = 0.32.
La curva nera è il risultato delle simulazioni effettuate considerando una rete di
100,000 neuroni, in presenza di disordine annealed e di una percentuale di legami
rotti pari al 20%. In questo secondo caso i parametri in gioco sono α = 9, a = 1.3
e g = 0.4, dunque i campi Ē, P̄ sono moltiplicati per g = 0.4.
tra sistemi con disordine annealed e sistemi omogenei con parametro d’accoppiamento ridotto della percentuale di diluizione. A tal fine riportiamo in figura (4.21) le
variabili medie che caratterizzano il campo (Ē, P̄ ), moltiplicate per il termine di
accoppiamento g, sia per una rete globalmente accoppiata con g = 0.32, che per una
rete con disordine annealed ed il 20% di legami rotti ma con g = 0.4. Si osserva che
queste due curve si sovrappongono perfettamente. Quindi possiamo concludere che,
almeno nel caso di disordine annealed, la rete si comporta come una rete omogenea
globalmente accoppiata con un accoppiamento ridotto in modo opportuno.
4.7
Neuroni disaccoppiati guidati dalla rete
L’omogeneità indotta dalla media sul disordine annealed fa sı̀ che il sistema risulti
esattamente omogeneo nel limite N → ∞ quindi, come nel caso di reti globalmente
accoppiate, l’esponente di Lyapunov massimo tende a zero. D’altra parte, nonostante l’analogia strutturale che permane tra una rete con disordine quenched ed una
globalmente accoppiata, abbiamo visto che l’attrattore rimane caotico all’aumentare
di N. Cerchiamo dunque di capire quali siano le ragioni per cui si realizza tale dinamica caotica e l’origine del caos. In particolare cerchiamo di capire se un sistema
come quello da noi studiato, descritto dall’equazione (4.1), possa dar luogo ad una
situazione caotica o meno nell’eventualità in cui il campo autoconsistente, forzante
Ei (t) venga sostituito da un campo periodico E(t) uguale per tutti i neuroni. Occorre sottolineare il fatto che la dinamica del singolo neurone i è caratterizzata da
tre gradi di libertà (vi ,Ei ,Pi ), quindi in linea di principio potremmo avere caos [33].
Per generare un campo periodico, il più simile possibile a quello generato autoconsistentemente dalla rete diluita con disordine annealed, ma ripulito dalle fluttuazioni
dovute alla diluizione e a N finito, abbiamo mediato il campo Ē non solo su tutti
i neuroni della rete ad ogni passo di evoluzione della mappa, ma anche su finestre
temporali successive riscalando opportunamente l’ampiezza delle finestre temporali.
Spieghiamo più in dettaglio come viene generato il campo cui saranno soggetti i
neuroni della nostra indagine. Abbiamo preso il campo Ē calcolato per una rete di
N = 800 neuroni, in presenza di disordine annealed ed abbiamo stimato il periodo
medio di oscillazione T di tale campo. In particolare indichiamo con T la media di
tutti gli intervalli di tempo intercorsi tra un massimo ed il successivo del campo Ē.
Analizziamo adesso il segnale Ē in funzione del tempo tra un punto di massimo ed
il successivo, suddividendolo cosı̀ in finestre temporali. Per ogni finestra temporale
riscaliamo la scala dei tempi indipendentemente in modo che ogni periodo abbia
valore T . Campioniamo poi il campo Ē ad intervalli regolari dt, in modo da ottenere
sempre un numero di punti Np fissato entro ogni finestra temporale. In particolare
abbiamo scelto Np = 1024. In altri termini, per ogni finestra temporale, otteniamo
un campo campionato a passi temporali dt, con dt = T /Np . D’altra parte Ē è stato
calcolato ad ogni passo di aggiornamento della mappa e dunque sarà registrato ad
intervalli di tempo non costanti e non necessariamente pari a dt. Occorre ricordare
infatti che gli aggiornamenti della mappa avvengono in concomitanza dell’emissione
di un impulso ed il tempo di evoluzione della rete è dato dalla somma dei tempi che
intercorrono tra un’emissione e la successiva di un impulso. Dunque per ottenere
i nuovi valori del campo Ē a passi di tempo regolari a partire da quelli registrati
abbiamo effettuato un’interpolazione lineare. Se indichiamo con Nf il numero di
finestre temporali analizzate, il campo desiderato sarà quello risultante dall’ulteriore
media sulle Nf finestre.
Ci troviamo a questo punto a lavorare con un campo definito in un intervallo
temporale [0, T ], mediato su tutti i neuroni della rete ad ogni istante e su finestre
temporali successive. Se indichiamo con Ē(t˜k ) il campo Ē campionato a tempi
equispaziati, il nuovo campo sarà definito da
< Ē(t˜k ) >=
PNf
˜
j=1 Ēj (tk )
Nf
k = 1, · · · ,Np .
(4.23)
In figura (4.22a) riportiamo sia l’andamento in funzione del tempo del campo Ē
calcolato per la rete di N = 800 neuroni con disordine annealed, sia l’andamento
1
2
0.8
E, <E>
1.5
0.6
v
1
0.4
0.2
0.5
0
(a)
0.5
1
1.5
2
2.5
Tempo
(a)
10
5
15
Tempo
Figura 4.22. (a) Andamento del campo medio Ē in funzione del tempo (curva
nera). Tale campo medio è prodotto da una rete guida costituita da N = 800 neuroni, in presenza di disordine annealed e con il 20% di legami rotti. A questa curva
sovrapponiamo il campo < Ē > ottenuto mediando non solo sui singoli neuroni
della rete ad ogni istante di tempo, ma anche su finestre temporali successive (curva rossa); tale campo è campionato inoltre in modo temporalmente equispaziato.
(b) Andamento di due potenziali di membrana in funzione del tempo. Anche se
i due potenziali partono con condizioni iniziali diverse, con il passare del tempo,
si sincronizzano tra loro. Le simulazioni effettuate utilizzano i seguenti valori dei
parametri per la rete guida: g = 0.4, α = 9 e a = 1.3.
del campo mediato anche su finestre temporali successive opportunamente riscalate.
Occorre notare innanzitutto quanto il campo < Ē > sia simile al campo autoconsistente Ē generato dalla rete diluita nell’intervallo di tempo comune [0, T ]. Inoltre
il nuovo campo < Ē > è ripulito dalle fluttuazioni presenti nel campo Ē, specie
nelle zone di minimo, dovute al disordine provocato dalla diluizione. Se ripetiamo
su intervalli temporali successivi [T, 2T ], [2T, 3T ], · · · ,[(Nf − 1)T, Nf T ] il campo
< Ē > trovato, otteniamo il campo periodico cercato.
Una volta ottenuto questo segnale ne abbiamo calcolato la trasformata di Fourier
in modo da ottenere tutti i coefficienti della sua decomposizione in serie di Fourier.
Questo allo scopo di poter rigenerare il segnale ad ogni tempo e non solo ai tempi
campionati. Abbiamo bisogno infatti di un campo noto a tutti i tempi per usarlo
come campo forzante per la dinamica di più neuroni disaccoppiati al fine di studiare
la sincronizzazione dei neuroni fra di loro e col campo esterno.
Per vedere se un campo siffatto può indurre comportamenti caotici, abbiamo
utilizzato il campo < Ē > come campo esterno per forzare un sistema di due neuroni
disaccoppiati. Il sistema di equazioni differenziali del primo ordine indipendenti che
descrive il sistema è dato da
v̇i = a − vi + g < Ē(t) >
i = 1,2.
(4.24)
Tale sistema è stato integrato numericamente utilizzando l’algoritmo Runge-Kutta
del quarto ordine11 con passo temporale 5 · 10−4 [41]. Ai neuroni considerati vengono
assegnati, come condizioni iniziali, due valori diversi per i potenziali di membrana.
Nonostante ciò, nel corso della loro evoluzione temporale si osserva che i due neuroni si sincronizzano tra loro, molto rapidamente, come è visibile in figura (4.22b).
Dopo la sincronizzazione, analizzando i tempi tra un’emissione e la successiva di un
potenziale d’azione da parte dei singoli neuroni, si ricava che tali tempi coincidono
con il periodo T del campo forzante. Dunque non solo i neuroni si sincronizzano tra
loro, ma si sincronizzano anche con il campo esterno.
Abbiamo più volte ripetuto che il campo < Ē > approssima al meglio campi non
periodici, quali sono i campi Ē prodotti da una rete diluita con disordine annealed.
A questo punto due neuroni sottoposti allo stesso campo si sincronizzano rapidamente. Ciò dimostra che le differenze tra i campi Ei dei singoli neuroni in grandi
reti e le fluttuazioni presenti nel campo Ē, seppur piccole, sono molto importanti
nell’evoluzione dinamica di una rete ed inducono caos nel sistema
12
. Dunque le
dinamiche caotiche osservate nel caso di disordine annealed, ad N finiti, sono da
imputarsi alle fluttuazioni, seppur minime, nella periodicità delle diverse variabili
microscopiche Ei , Pi associate ai vari neuroni nella rete. Addirittura queste fluttuazioni sono talmente rilevanti nel caso quenched da indurre la presenza di caos
anche nel limite termodinamico.
11
Per calcolare con esattezza gli attraversamenti di soglia e i successivi riazzeramenti del potenziale abbiamo adottato una tecnica con passo temporale adattivo.
12
Infatti va ricordato che, anche nel caso con disordine annealed, per N finito, il sistema è pur
sempre caotico.
Conclusioni
L’attività di ricerca originale descritta in questa tesi ha avuto come scopo quello di
caratterizzare vari regimi dinamici collettivi che emergono, spontaneamente, in reti
neurali con accoppiamento eccitatorio impulsivo.
In particolare si è confrontata la dinamica di reti omogenee e reti diluite di
neuroni leaky integrate-and-fire al fine di dedurre quali segnature degli stati coerenti,
osservati in reti globalmente connesse, permanessero in presenza di diluizione e quali
differenze insorgessero. La diluizione delle connessioni della rete è stata realizzata
in modo aleatorio, con l’introduzione di due diversi tipi di disordine: congelato
(“quenched”) o generato dinamicamente (“annealed”).
Per quel che riguarda le reti globalmente accoppiate, un primo risultato consiste nell’aver mostrato, attraverso analisi numeriche accurate, che gli spettri di
Lyapunov, ottenuti per diverse taglie del sistema, collassano su una curva universale, se opportunamente riscalati, sia in regime di stato asincrono che in regime di
sincronizzazione parziale. Tale risultato comporta che entrambi gli stati divengono
marginalmente stabili nel limite termodinamico e ci suggerisce che l’introduzione di
un minimo disordine nel sistema possa influenzare la stabilità di tali stati macroscopici. Se verificato, questo porrebbe seri limiti sulla rilevanza di queste soluzioni
collettive per la codifica dell’informazione in reti neurali.
Per indagare la stabilità rispetto al disordine di questi stati, abbiamo quindi
esaminato cosa accade introducendo diluizioni aleatorie nel sistema. Per prima cosa
abbiamo osservato che il sistema diviene caotico, mentre la dinamica delle variabili
macroscopiche si svolge su attrattori caotici localizzati in prossimità delle soluzioni
regolari del sistema non disordinato. Inoltre, al crescere del numero di elementi nella
rete, la localizzazione aumenta, indicando una notevole stabilità strutturale degli
attrattori associati alle oscillazioni collettive rispetto all’introduzione di disordine
sia quenched che annealed nella distribuzione delle connessioni.
L’analisi della dipendenza dell’esponente di Lyapunov massimo dal numero N
di neuroni nella rete per le due differenti realizzazioni del disordine ha evidenziato
come nel caso annealed l’esponente tenda a zero nel limite termodinamico, mentre
resti finito nel caso quenched. Questo suggerisce che nel caso annealed la continua
ridefinizione dinamica delle connessioni porti di fatto ad una loro omogeneizzazione.
Quindi nel limite N → ∞ ci aspettiamo che la dinamica del sistema diluito converga a quella del sistema completamente connesso, come in effetti si è verificato,
confrontando l’attrattore ottenuto nel caso di diluizione annealed con quello del caso
omogeneo, per cui l’accoppiamento sia stato opportunamente rinormalizzato.
Nel caso di reti con disordine quenched permangono alcune segnature tipiche
dell’analisi di campo medio: si osserva ad esempio che a livello macroscopico il
limite termodinamico dei sistemi con disordine quenched è rappresentato da quelli
con disordine annealed. Dunque, nonostante i campi forzanti visti dai singoli neuroni
tendano a sincronizzarsi tra di loro e a divenire periodici, la dinamica microscopica
resta manifestamente caotica, dato che l’esponente di Lyapunov massimo tende a
saturare ad un valore costante.
Questo risultato, oltre a non essere mai stato riportato in letteratura, è altamente
non banale e per certi versi sorprendente. Come mostrato in questa tesi, l’origine di
questa dinamica caotica va ricercata nelle minime differenze che permangono fra i
campi associati ad ogni singolo neurone e che sono indotte dalla struttura congelata
(quenched) delle connessioni aleatorie. Per i limiti temporali in cui una tesi deve
necessariamente svolgersi, una comprensione completa del fenomeno è rimandata a
futuri sviluppi del lavoro di ricerca su questo tema.
In conclusione, possiamo affermare che gli stati parzialmente sincronizzati risultano robusti rispetto all’introduzione di disordine nelle connessioni. Questa stabilità strutturale li rende particolarmente adatti alla trasmissione di informazione,
che potrebbe ad esempio essere codificata nel periodo del segnale macroscopico [42],
dato che in reti reali, quali quelle cerebrali, la presenza di rumore esogeno ed endogeno è inevitabile. La rilevanza di dinamiche coerenti, quali quelle rappresentate
dagli stati parzialmente sincronizzati, per la comunicazione neuronale, è stata recentemente messa in luce da P. Fries [43] analizzando la sincronizzazione dell’attività
neuronale nella banda γ in molte aree della corteccia cerebrale e dell’ippocampo.
Questi risultati rappresentano un punto di partenza per poter affrontare problematiche più complesse, quali la dinamica di reti maggiormente realistiche, in cui
i singoli neuroni siano rappresentati da modelli fisiologicamente rilevanti e dove i
pesi sinaptici possano modificarsi nel tempo rispecchiando le evidenze sperimentali
di fenomeni di plasticità sinaptica e di ritardo.
È importante menzionare infine che, per lo svolgimento di questo lavoro di tesi,
il candidato ha sviluppato codici originali in linguaggio C, al fine di effettuare le
simulazioni numeriche riportate in precedenza.
Appendice A
Fenomenologia delle biforcazioni
Una biforcazione identifica un cambiamento nel comportamento dinamico di un
sistema quando uno o più parametri di biforcazione passano attraverso un valore
critico. Ogni punto nello spazio dei parametri dove il sistema è strutturalmente
instabile
1
è un punto di biforcazione e l’insieme di tali punti è chiamato un insieme
di biforcazione. Alcuni sistemi mostrano anche un’isteresi, ossia la biforcazione
avviene per differenti valori dei parametri a seconda della direzione in cui sono
variati. Esistono molti modi di classificare le biforcazioni:
• in base alla dimensione del sistema, ossia al numero di variabili dinamiche;
infatti alcune biforcazioni esistono solo quando la dimensione supera un valore
minimo ed è sufficiente analizzare la biforcazione nella minima dimensione in
cui si verifica in quanto niente di fondamentalmente nuovo è aggiunto dalle
dimensioni più alte;
• in base alla codimensione della biforcazione, ossia al numero dei parametri in
conseguenza della cui variazione si ha la biforcazione;
• biforcazioni locali e globali ; nelle prime i punti fissi appaiono, scompaiono
1
Un sistema è detto strutturalmente instabile quando piccole variazioni dei valori dei parametri
portano a modifiche radicali del suo spazio delle fasi e quindi della sua dinamica.
109
o cambiano la loro stabilità; le seconde invece sono dovute a interazioni fra
attrattori diversi, o fra i loro bacini di attrazione (la distinzione tra i due
tipi tuttavia non è sempre ovvia poiché ci sono biforcazioni con entrambe le
caratteristiche);
• biforcazioni continue (o sovra-critiche) e discontinue (o sotto-critiche) come
andremo nel seguito ad illustrare.
In questa trattazione noi considereremo solo biforcazioni locali di codimesione-1.
A.1
Biforcazioni sovra-critiche di punti fissi
I matematici hanno dimostrato che sotto condizioni piuttosto generali il comportamento locale di biforcazioni di codimensione-1 da un punto fisso può essere ridotto a
poche caratteristiche essenziali. Più precisamente è stato provato che esistono espansioni in serie e cambi di variabile tali che, vicino ad un punto fisso, il comportamento
è descritto da un piccolo numero di equazioni differenziali che dipendono da un solo parametro µ [44, 45]. Intuitivamente questo sembra ragionevole per biforcazioni
di codimensione-1. Dopo aver effettuato opportune trasformazioni di variabili che
portano il punto fisso nell’origine x = 0 ed il punto di biforcazione nel punto µ = 0
le equazioni della dinamica assumono forme caratteristiche dette forme normali del
tipo:
ẋ = f (x,µ)
(A.1)
dove f (x,µ)î (con î versore dell’asse x) è il vettore che rappresenta il campo di flusso.
Limitandoci al terzo ordine descriveremo brevemente le quattro forme normali più
spesso incontrate.
1) Biforcazione sella-nodo: ẋ = µ − x2 .
Se µ < 0 l’equazione f (x,µ) = 0 non ha soluzioni reali e perciò non ci sono
punti fissi. Se µ = 0 ci sono due soluzioni coincidenti nel punto x = 0 entrambe
instabili. Le due soluzioni si separano quando µ > 0: in tal caso si ha una
√
√
soluzione stabile, x = + µ, ed una instabile, x = − µ (vedi fig.A.1A).
2) Biforcazione transcritica: ẋ = µx − x2 .
In questo caso si hanno due punti fissi, x = 0,µ, la cui stabilità cambia quando
il parametro di biforcazione attraversa il valore critico µ = 0: per µ < 0 si ha
che x = 0 è stabile e x = µ è instabile, viceversa per µ > 0 (vedi fig.A.1B).
3) Biforcazione a forcone: ẋ = µx − x3 .
Se µ ≤ 0 si ha un solo punto fisso stabile in x = 0. Se µ > 0 si ha una
√
biforcazione in tre punti fissi: x = 0 che diventa instabile e x = ± µ che
invece sono stabili (vedi fig.A.1C).
4) Biforcazione di Hopf : ż = (µ + iγ)z − z|z|2 .
In questa forma normale z è una variabile complessa e γ è una costante che
comunque non ha il ruolo di parametro di biforcazione. Questa forma normale
è l’equivalente complesso di quella della biforcazione a forcone. Per trovare
la soluzione è conveniente trasformarla in variabili reali usando coordinate
cartesiane o polari. Ponendo z = x + iy la forma normale diviene:
ẋ = [µ − (x2 + y 2 )]x − γy
(A.2)
ẏ = γy + [µ − (x2 + y 2 )]y.
(A.3)
A parte la soluzione z = 0 (ossia x = y = 0) esiste un’altra soluzione:
|z|2 = (x2 + y 2 ) = µ
la quale definisce un cerchio di raggio
√
µ nel piano (x,y).
(A.4)
Dunque per µ ≤ 0 si ha un unico punto fisso stabile in x = y = 0; mentre per
µ > 0 esso diventa instabile e contemporaneamente si ha la nascita di un ciclo limite
stabile (vedi fig.A.1D).
Figura A.1. Diagramma di biforcazioni sovracritiche: A) sella-nodo; B) transcritica; C) forcone; D) Hopf. La linea continua indica i punti stabili mentre le linee
tratteggiate indicano i punti instabili. Le frecce rappresentano inoltre la direzione
delle linee di forza del campo di flusso f (x,µ)î (dove î è il versore dell’asse x) [44].
A.2
Biforcazioni sotto-critiche
Le forme normali considerate al paragrafo A.1 sono dette sovra-critiche (o normali ).
Con questo intendiamo che i termini non lineari in x2 e x3 hanno un effetto opposto a quello dell’instabilità causata dal termine di ordine più basso. Prendiamo ad
esempio la forma ẋ = µx − x3 . Per x molto piccolo possiamo considerare solo il
termine lineare. La soluzione che si ottiene è allora x = exp(µt), che diverge all’infinito quando µ è positivo. Ma la soluzione dell’intera equazione non diverge
esponenzialmente perché il termine lineare è controbilanciato dal termine (−x3 ) che
cresce rapidamente in modo cosı̀ grande da non poter essere trascurato. Ponendo
l’equazione nella forma:
ẋ = µx(1 −
x2
)
µ
(A.5)
vediamo che il termine non lineare “satura” l’effetto dell’instabilità lineare quando
x2 = µ. Comunque niente proibisce che il termine non lineare di ordine più basso abbia anche un’influenza destabilizzante sulla soluzione. La biforcazione in questo caso
è chiamata sotto-critica o inversa. Tutte le forme normali esaminate al paragrafo
A.1 possono essere rese sotto-critiche semplicemente cambiando il segno del termine
non lineare. Otteniamo cosı̀ i diagrammi di biforcazione presentati in fig.A.2.
Figura A.2. Diagramma di biforcazioni sottocritiche (o inverse): A) sella-nodo;
B) transcritica; C) forcone; D) Hopf. La linea continua indica i punti stabili mentre
le linee tratteggiate indicano i punti instabili. Le frecce rappresentano inoltre la
direzione delle linee di forza del campo di flusso f (x,µ)î (dove î è il versore dell’asse
x) [44].
Appendice B
Metodo della sezione di Poincaré
L’evoluzione di numerosi sistemi è descritta da un insieme di n equazioni differenziali
ordinarie del primo ordine:
d
x(t) = F(x,t),
dt
(B.1)
dove x è un vettore in Rn (lo spazio delle fasi) e F è un campo vettoriale definito
su questo spazio. Un sistema di equazioni differenziali come quello descritto da
(B.1) è detto flusso in Rn . Se F non dipende esplicitamente dal tempo ma solo da
x, F = F (x(t)), il flusso è detto autonomo. Le soluzioni dell’insieme di equazioni
(B.1) hanno un’espressione analitica solo in situazioni ben definite in cui il flusso è
integrabile. Nella maggior parte dei casi il flusso non è integrabile ed occorre studiare
ciascuna soluzione considerando la sua traiettoria nello spazio delle fasi. Possiamo
semplificare questa analisi usando un metodo sviluppato da Henri Poincaré.
B.1
Mappa di Poincaré
In teoria non ci sono restrizioni alla dimensione n dello spazio delle fasi, ma ci limiteremo, per semplicità, al caso tridimensionale. Piuttosto che studiare le soluzioni
dell’insieme (B.1) in R3 , può essere utile considerare i punti di intersezione della
traiettoria con un piano S. La costruzione è indicata in figura (B.1). Abbiamo
114
Figura B.1. Principio della sezione di Poincaré. La traiettoria Γ taglia il piano S
con la condizione ẋ3 < 0 nei punti P0 , P1 , P2 ,...Questi appartengono alla sezione
di Poincaré di Γ sul piano S. [44].
definito tale piano come x3 = costante e abbiamo preso i punti dell’intersezione che
corrispondono ad una data direzione dell’evoluzione (ẋ3 < 0). L’altezza h del piano
è scelta in modo che la traiettoria Γ intersechi S in P0 , P1 , P2 ,· · ·. A partire da una
data condizione iniziale otteniamo un insieme di punti che costituiscono la sezione
di Poincaré.
La trasformazione che porta da un punto al successivo è una mappatura continua
T : S → S chiamata mappa di Poincaré:
Pk+1 = T(Pk ) = T(T(Pk−1 )) = T2 (Pk−1 ) = · · · .
(B.2)
Dal momento che la soluzione dell’insieme di equazioni (B.1) è unica, il punto P0
determina completamente P1 , che a sua volta determina P2 e cosı̀ via. D’altra parte
se P1 determina univocamente P0 , semplicemente invertendo il segno di t nell’insieme
(B.1), allora T è una mappatura invertibile di S in se stessa.
Notiamo che la sezione di Poincaré sostituisce l’evoluzione a tempo continuo
dell’insieme (B.1) con una trasformazione a tempo discreto. In genere l’intervallo
di tempo tra due punti successivi non è costante. Infine occorre sottilineare che la
sezione e la mappa di Poincaré hanno, per costruzione, le stesse proprietà topologiche
del flusso da cui derivano. Ad esempio, se il flusso è dissipativo, cosicché i volumi
nello spazio delle fasi si contraggono, allora T contrae le aree nel piano S. Invece T
conserva le aree se il flusso (B.1) è conservativo o Hamiltoniano. Allo stesso modo,
se il flusso ha un attrattore, le sue caratteristiche strutturali sono riscontrabili anche
nella sezione di Poincaré.
Il metodo della sezione di Poincaré semplifica lo studio dei flussi continui sostanzialmente per tre motivi. Innanzitutto, se passiamo da un flusso in R3 ad una mappatura sul piano, riduciamo di uno il numero di coordinate. Inoltre il tempo è discretizzato e le equazioni differenziali vengono sostituite con le equazioni che definiscono la
mappa di Poincaré P → T(P ). Queste equazioni algebriche sono più facili da risolvere. Infine la quantità di dati da manipolare si riduce notevolmente, dal momento
che la maggior parte dei punti della traiettoria vengono ignorati. Dunque iterare
una mappatura del piano xi (k + 1) = T(xi (k)), i = 1,2, è molto più semplice che
integrare un flusso del tipo (B.1), sia in termini di tempo che di potenza di calcolo.
B.2
Sezioni di Poincaré per differenti attrattori
Quando la soluzione di un insieme di equazioni differenziali è periodica, la traiettoria
nello spazio delle fasi è un’orbita chiusa, il ciclo limite. La corrispondente sezione
di Poincaré è molto semplice, dal momento che si riduce ad un singolo punto P0 ,
o ad un numero finito di punti nell’eventualità che il ciclo limite abbia una forma
complicata. Questo punto costituisce un punto fisso della mappa di Poincaré T
poiché
P0 = T(P0 ) = T2 (P0 ) = · · · .
(B.3)
Grazie a questa proprietà è possibile investigare la stabilità della soluzione periodica.
Discutiamo dunque della stabilità di una traiettoria chiusa rispetto alle perturbazioni
infinitesime; in questo caso è sufficiente un’analisi di stabilità lineare limitata a
termini del primo ordine nella perturbazione. La mappa di Poincaré è descritta, al
primo ordine, da una matrice DT definita nell’intorno di P0 da:
"
∂T
DT =
∂xi
#
i = 1,2.
(B.4)
x0i
La matrice, chiamata matrice di Floquet, permette di stimare la distanza dell’immagine di un punto P0 + δ, molto vicino a P0 , calcolata dopo un periodo:
T(P0 + δ) − P0 ≃ DTδ
||δ|| → 0.
(B.5)
Gli autovalori di DT determinano la stabilità della traiettoria. Dopo m periodi si
ha
Tm (P0 + δ) − P0 ≃ DTm δ
(B.6)
cosicché la distanza iniziale δ è moltiplicata per DTm . La distanza decresce esponenzialmente nel tempo se gli autovalori di DT hanno tutti modulo minore di 1, ovvero
se sono tutti contenuti nel cerchio unitario del piano complesso. In questo caso la
traiettoria periodica è linearmente stabile, dal momento che qualsiasi allontanamento dal punto fisso tende ad annullarsi. D’altra parte, se almeno un autovalore di DT
ha modulo maggiore di 1, l’allontanamento dal punto fisso cresce esponenzialmente
nel tempo ed il ciclo limite diventa instabile. La perdita di stabilità del ciclo limite
corrisponde ad avere uno o più autovalori della matrice di Floquet che attraversano
il cerchio unitario nel piano complesso.
Quando la soluzione è biperiodica, con due frequenze fondamentali f1 e f2 , l’attrattore è un toro T 2 che può essere rappresentato in R3 . Qualsiasi traiettoria sulla
superficie del toro può essere vista come una sovrapposizione di due moti (vedi figura B.2). Ciascuna frequenza fondamentale f1 , f2 è associata con uno di questi moti
rotazionali. I punti di intersezione di una traiettoria con un piano di sezione S
appaiono ad intervalli di tempo regolari, pari al periodo del primo moto (in questo
Figura B.2. Toro T 2 e la sua sezione di Poincaré col piano S. Le due frequenze
con cui il toro è percorso sono indicate come f1 e f2 . Assunto che il rapporto f1 /f2
risulti irrazionale, la sezione di Poincaré corrispondente è la curva chiusa C. [44].
caso T1 = 1/f1 ). I punti si collocano su una curva chiusa C; la forma esatta della
sezione di Poincaré dipende dal rapporto f1 /f2 . Se questo rapporto è irrazionale, la
traiettoria non si chiude mai su se stessa e copre in maniera densa la superficie del
toro; in questo caso le due frequenze sono dette incommensurabili. La curva chiusa
C è continua. dal momento che ciascuno dei suoi punti costituisce l’immagine, sotto
T, di un altro punto di C, la curva è invariante sotto la mappatura T:
T(C) = C.
(B.7)
Quando il rapporto f1 /f2 è razionale, la sezione di Poincaré è composta da un insieme
finito di punti distribuiti lungo C. La curva C non è più una curva continua, dal
momento che la traiettoria non è densa sul toro. C’è un agganciamento in frequenza
tra f1 e f2 : il rapporto f1 /f2 è uguale a quello di due interi n1 e n2 . Dopo aver
effettuato n1 circuiti ed n2 rotazioni la traiettoria si richiude su se stessa dal momento
che abbiamo a che fare con una soluzione periodica di periodo T = (n1 /f1 ) =
(n2 /f2 ). La sezione di Poincaré contiene solo n1 punti, cosicché
Pi = Tn1 (Pi ).
(B.8)
Analizziamo infine il caso di soluzione aperiodica. Quando il flusso è molto
dissipativo e si ha una rapida contrazione delle aree, la sua sezione di Poincaré
può essere considerata come un insieme di punti distribuiti lungo una curva. In
questo caso si definisce una coordinata x per ciascun punto della curva e si studia
come x vari con il tempo. La mappa di Poincaré su questa curva è detta mappa
di primo ritorno. Un’estensione naturale dello studio della sezione di Poincaré è
dunque l’analisi della mappa di primo ritorno, ovvero dell’iterazione xk+1 = f (xk ),
che esprime la relazione tra le coordinate di un punto e quelle del suo antecedente.
Appendice C
Stabilità lineare
C.1
Stabilità lineare di orbite periodiche: moltiplicatori di Floquet
Consideriamo un sistema di equazioni differenziali del primo ordine dx/dt = F(x),
dove x è un vettore di Rn e F è un campo vettoriale definito in Rn . Studiamo la
stabilità lineare di un’orbita periodica definita come
x(t) = X∗ (t) = X∗ (t + T ),
(C.1)
dove T denota il periodo. Senza perdita di generalità si può assumere che l’orbita
periodica verifichi la relazione F (X∗ ) = 0. Vogliamo esaminare il comportamento
delle orbite vicino a X∗ (t), per cui poniamo
x(t) = X∗ (t) + η(t),
(C.2)
dove assumiamo che la perturbazione η sia piccola. Sostituendo l’equazione precedente nel sistema di equazioni dx/dt = F(x) ed espandendo F(x) al primo ordine
in η si ha
F(X∗ (t) + η(t)) = F(X∗ (t)) + DF(X∗ ) · η + O(η 2 ),
120
(C.3)
dove F(X∗ ) = 0 essendo valutato sull’orbita periodica, mentre DF denota la matrice
Jacobiana delle derivate parziali di F. Otteniamo cosı̀ che
dη/dt = DF(X∗ (t)) · η + O(η 2 ),
(C.4)
dove DF(X∗ (t)) varia periodicamente nel tempo. Trascurando i termini di ordine
η 2 nell’equazione (C.4) ci si riduce ad uno studio di stabilità lineare della forma
dy/dt = A(t) · y,
(C.5)
dove y è un vettore reale N-dimensionale ed A(t) è una matrice N × N a coefficienti
reali e periodica nella variabile temporale,
A(t) = A(t + T ).
(C.6)
Le soluzioni dell’equazione (C.5) possono essere espresse nella forma di Floquet,
e(t)e(s+iϕ)t , dove e(t) è periodico nel tempo: e(t) = e(t + T ). Possiamo definire cosı̀
un problema agli autovalori per gli autovalori sj e per gli autovettori ej (t).
Innanzitutto notiamo che l’equazione (C.4) ha una soluzione che corrisponde ad
un autovalore con parte reale nulla (s = 0). Questo si può verificare differenziando
rispetto al tempo l’equazione dX∗ (t)/dt = F(X∗ (t)). Questo ci permette di ottenere un’equazione della forma (C.5), ovvero de0 (t)/dt = DF(X∗ (t)) · e0 (t), dove
e0 ≡ dX∗ /dt. Questa soluzione con autovalore s = 0 corrisponde ad una perturbazione η(t) lungo la direzione dell’orbita periodica in esame. Tale perturbazione
non decadrà nè divergerà nel tempo.
Implementiamo adesso il metodo di sezione di Poincaré per ridurre il problema
dx/dt = F(x) ad una mappa x̂n+1 = M(x̂n ). Assumiamo che la soluzione periodica
X∗ (t) risulti un punto fisso x̂∗ della mappa. Linearizzando la mappa attorno ad x̂∗
e scrivendo x̂n = x̂∗ + η̂ n , con η̂ n piccolo, si ottiene
η̂ n = DM(x̂∗ ) · η̂ n + O(η̂ 2n ),
(C.7)
che dà un problema linearizzato della forma
ŷn+1 = Â · ŷn .
(C.8)
Cercando le soluzioni ŷ = µn ê, otteniamo l’equazione agli autovalori del tipo
 · ê = µê.
(C.9)
Questa equazione ha soluzioni non banali per quei valori di µj che soddisfano l’equazione polinomiale
D̂(µ) = det[Â − µI] = 0.
(C.10)
Agli autovalori µj facciamo corrispondere gli autovettori êj . Le direzioni che corrispondono a |µj > 1| sono instabili; le direzioni che corrispondono a |µj < 1| sono
stabili. Gli autovalori della mappa e gli autovalori di Floquet sono legati dalla
relazione
µj = exp(sj T ),
(C.11)
dove sono inclusi tutti gli sj del problema di Floquet eccetto l’autovalore nullo.
Quest’ultimo non è incluso poiché una perturbazione η che sposta l’orbita lungo il
cammino chiuso seguito da X∗ (t) non contribuisce a perturbazioni lungo la sezione di
Poincaré, che tipicamente taglia il flusso in modo ortogonale al senso di percorrenza
dell’orbita.
C.2
Esponenti di Lyapunov
Dal momento che non è possibile seguire il moto su un attrattore caotico a causa
della divergenza esponenziale di orbite vicine, dobbiamo utilizzare altri strumenti per
caratterizzare questa divergenza. Questo può essere fatto introducendo i cosiddetti
esponenti di Lyapunov che costituiscono la generalizzazione degli autovalori di un
punto fisso (o ciclo limite) della teoria di Floquet.
Consideriamo innanzitutto il caso di una mappa M. Sia x0 una condizione
iniziale e sia xn l’orbita corrispondente dopo n iterate. Se consideriamo uno spostamento infinitesimo da x0 in direzione di un vettore tangente y0 , allora l’evoluzione
del vettore tangente, data da
yn+1 = DM(xn ) · yn ,
(C.12)
determinerà l’evoluzione dello spostamento infinitesimo dell’orbita dall’orbita imperturbata xn . In particolare, yn /|yn | dà la direzione dello spostamento infinitesimo
dell’orbita da xn , mentre |yn |/|y0 | rappresenta il fattore di crescita o di descrescita
dello spostamento infinitesimo dopo n iterate, a seconda che |yn | sia maggiore o
minore di |y0 |. Dall’equazione (C.12) si ricava inoltre che yn = DMn (x0 ) · y0 , dove
DMn (x0 ) = DM(xn−1 )DM(xn−2 ) · · · DM(x0 ).
(C.13)
è la matrice di evoluzione nello spazio tangente relativa alla n-esima iterata. Definiamo cosı̀ l’esponente di Lyapunov per una condizione iniziale x0 e per una data
direzione dello spostamento iniziale u0 = y0 /|y0 | come
λ(x0 ,y0 ) = lim
n→∞
1
1
ln(|yn |/|y0 |) = lim ln |DMn (x0 ) · u0 |.
n→∞ n
n
(C.14)
Se la dimensione della mappa è N ci aspettiamo di trovare, per un dato x0 , un
numero di esponenti di Lyapunov distinti minore o uguale ad N. Ciascuno di questi
esponenti dipende dalla direzione di u0 .
Per capire perché, in linea di principio, sono possibili valori diversi degli esponenti di Lyapunov che dipendono dall’orientazione di u0 , approssimiamo l’espressione
(C.14) supponendo di avere un n sufficientemente grande. In questa approssimazione
λ(x0 ,u0 ) ≃ λ̄n (x0 ,u0 ) ≡
=
1
ln |DMn (x0 ) · u0 |
n
(C.15)
1
ln[u†0 · Hn (x0 ) · u0 ],
2n
dove Hn (x0 ) = [DMn ]† DMn (x0 ) e † indica la trasposta. Dal momento che Hn (x0 )
è una matrice hermitiana reale non negativa, ha autovalori reali e possiamo scegliere
gli autovalori in modo che siano reali. Supponendo che u0 giaccia nella direzione di
un autovettore di Hn (x0 ), otteniamo come valori per l’esponente di Lyapunov approssimato quelli che corrispondono a ciascun autovettore. Denotiamo questi valori
λ̄jn (x0 ) = (2π)−1 ln Hjn , dove Hjn identifica un autovalore di Hn (x0 ). Ordiniamo
gli indici dei {λ̄jn (x0 )} in modo che λ̄1n (x0 ) ≥ λ̄2n (x0 ) ≥ · · · ≥ λ̄N n (x0 ). In questo
modo λ̄1n (x0 ) è l’esponente più grande, mentre λ̄N n (x0 ) è il più piccolo. Se effettuiamo il limite n → ∞, i {λ̄jn (x0 )} tendono al valore degli esponenti di Lyapunov,
per cui varrà
λ1 (x0 ) ≥ λ2 (x0 ) ≥ · · · ≥ λN (x0 ).
(C.16)
Dunque se scegliamo u0 in modo arbitrario, questo potrà essere decomposto nella
somma delle componenti lungo gli autovettori
u0 =
N
X
aj ej ,
(C.17)
j=1
dove con ej identifichiamo gli autovettori ortonormali di Hn (x0 ). Si ottiene cosı̀ che
u†0 · Hn (x0 ) · u0 =
N
X
a2j exp[2nλ̄jn (x0 )].
(C.18)
j=1
Per n sufficientemente grandi, il termine dominante nella somma è quello che corrisponde a j = 1, ovvero quello che corrisponde all’autovalore massimo,
u†0 · Hn (x0 ) · u0 ≃ a1 exp[2nλ̄1n (x0 )].
(C.19)
Dunque una scelta arbitraria di u0 nell’equazione (C.14) fa sı̀ che venga selezionato
solo l’autovalore massimo λ1 (x0 ). Per ottenere λ2 (x0 ) occorre restringere u0 al
sottospazio ortogonale a e1 ; questo equivale a porre a1 = 0. Si ottiene cosı̀
u†0 · Hn (x0 ) · u0 ≃ a2 exp[2nλ̄2n (x0 )].
(C.20)
Procedendo in questo modo si possono ottenere tutti gli esponenti di Lyapunov.
L’implementazione numerica richiede comunque tecniche di calcolo particolari; analizzeremo una di queste tecniche nel paragrafo (C.2.1).
Se assegnamo le condizioni iniziali in una sfera di raggio infinitesimo δ, centrata
in x0 e lasciamo evolvere ciascuna condizione iniziale secondo la mappa M, si ottiene
che, in un tempo n, essa evolve in un ellissoide di semi-assi:
δi ≃ δenλi (x0 ,n)
i = 1, · · · ,N.
(C.21)
Nel limite n → ∞ gli esponenti di Lyapunov danno il tasso temporale di crescita o
di decrescita degli assi principali dell’ellissoide.
Infine si può dimostrare che, sotto specifiche ipotesi, gli esponenti di Lyapunov
assumono lo stesso insieme di valori per determinati x0 . Infatti il teorema ergodico
di Osedelec [46] garantisce l’esistenza dei limiti usati per definire gli esponenti di
Lyapunov sotto ipotesi molto generali. In particolare, se µ è una misura ergodica,
i valori degli esponenti λi (x0 ) ottenuti a partire dalle equazioni (C.12,C.14) sono
gli stessi per tutti gli x0 rispetto alla misura µ. Nel caso della misura naturale
sull’attrattore, questo implica che gli esponenti di Lyapunov rispetto a tale misura
assumono lo stesso insieme di valori per tutti gli x0 che si trovano nel bacino di
attrazione dell’attrattore, tranne che per un insieme di misura di Lebesgue nulla.
Possiamo dunque parlare di esponenti di Lyapunov di un attrattore senza far riferimento alle specifiche condizioni iniziali. Definiamo cosı̀ un attrattore caotico se ha
un esponente di Lyapunov positivo. In questo caso due condizioni iniziali a distanza
infinitesima tra loro si separano esponenzialmente nel tempo (ad ogni modo se le
condizioni iniziali giacciono su un attrattore limitato, la separazione esponenziale
varrà solo per distanze piccole rispetto alla dimensione dell’attrattore).
C.2.1
Tecnica di calcolo numerico degli esponenti di Lyapunov
Una tecnica per il calcolo numerico degli esponenti di Lyapunov per orbite caotiche
è stata introdotta da Benettin et al. [34]. Consideriamo innanzitutto il calcolo dell’esponente massimo λ1 . Scegliamo in maniera arbitraria y0 , in modo che abbia una
componente nella direzione di massima crescita esponenziale. Iterando l’equazione
(C.12) per un tempo lungo, |yn | diventa tipicamente cosı̀ grande da non poter essere
calcolabile numericamente se λ1 > 0. Tale problema può essere superato rinormalizzando periodicamente |y| a 1. In altri termini, scegliamo arbitrariamente un
intervallo di tempo τ e rinormalizziamo il vettore tangente dividendolo per il suo
modulo αj ad ogni tempo τj = jτ . Se memorizziamo gli αj , l’esponente di Lyapunov
massimo può essere stimato come
l
1 X
ln αj .
l→∞ lτ
j=1
λ1 = lim
(C.22)
Scegliendo un l sufficientemente grande, affinché il risultato numerico risulti rilassato
ad un valore costante, possiamo approssimare l’espressione per λ1 come
l
1 X
λ1 ≃
ln αj .
lτ j=1
(C.23)
Per calcolare il secondo esponente di Lyapunov scegliamo due vettori iniziali arbitrari
(1)
e indipendenti y0
(2)
e y0 . Questi vettori identificano l’area A0 in due dimensioni
di un parallelogramma che giace in uno spazio delle fasi N-dimensionale. Iterando
questi due vettori n volte, si ottengono i vettori yn(1) e yn(2) che identificano un
(1)
parallelogramma di area An . Assumendo che y0
e y02 abbiamo componenti non
nulle nelle direzioni e1 ed e2 , il parallelogramma di partenza viene distorto, dopo n
iterazioni, e la sua area diventa An ∼ exp[n(λ1 + λ2 )]A0 . Abbiamo cosı̀ che
λ1 + λ2 = n→∞
lim
1
ln(An /A0 ).
n
(C.24)
Quindi, data una stima numerica di λ1 , tramite il calcolo numerico del membro di
destra dell’equazione precedente possiamo avere una stima numerica anche per λ2 .
Ci sono comunque due difficoltà: (1) come in precedenza, yn(1) e yn2 tendono a diventare molto grandi al crescere di n; (2) la loro orientazione tende a coincidere. Per
risolvere questi problemi occorre estendere la tecnica di calcolo di λ1 , generalizzando
la procedura di normalizzazione. Ad ogni tempo τj occorre sostituire la coppia di
vettori che evolvono, con una coppia di vettori ortonormalizzati nello spazio lineare
a due dimensioni in cui si estendono i vettori non ortonormalizzati di partenza.
Otteniamo cosı̀
l
1 X
(2)
λ1 + λ2 ∼
ln αj ,
=
lτ j=1
(2)
dove αj
(C.25)
è l’area del parallelogramma, prima della normalizzazione, al tempo τj .
Per gli esponenti λk (k = 3,4, · · ·) successivi la procedura è la stessa. Facciamo
evolvere k vettori, memorizzando il volume del parallelepipedo k-dimensionale che
essi definiscono, e rinormalizziamo l’insieme dei k vettori ad ogni tempo τj . In questo
caso ad ogni tempo τj sostituiamo i vettori non normalizzati con il corrispondente
insieme di vettori ortonormali definiti attraverso la procedura di ortonormalizzazione
di Gram-Schmidt. Tale procedura preserva il sottospazio lineare sotteso dai vettori
evoluti prima della normalizzazione. Otteniamo dunque
k
X
l
1 X
(k)
λk ′ ≃
ln αj ,
lτ j=1
k ′ =1
(C.26)
(k)
dove αj è il volume del parallelepipedo k-dimensionale prima della normalizzazione.
Sottraendo il risultato per k − 1 da quello per k si ottiene
l
1 X
(k)
(k−1)
∼
λk =
ln(αj /αj
),
lτ j=1
valido per k ≥ 2.
(C.27)
C.2.2
Dimensione dell’attrattore
È stata congetturata da parte di Kaplan e Yorke [47] l’esistenza di una relazione tra
la dimensione frattale di un tipico attrattore caotico e gli esponenti di Lyapunov.
Prima di analizzare tale relazione introduciamo la matrice
1
T (x0 ) = lim [Hn (x0 )] 2n .
(C.28)
n→∞
Indichiamo con E la dimensione nello spazio delle fasi del vettore x0 e con Ek (x0 ) il
sottospazio di RE corrispondente agli autovalori di T (x0 ) che sono ≤ eλk . Gli esponenti di Lyapunov ci danno, nell’approssimazione lineare, la rapidità di espansione o
contrazione media lungo le traiettorie modo crescente. Dunque, il sottospazio E1 /E2
consiste di tutti i vettori e nello spazio tangente a Mn che crescono con rapidità
massima, mentre i vettori in E2 /E3 di quelli che evolvono con esponente pari a λ2 ,
etc. Allora un vettore infinitesimo in RE diverge esponenzialmente concordemente
al moltiplicatore h1 = enλ1 , in un tempo n; un elemento di superficie invece cresce
come h1 h2 = en(λ1 +λ2 ) . Ma dato che il sistema è dissipativo, considerando elementi
di dimensione crescente, prima o poi si trova un indice j tale che
ma
Pj+1
k=1
Pj
k=1 λk
≥ 0,
λk < 0. Questo significa che gli elementi di dimensione j sono ancora
espansi o conservati, ma quelli a dimensione più alta vengono contratti; possiamo
dedurne, ricordando il significato di dimensione come numero di variabili attive, che
la dimensione dell’attrattore sarà maggiore o uguale a j. La relazione esatta tra
la dimensione frattale e gli esponenti di Lyapunov (congettura di Kaplan-Yorke) è
data da
Dky = j +
dove j è l’indice più grande e
Pj
k=1 λk
Pj
k=1 λk
|λj+1|
,
≥ 0. Ricordando che
(C.29)
Pj
k=1
λk ci dà la velocità
di crescita del volume j-dimensionale, nello spazio tangente, si vede subito che l’equazione (C.29) non è altro che l’interpolazione lineare per ottenere l’indice j ∗ per
cui la quantità
Pj ∗
k=1
λk si annulla. Questa relazione è ormai verificata in un’ampia
casistica e conserva sempre il significato di limite superiore per la dimensione frattale. Dky è detta dimensione di Lyapunov o di Kaplan-Yorke.
Bibliografia
[1] L. Peliti, Appunti di meccanica statistica, Bollati Boringhieri (2003).
[2] J.J. Hopfield, Neural networks and physical systems with emergent
selective computational abilities, Proc. Natl. Acad. Sci. USA 79, 2554
(1982).
[3] D.J. Amit, Modeling brain function. The world of attractor neural
networks, Cambridge University Press (1989).
[4] S. Maya, R. Reynoso, C. Torres e M. Arias-Estrada, Compact Spiking Neural Network Implementation in FPGA, Lecture Notes in Computer Science
1896, 270 (2000).
[5] L.F. Abbott e C. van Vreeswijk, Asynchronous states in networks of
pulse-coupled oscillators, Phys. Rev. E 48, 1483 (1993).
[6] P.K. Mohanty e A. Politi, A new approach to partial synchronization in
globally coupled rotators, J. Phys. A: Math. Gen. 39, L415 (2006).
[7] C. Allene et al., Sequential Generation of Two Distinct Synapse-Driven
Network Patterns in Developing Neocortex, The Journal of Neuroscience
26, 12851 (2008).
[8] C. Koch, Biophysics of computation, Oxford University Press, New York
(1999).
[9] P. Dayan e L.F. Abbott, Theoretical Neuroscience: Computational and
Mathematical Modeling of Neural Systems, The MIT Press, Cambridge
(2001).
[10] R. Zillmer, R. Livi, A. Politi e A. Torcini, Stability of splay state in pulsecoupled networks, Phys. Rev. E 76, 046102 (2007).
[11] D.Z. Jin, Fast convergence of spike sequences to periodic patterns in
recurrents networks, Phys. Rev. Lett. 89, 208102 (2002).
130
[12] R. Zillmer, R. Livi, A. Politi e A. Torcini, Desynchronization in diluted
neural networks, Phys. Rev. E 74, 036203 (2006).
[13] S. Ramón y Cayal, Histologie du Système Nerveux de l’Homme et des
Vertébré, A. Maloine, Parigi (1909).
[14] J.G. Nicholss, R.A. Martin e B.G. Wallace, Dai Neuroni al cervello,
Zanichelli, Bologna (1997).
[15] W. Gerstner e W. Kistler, Spiking Neuron Models, Cambridge University
Press, Cambridge (2002).
[16] M.N. Shadlen e W.T. Newsome, The variable discharge of cortical neurons: implications for connectivity, computation, and information
coding, J. Neurosci. 18, 3870 (1998).
[17] D.K.S. Smetters, Electrotonic structure and synaptic integration in cortical neurons, Massachusetts Institute of Technology: Cambridge, Massachusetts (1995).
[18] D. Johnston e S. Miao-Sin Wu, Foundations of Cellular Neurophysiology,
Massachusetts Institute of Technology: Cambridge, Massachusetts (1995).
[19] S.G. Cull-Candy, R. Miledi e I. Parker, Single glutamate-activated channels recorded from locust muscle fibres with perfused patch-clamp
electrodes, J. Physiol. 321, 195 (1980).
[20] E.R. Kandel, J.H.Schwartz e T.M. Jessell, Principles of neural science,
McGraw-Hill (2000).
[21] K. Huang, Statistical mechanics, John Wiley & Sons, New York (1987).
[22] D.E. Goldman, Potential, impedance and rectification in membranes,
J. Gen. Physiol. 342, 37 (1943).
[23] A.L. Hodgkin e B. Katz, The efffect of sodium ions on the electrical
activity of the giant axon of the squid, J. Physiol. 108, 37 (1949).
[24] L.J. Mullins e K. Noda, The influence of sodium-free solutions on membrane potential of frog muscle fibers, J. Gen. Physiol. 47, 117 (1963).
[25] A.L. Hodgkin e A.F. Huxley, Currents carried by sodium and potassium
ion throught the membrane of the giant axon of Loligo, J. Physiol. 116,
449 (1952).
[26] A.L. Hodgkin e A.F. Huxley, A quantitative description of membrane
current and its application to conduction and excitation in nerve, J.
Physiol. 117, 500 (1952).
[27] L. Lapicque, Recherches quantitatives sur l’excitation electrique des
nerfs traitee comme une polarization, J. Physiol. Pathol. Gen. 9, 620
(1907).
[28] A. Destexhe, Z.F. Mainen, T.J. Sejnowski, An Efficient Method for Computing Synaptic Conductances Based on a Kinetic Model of Receptor
Binding, Neural Computation 6, 14 (1994).
[29] C. van Vreeswijk, Partial synchronization in populations of pulsecoupled oscillators, Phys. Rev. E 54, 5522 (1996).
[30] R. Kapral, R. Livi, G.L. Oppo e A. Politi, Unpredictable behaviour in
stable systems, Europhys. Lett. 22, 571 (1993).
[31] F. Ginelli, R. Livi, A. Politi e A. Torcini, Relationship between directed
percolation and the synchronization transition in spatially extended
systems, Phys. Rev. E 67, 046217 (2003).
[32] A. Politi e A. Torcini, Stable Chaos, In fase di stampa, arXiv:0902.2545
(2009).
[33] E. Ott, Chaos in dynamical systems, Cambridge University Press (1993).
[34] G. Benettin et al., Lyapunov Characteristic Exponents for smooth dynamical systems and for hamiltonian systems; a method for computing all of them. Part 1: Theory, Meccanica 9, 21 (1980).
[35] I. Shimada e T. Nagashima, A numerical approach to ergodic problem
of dissipative dynamical systems, Prog. Theor. Phys. 61, 1605 (1979).
[36] L.M. Pecora e T.L. Carroll, Synchronization in chaotic systems, Phys.
Rev. Lett. 64, 821 (1990).
[37] A. Pikovsky, M. Rosenblum, J. Kurths, Synchronization: a universal concept in nonlinear sciences, Cambridge University Press, Cambridge (2003).
[38] R. Livi, A. Politi e S. Ruffo, Scaling law for the maximal Lyapunov exponent , J. Phys. Math. Gen. 25, 4813 (1992).
[39] A. Torcini, R. Livi, A. Politi e S. Ruffo, Comment on “universal scaling
law for the largest Lyapunov exponent in coupled map lattices”, Phys.
Rev. Lett. 78, 1391 (1997)
[40] H. Chate, F. Ginelli, K.A. Takeuchi, A. Politi e A. Torcini, Lavoro in fase di
realizzazione (2009). .
[41] W.H. Press, S.A. Teukolsky, W.T. Vetterling e B. P. Flannery, Numerical
recipes in C, Cambridge University Press (1992).
[42] G. Buzsáki, Rhythms of the brain, Oxford University Press (2006).
[43] P. Fries, A mechanism for cognitive dynamics: neuronal communication through neuronal coherence, Trends in Cognitive Sciences 9(10), 474
(2005).
[44] P. Bergé, Y. Pomeau e C. Vidal, Order within chaos, Herman e John Wiley
& Sons, Parigi (1984).
[45] J. Clinton Sprott, Chaos and Time-Series Analysis, Oxford University
Press, New York (2003).
[46] V.I. Osedelec, A multiplicative ergodic theorem. Lyapunov characteristic numbers for dynamical systems, Moscow Math. Soc. 19, 197 (1968).
[47] J.L. Kaplan e J.A. Yorke, Chaotic behavior of multidimensional difference equations in ”Functional Differential Equations and Approximation of Fixed Points”, Lect. Not. Math. 13, 730 (1979).
Ringraziamenti
Innanzitutto esprimo la mia gratitutide, per l’ospitalità e la collaborazione fornitami, all’Istituto dei Sistemi Complessi (I.S.C.) del Consiglio Nazionale delle Ricerche
(C.N.R.), dove è stato svolto questo lavoro di tesi, ed in particolare al prof. Antonio Politi. Sono in debito nei confronti del dott. Giampiero Puccioni per le
innumerevoli consulenze e del dott. Alessandro Torcini per i continui suggerimenti.
Debbo ringraziare inoltre per la collaborazione e le utili discussioni avute il mio
relatore prof. Roberto Livi. Infine voglio sottolineare che questa tesi è stata resa
possibile grazie al sostegno e all’affetto della mia famiglia.
134
Scarica