Dinamica di reti neuronali

annuncio pubblicitario
ANNO ACCADEMICO 2008-2009
Facoltà di Scienze Matematiche, Fisiche e Naturali
Corso di Laurea in Fisica
Tesi di Laurea
Dinamica di reti neuronali
Candidato:
Simona Olmi
Relatore:
Correlatore:
prof. Roberto Livi
dott. Alessandro Torcini
28 luglio 2009
Indice
1 Elementi di neurofisiologia
1
1.1 I neuroni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.2 I segnali neuronali ed il potenziale di azione . . . . . . . . . . . . . .
3
1.3 Le sinapsi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.4 Introduzione alla dinamica neuronale . . . . . . . . . . . . . . . . . .
5
1.5 La membrana cellulare del neurone . . . . . . . . . . . . . . . . . . .
7
1.6 Canali ionici e correnti ioniche . . . . . . . . . . . . . . . . . . . . . .
9
1.7 Origine del potenziale di riposo . . . . . . . . . . . . . . . . . . . . . 11
1.7.1
Un modello cellulare semplificato . . . . . . . . . . . . . . . . 11
1.7.2
L’equazione di Nerst . . . . . . . . . . . . . . . . . . . . . . . 12
1.7.3
Effetto del sodio e pompe ioniche . . . . . . . . . . . . . . . . 13
1.7.4
Effetto della permeabilità ionica e dei meccanismi di trasporto 14
1.8 Proprietà elettriche passive della membrana . . . . . . . . . . . . . . 16
2 Modelli semplificati di neuroni e reti neurali
19
2.1 Dal modello di Hodgkin-Huxley al modello leaky integrate and fire . . 20
2.2 Neuroni leaky integrate-and-fire . . . . . . . . . . . . . . . . . . . . . 25
2.2.1
Correnti sinaptiche . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2.2
Adattamento del tasso di sparo e refrattarietà . . . . . . . . . 30
I
2.3 Reti neurali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3.1
Rete di neuroni LIF globalmente accoppiati: il modello . . . . 34
2.3.2
Mappa guidata dall’evento . . . . . . . . . . . . . . . . . . . . 37
2.3.3
Stabilità lineare . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.4 Impulso di durata finita . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.4.1
Lunghezze d’onda grandi . . . . . . . . . . . . . . . . . . . . . 43
2.4.2
Lunghezze d’onda piccole . . . . . . . . . . . . . . . . . . . . . 44
2.4.3
Diagramma di fase e correzioni di taglia finita . . . . . . . . . 44
2.4.4
Altri stati collettivi della rete . . . . . . . . . . . . . . . . . . 47
2.5 Desincronizzazione in reti neurali diluite . . . . . . . . . . . . . . . . 50
Capitolo 1
Elementi di neurofisiologia
In questo capitolo introdurremo alcuni concetti basilari relativi alla neurofisiologia
del neurone. In particolare, dopo una breve descrizione della morfologia del neurone e delle sinapsi, analizzeremo quei particolari segnali elettrici emessi durante la
dinamica neuronale chiamati potenziali di azione i quali rappresentano l’unità elementare di informazione scambiabile fra i neuroni. Inoltre descriveremo in dettaglio
le caratteristiche della membrana cellulare, sia a riposo che eccitata, con particolare
attenzione alle sue proprietà elettriche.
1.1
I neuroni
I neuroni sono cellule del sistema nervoso altamente specializzate e dedicate al
trasferimento, immagazzinamento ed elaborazione delle informazioni. Tale elaborazione avviene attraverso segnali elettrici dovuti a differenze di potenziale associate
a correnti elettriche di natura ionica (essenzialmente sono rilevanti solo gli ioni sodio, potassio, calcio e cloro) che attraversano la membrana cellulare del neurone.
I neuroni sono in numero molto elevato e sono connessi fra di loro in modo molto
intricato (vedi fig.1.1): ad esempio nella corteccia cerebrale si ha una densità superiore a 104 neuroni/mm3 . Tipicamente, pur nella varietà di tipi di cellule neuronali
(neuroni della corteccia cerebrale, motoneuroni del midollo spinale, ecc.), possiamo
riconoscere tre parti morfologicamente e funzionalmente distinte: il corpo cellulare
o soma; i dendriti e gli assoni. Il soma ha una struttura compatta che risulta approssimativamente sferica (di circa 70 µm di diametro) ed è sostanzialmente l’unità
deputata all’elaborazione dell’informazione. I dendriti sono estensioni del soma con
una struttura molto ramificata che si estendono per distanze che possono raggiungere il millimetro ed hanno la funzione di raccogliere i segnali provenienti dagli altri
neuroni e trasmetterli al soma. Gli assoni sono lunghe protuberanze (anche oltre
un metro nei neuroni motori degli organismi animali superiori) che si proiettano dal
soma e la loro funzione consiste nella trasmissione del segnale generato dal soma
verso i dendriti di un’altro neurone. Usando la terminologia dei circuiti elettronici si
può quindi dire che i dendriti rappresentano il dispositivo di ingresso (”input”), gli
assoni il dispositivo di uscita (”output”) e il soma l’unità di elaborazione delle informazioni. La morfologia di un particolare tipo di neurone nonché la sua posizione
nella rete neuronale forniscono indizi sulla funzione espletata: ad esempio il livello
di arborizzazione fornisce un’idea del numero di connessioni che può ricevere e verso
quante altre cellule neuronali invii i propri segnali (vedi fig.1.2).
Figura 1.1. Neuroni della corteccia dei mammiferi osservati al microscopio. Possiamo distinguere neuroni con corpi cellulari triangolari e circolari: la cellula b è
un classico esempio di cellula piramidale con corpo triangolare [10].
Figura 1.2.
Forme e dimensioni dei neuroni [11].
1.2
I segnali neuronali ed il potenziale di azione
Si definisce potenziale di membrana la differenza di potenziale misurata ai capi di
due elettrodi, uno posto all’interno della cellula neuronale ed uno posto nel liquido
extracellulare circostante. Quando si parla di segnale neuronale ci si riferisce alla
variazione temporale e spaziale del potenziale di membrana. Quando il neurone è
a riposo, ossia non è in qualche modo eccitato dall’esterno (e chiariremo nel seguito
cosa si intende), il potenziale di membrana assume un valore caratteristico denominato potenziale di riposo, tipicamente dell’ordine di -65mV, ossia l’interno della
cellula si trova ad un potenziale inferiore rispetto all’esterno.
I potenziali di azione sono impulsi di tensione tipici generati durante la dinamica
neuronale; essi hanno una forma pressoché stereotipata e non sono soggetti ad attenuazione o distorsione durante la propagazione lungo l’assone. In fig.2.3 è riportata
la forma tipica di un potenziale di azione. Si notino le seguenti caratteristiche:
• l’impulso di tensione ha una durata di circa 1-2 ms ed una ampiezza misurata
fra il minimo ed il massimo di circa 100-120 mV;
• nella prima fase dell’impulso si assiste ad una crescita veolce del potenziale di
membrana fino ad arrivare ad una fase denominata di depolarizzazione dove
il potenziale di membrana diventa positivo, cioè l’interno della cellula si trova
ad un potenziale superiore rispetto all’esterno;
• nella fase di discesa l’impulso prima di ritornare al valore di riposo passa
attraverso una fase denominata di iperpolarizzazione, tipicamente della durata
di circa 10 ms (e quindi molto piú lenta della depolarizzazione), in cui la cellula
presenta un potenziale di membrana inferiore rispetto a quello di riposo.
Il potenziale di azione, che una volta generato nella cellula neuronale, viaggia lungo
l’assone ed è trasmesso agli altri neuroni, costituisce l’unità elementare associata
alla trasmissione dei segnali neuronali. Tipicamente quindi quando ci si riferisce al
segnale emesso da un neurone si intende la sequenza temporale di questi potenziali
di azione, detta anche treno di impulsi (in inglese spike train).
Figura 1.3.
1.3
Forma tipica di un potenziale di azione (o impulso) [9].
Le sinapsi
La sinapsi costituisce essenzialmente la giunzione tra due neuroni ossia la struttura
attraverso la quale le informazioni sono trasferite da una cellula nervosa all’altra.
In tale contesto si definisce neurone presinaptico il neurone ”trasmettente” i potenziali di azione, a monte della sinapsi, e neurone postsinaptico il neurone ”ricevente”
i potenziali di azione, a valle della sinapsi. Con questa terminologia la sinapsi è
quindi la regione in cui l’assone del neurone presinaptico ”interagisce” con il dendrite del neurone postsinaptico. Si definisce inoltre potenziale postsinaptico (che ha
come acronimo PPS ) la risposta in tensione del neurone postsinaptico conseguente
all’arrivo del potenziale di azione proveniente dal neurone presinaptico.
Si distinguono essenzialmente due tipi di sinapsi: la sinapsi chimica e la sinapsi elettrica (altrimenti detta gap-junction). La sinapsi chimica, della quale è riportato lo schema in fig.1.4, risulta la più comune nel cervello dei vertebrati e si
basa sul meccanismo che andiamo a descrivere. Il potenziale di azione generato
dal neurone presinaptico, giunto all’estremità dell’assone depolarizza localmente la
membrana cellulare causando il rilascio all’interno della fessura sinaptica (ossia il
piccolo spazio tra le due membrane cellulari presinaptiche e postsinaptiche), da
parte di strutture poste sull’assone denominate vescicole sinaptiche, di particolari
sostanze chimiche denominate neurotrasmettitori. Il neurotrasmettitore, non appena raggiunto il versante postsinaptico della sinapsi, è rivelato da speciali molecole
(chemorecettori ) poste sulla membrana postsinaptica che provocano l’apertura (o
direttamente o tramite una catena di segnali biochimici) di specifici canali attraverso i quali una corrente ionica fluisce dal liquido extracellulare alla cellula. L’ingresso
di questi ioni porta a sua volta ad una variazione del valore del potenziale di membrana postsinaptico. Dunque in una sinapsi chimica si ha prima la trasformazione
di un segnale elettrico in un segnale chimico sulla membrana presinaptica e poi la
successiva trasformazione sulla membrana postsinaptica di un segnale chimico in un
segnale elettrico. La sinapsi elettrica realizza invece un accoppiamento elettrico tra
due neuroni attraverso canali ionici altamente specializzati (detti gap-junctions) che
collegano la membrana presinaptica e postsinaptica. La sinapsi elettrica permette
perciò un flusso di corrente diretto tra neuroni adiacenti.
Figura 1.4. Esempio di sinapsi chimica: la terminazione presinaptica libera una
sostanza chimica, il neurotrasmettitore, in risposta ad una depolarizzazione [11].
1.4
Introduzione alla dinamica neuronale
Abbiamo già accennato che l’arrivo di un potenziale di azione dal neurone presinaptico provoca una risposta in tensione (il potenziale postsinaptico) nel potenziale di
membrana del neurone ricevente. A tal proposito si distingue tra potenziale postsinaptico eccitatorio (che ha come acronimo PPSE ) e potenziale postsinaptico inibitorio (che ha come acronimo PPSI ) a seconda che l’effetto sia quello di aumentare
ovvero di diminuire il valore del potenziale di membrana. Analogo significato ha
la distinzione tra sinapsi eccitatoria e sinapsi inibitoria ovvero tra stimolo depolarizzante e stimolo iperpolarizzante. Il numero di contatti sinaptici dipende dal
tipo di neurone: ad esempio i neuroni della corteccia cerebrale (neuroni corticali )
possiedono migliaia di contatti sinaptici (da 3 · 103 a 104 ) con gli altri neuroni della
corteccia dei quali circa l’85% sono eccitatori ed il resto inibitori. In realtà solo una
frazione dell’ordine del 5-10% risultano sinapsi realmente attive [1, 13]. Per avere
un’idea dell’ampiezza di un PPSE si veda la fig.1.5 in cui sono riportati i PPSE
registrati su una cellula neuronale ed il relativo istogramma delle altezze di picco:
come si vede il valor medio è dell’ordine di 0.5 mV. In fig.1.6 è riportata una rappre-
Figura 1.5. Registrazione di 479 PPSE sul soma di cellule piramidali della corteccia visuale del ratto, in presenza di attività neuronale spontanea (fig.A). Istogramma delle altezze di picco dei PPSE (fig.B) [14].
sentazione schematica della dinamica neuronale che si instaura in risposta all’arrivo
di impulsi da neuroni presinaptici:
fig.A: un neurone postsinaptico i riceve impulsi da due neuroni presinaptici j = 1,2;
ui (t) e urest rappresentano rispettivamente il potenziale di membrana e il valore
(f )
del potenziale di riposo del neurone i; la quantità ǫi1 (t − t1 ) rappresenta il
(f )
potenziale postsinaptico generato dall’arrivo all’istante t1
di un impulso dal
neurone j = 1;
(f )
fig.B: un impulso che arriva dall’altro neurone presinaptico j = 2 ad un istante t2 ,
entro un intervallo di tempo sufficientemente breve, causa un secondo potenziale postsinaptico che si somma al precedente; in questo regime la risposta
del neurone postsinaptico risulta approssimativamente lineare nel senso che la
risposta è circa proporzionale agli input che riceve;
fig.C: quando ui (t) raggiunge un valore tipico, θ, denominato soglia di attivazione,
il comportamento del neurone diviene altamente non lineare: è generato un
potenziale di azione (il picco dell’impulso rappresentato da una freccia è fuori
dalla scala della figura) che ha una forma stereotipata e quindi senza legame
con gli stimoli che lo hanno prodotto; inoltre il neurone, per tutta la durata
del potenziale di azione, diviene per cosı̀ dire ”insensibile”, ovvero refrattario,
agli stimoli che gli arrivano dagli altri neuroni.
La refrattarietà neuronale si distingue in genere in refrattarietà assoluta e refrattarietà relativa. La refrattarietà assoluta è quell’arco temporale (di circa 2ms) corrispondente alla durata del potenziale di azione in cui è impossibile che venga generato
un altro potenziale di azione. La refrattarietà relativa, che segue temporalmente la
refrattarietà assoluta, coincide con la fase di iperpolarizzazione del neurone in cui è
”difficile” ma non impossibile che il neurone venga eccitato fino ad emettere un altro
potenziale di azione. Conseguentemente il periodo di refrattarietà fornisce un limite
inferiore al minimo intervallo temporale tra due potenziali di azione consecutivi.
Figura 1.6.
1.5
Rappresentazione della dinamica neuronale [9].
La membrana cellulare del neurone
La membrana cellulare del neurone (vedi fig.1.7) è composta da molecole di lipidi e
proteine. Le molecole lipidiche sono disposte in un doppio strato con uno spessore
di circa 6nm. In questa matrice lipidica si trovano alcune molecole proteiche che
attraversano tutto lo spessore della membrana cellulare entrando quindi in contatto
sia con l’interno della cellula che con il liquido extracellulare. Tali particolari proteine prendono il nome di canali proteici, ovvero canali di membrana, canali acquosi
o canali ionici (la ragione di tali denominazioni sarà chiara a breve). La membrana
cellulare può essere attraversata dalle sostanze dall’esterno all’interno o viceversa
attraverso vari meccanismi. Vi sono ad esempio alcuni tipi di molecole (alcoli o
glicerolo) che attraversano la membrana sciogliendosi nel doppio strato lipidico e
riemergendo dall’altro lato; in tal caso la facilità di penetrazione dipende dal grado
di solubilità nei lipidi. Gli ioni inorganici (sodio, potassio, calcio e cloro) che, come
abbiamo già detto, costituiscono le correnti ioniche alla base dell’attività elettrica
neuronale, si muovono attraverso la membrana o legandosi a particolare molecole
dette molecole di trasporto, che li veicolano, ovvero attraverso i canali proteici sopra citati. Si noti comunque che il meccanismo di trasporto adottato durante la
generazione di un potenziale di azione risulta quello dei canali proteici, in quanto i
flussi di ioni coinvolti (dell’ordine di 106 ioni/s) risultano ben oltre le possibilità di
azione delle molecole di trasporto. Nella struttura dei canali proteici (vedi fig.1.7)
si possono riconoscere i seguenti elementi:
• un poro centrale pieno d’acqua;
• una regione del poro che agisce da filtro di selettività regolando il transito degli
ioni in base alle dimensioni ed alle caratteristiche chimico-fisiche;
• un sistema di porte (in inglese gates) che si aprono e si chiudono in modo
stocastico facendo oscillare il canale tra uno stato di apertura ed uno stato
di chiusura; di norma lo stato di chiusura predomina quando il potenziale di
membrana si trova al valore di riposo. 1 .
1
Esiste peraltro l’eccezione costituita da alcuni canali per i quali lo stato di apertura è predominante nella membrana a riposo: si tratta per lo più, come vedremo nel seguito, di quei canali del
cloro e del potassio che risultano responsabili proprio del valore del potenziale di riposo.
Figura 1.7.
1.6
a) Struttura della membrana cellulare del neurone; b) struttura di un
canale ionico [11].
Canali ionici e correnti ioniche
Quando il canale ionico si trova in uno stato di apertura il canale è detto attivato,
altrimenti quando si trova in uno stato di chiusura è detto inattivato. È opportuno sottolineare che essendo l’apertura e chiusura dei canali un processo di natura
stocastica l’attivazione o disattivazione di un canale sta a significare solo un aumentata o diminuita probabilità di apertura del canale e non uno stato di apertura
o chiusura continua (vedi fig.1.8). Esistono varie modalità di attivazione, ossia di
apertura, di un canale. In particolare se l’apertura del canale può essere regolata
dal valore del potenziale di membrana i canali si dicono voltaggio-attivati. A titolo
di esempio citiamo in questa categoria di canali il canale voltaggio-dipendente del
sodio che, come vedremo in seguito (??), è quello responsabile della depolarizzazione
della membrana che provoca la fase di salita del potenziale di azione. Riguardo alla
selettività alla specificità ionica i canali si possono distinguere in cationici e anionici
a seconda che risultino rispettivamente permeabili agli ioni positivi o negativi. La
permeabilità di una membrana ad una specie ionica, indicata con p, è una proprietà
intrinseca della membrana che misura la ”facilità” con cui gli ioni attraversano la
membrana stessa; essa è definita in modo empirico dalla relazione [1, 17]:
J = −p∆[C]
(1.1)
dove J è il flusso molare (misurato in mol/(cm2 ·s)) e ∆[C] rappresenta la differenza
di concentrazione ionica ai due lati della membrana (misurata in mol/cm3 ). P ha
le dimensioni di una velocità ed è solitamente misurata in cm/s. La permeabilità
dipende solo dal tipo e dal numero di canali ionici presenti sulla membrana. In
particolare i canali cationici possono essere specifici o non specifici qualora risultino
o meno specializzati per una particolare specie ionica (ad esempio si hanno canali
specifici del Na+ , K+ , Ca2+ ). I canali anionici risultano essenzialmente costituiti
dai canali del cloro (Cl− ), che è di gran lunga il maggior permeante anionico nelle
soluzioni biologiche.
Figura 1.8. Esempio di corrente di canale. Come si vede tale corrente risulta di
impulsi di forma quasi rettangolare che possono essere posti in relazione con lo
stato di apertura e chiusura dei canali stessi [15].
La conduttanza è invece una misura dell’abilità della membrana di trasportare corrente elettrica ed è misurata soltitamente in Siemens, con simbolo S, dove 1S =
1Ω −1 . Poichè la corrente è trasportata dagli ioni, la conduttanza di una membrana non dipenderà solo dalle proprietà della membrana (cioè dalla permeabilità)
ma anche dalla concentrazione ionica all’interno ed all’esterno della cellula (ovvero il
numero dei portatori liberi di carica). Non è tuttavia possibile ricavare una relazione
matematica generale tra permeabilità e conduttanza perchè tale relazione dipende
strettamente dalle modalità con cui gli ioni attraversano il canale (semplice diffusione attraverso i pori pieni d’acqua ovvero modelli più complicati che analizzano
l’interazione canale-ione permeante). In generale quindi la corrente che attraversa
un canale ionico dipenderà [11, 16, 17]):
• dalla conduttanza del canale;
• dal gradiente di concentrazione tra l’interno e l’esterno della cellula che tende
a produrre un flusso dalla zona a maggior concentrazione a quella a minor
concentrazione secondo la legge empirica enunciata da Fick [17]:
Jdif f = −D
d[C]
dx
(1.2)
dove Jdif f rappresenta il flusso dovuto alla diffusione (misurato in numero di
ioni/(cm2 ·s)), D è il coefficiente di diffusione (misurato in cm2 /s) e [C] è la
concentrazione ionica (qui espressa in numero di ioni/cm3 );
• dalla differenza di potenziale applicata alla membrana.
1.7
1.7.1
Origine del potenziale di riposo
Un modello cellulare semplificato
In fig.1.9 è presentato un modello cellulare semplificato [11] ma che coglie l’essenza
dell’origine del potenziale di riposo della cellula neuronale. La cellula contiene ioni
potassio (K + ), sodio (Na+ ), cloro (Cl− ) ed altri anioni (A− ) di grandi dimensioni ed
è a sua volta immersa in una soluzione di sodio, potassio e cloro. Le concentrazioni
ioniche mostrate in figura sono espresse in millimoli per litro (che ha per simbolo
mM dove 1mM = 10−3 mol/l). Nelle cellule neuronali sono presenti altri ioni, come
il calcio e il magnesio, ma il loro contributo al potenziale di riposo è trascurabile.
In questo modello la membrana cellulare è completamente impermeabile al sodio
ed all’anione interno (A− ) e risulta invece permeabile al potassio ed al cloro. Il
potassio risulta più concentrato dentro la cellula che fuori e tende quindi a muoversi
verso l’esterno secondo il proprio gradiente di concentrazione. D’altro canto, come
abbiamo precedentemente illustrato, la superficie interna della membrana è negativa
rispetto a quella esterna, e quindi il gradiente di potenziale tende ad attrarre il
potassio dentro la cellula. In una cellula a riposo il gradiente di concentrazione ed
il gradiente elettrico sono in equilibrio. Si definisce potenziale di equilibrio di una
specie ionica il valore del potenziale di membrana al quale non si ha alcun flusso
netto di quella specie ionica. Per il cloro il gradiente di concentrazione ed il gradiente
elettrico hanno direzione opposta rispetto al potassio.
Figura 1.9. Un modello semplificato per le distribuzioni ioniche all’interno ed
all’esterno della cellula. Le frecce rappresentano le direzioni dei gradienti di concentrazione ed elettrici per il potassio (K + ) e per il cloro (Cl− ). Le concentrazioni
sono espresse in millimoli per litro [11].
1.7.2
L’equazione di Nerst
Il potenziale di equilibrio di ogni specie ionica è legato alle concentrazioni intracellulari ed extracellulari attraverso la cosiddetta equazione di Nerst:
Eione =
kT [n]e
ln
q
[n]i
(1.3)
dove: Eione è il potenziale di equilibrio dello ione; [n]e , [n]i sono rispettivamente
le concentrazioni extracellulari ed intracellulari; k ≃ 1.38 · 10−23 J/K è la costante
di Boltzmann; T è la temperatura assoluta in Kelvin; q è la carica elettrica (in
Coulomb) della specie ionica. È possibile capire l’origine dell’equazione di Nerst
attraverso il seguente ragionamento (vedi anche fig.1.10). Dalla meccanica statistica
′
di Boltzmann per sistemi in equilibrio termico si ha che la probabilità p(U < U <
′
′
′
U + dU) che una molecola si trovi in uno stato di energia U < U < U + dU
′
′
risulta: p(U < U < U + dU) ∝ exp(−U/kT ) [18]. Consideriamo adesso degli
ioni con carica positiva q in un campo elettrico statico. La loro energia nel punto
x risulta U(x) = qV (x) dove V (x) è il potenziale nel punto x. La probabilità
di trovare uno ione in una regione nell’intorno del punto x è perciò proporzionale
alla quantità exp(−qV (x)/kT ). Reinterpretando la densità di probabilità come una
quantità proporzionale ad una densità ionica [n(x)], ovvero ad una concentrazione,
si ha:
[n(x1 )]
p(U(x1 ))
=
= exp(−q(V (x1 ) − V (x2 ))/kT )
p(U(x2 ))
[n(x2 )]
(1.4)
e dunque all’equilibrio termodinamico si ha che un gradiente di potenziale elettrostatico ∆V = (V (x1 ) − V (x2 )) genera un gradiente di densità ionica . Ma poichè
questo è un assunto su uno stato di equilibrio la relazione deve valere anche nell’altro senso: ossia un gradiente di concentrazione genera un gradiente di potenziale
elettrostatico. Risolvendo la (1.4) rispetto al gradiente di potenziale si ha che all’equilibrio termodinamico vale ∆V =
Figura 1.10.
kT
q
2
ln [n]
che è appunto l’equazione di Nerst.
[n]1
Origine del potenziale di Nerst [9].
La quantità kT /q ha le dimensioni di una differenza di potenziale elettrico e per
una specie ionica monovalente (per la quale q = e, dove e ≃ 1.6 · 10−19 C è il valore
assoluto della carica dell’elettrone) è uguale a circa 25mV a temperatura ambiente
(T ≃ 300K). Per il modello cellulare mostrato in fig.1.9 nel quale il rapporto delle
concentrazioni del cloro e del potassio è uguale e pari a 1:30 si avrà a T ≃ 300K:
Ek ≃ −85mV , ECl ≃ −85mV . Nel modello cellulare semplificato, essendo gli ioni
potassio e cloro gli unici in grado di muoversi attraverso la membrana ed essendo
entrambi in equilibrio a -85mV, la cellula non manifesta alcun guadagno o perdita
netta di ioni: il potenziale di riposo della cellula semplificata coincide quindi con il
potenziale di equilibrio del potassio e del cloro.
1.7.3
Effetto del sodio e pompe ioniche
Lo ione sodio (Na+ ) è molto più concentrato all’esterno che all’interno della cellula (vedi fig.1.9), dunque per opporsi all’ingresso del sodio dovuto al gradiente di
concentrazione la membrana deve avere una differenza di potenziale tra l’interno e
l’esterno positiva: infatti usando le concentrazioni di fig.1.9 si ha che a T ≃ 300K
il potenziale di equilibrio del sodio risulta EN a ≃ +34mV . Dunque in una cellula
neuronale, dove il potenziale di riposo della membrana è negativo, sia il gradiente
di concentrazione sia il potenziale di membrana favoriscono l’ingresso del sodio. La
membrana cellulare è scarsamente permeabile al sodio ma il sia pur limitato ingresso di questo ione depolarrizza leggermente la membrana rispetto al potenziale
di equilibrio del potassio con la conseguenza che il potassio, fuori dall’equilibrio,
fluisce verso l’esterno. Per mantenere lo stato di equilibrio (ovvero le concentrazioni
ioniche costanti) a fronte di queste perdite continue esistono delle cosiddette pompe
ioniche che trasportano il sodio fuori dalla cellula ed il potassio dentro la cellula
in modo da mantenere uno stato stazionario, ovvero una sistuazione di equilibrio
dinamico. Il più importante sistema di trasporto è costituito dalla pompa Na-K che
trasporta tre ioni sodio fuori dalla cellula per ogni due ioni potassio portati invece
all’interno: in tal caso si dice che il rapporto di accoppiamento Na:K della pompa è
di 3:2. Tale situazione è rappresentata in fig.1.11 dove le frecce tratteggiate indicano
i movimenti ionici passivi (ovvero guidati solo dal bilancio tra i gradienti elettrici e
di concentrazione) mentre le frecce continue e i circoli indicano le pompe ioniche. La
lunghezza delle frecce indica l’entità dei movimenti netti ionici: per ciascuno ione il
flusso totale è nullo all’equilibrio.
Figura 1.11.
1.7.4
Flussi ionici passivi e pompe ioniche in una cellula in stato
stazionario [11].
Effetto della permeabilità ionica e dei meccanismi di
trasporto
Abbiamo visto nel paragrafo 1.7.2 che il potenziale di riposo della membrana è
determinato principalmente dal rapporto delle concentrazioni transmembranali del
potassio. Esiste tuttavia una dipendenza non solo dalle concentrazioni ioniche ma
anche dalla permeabilità alle specie ioniche. L’equazione di campo costante, detta
anche equazione GHK dagli autori D.E. Goldman [19], A.L. Hodgkin e B. Katz [20],
esprime tale dipendenza:
Vm =
kT pk [K + ]e + pN a [Na+ ]e + pCl [Cl− ]i
;
ln
e
pk [K + ]i + pN a [Na+ ]i + pCl [Cl− ]e
(1.5)
dove Vm è il potenziale di riposo della membrana; e (valore assoluto della carica dell‘elettrone) indica la carica degli ioni monovalenti; il simbolo [I]j , dove I =
K + ,Na+ ,Cl− e j = i,e, indica la concentrazione interna ed esterna delle specie
ioniche; pk , pN a , pCl rappresentano le permeabilità ioniche di ogni ione.
Tale
equazione è basata sul presupposto che, a potenziale costante, non deve cambiare
la carica sulla membrana anche se gli ioni la attraversano in piccole quantità . Di
conseguenza le correnti trasportate dalle perdite di sodio verso l’interno, di potasso
verso l’esterno e dalle altre perdite del cloro devono dare come somma zero. Altrimenti si detetrminerebbe un accumulo, o una perdita, costante di carica e quindi una
deriva costante del potenziale di membrana. Il nome equazione di campo costante
è legato al fatto che una delle ipotesi alla base di essa è che il campo elettrico all’interno della membrana sia uniforme. Come si vede l’equazione ricorda quella di
Nerst ma considera tutte le specie ioniche presenti ”pesate” con la loro permeabilità
e corrisponde pertanto a quello che intuitivamente era possibile aspettarsi: ovvero
che il potenziale di membrana tende tanto più al valore del potenziale di equilibrio
di una specie ionica quanto più la sua permeabilità è maggiore di quella delle altre
specie ioniche. È possibile dimostrare [11] che non vi è una grossa dipendenza del
potenziale di riposo dal cloro e pertanto il suo contributo è spesso trascurato; in tal
caso l’equazione di campo costante viene cosı̀ riscritta:
Vm=
kT [K + ]e + b[Na+ ]e
;
ln
e
[K + ]i + b[Na+ ]i
(1.6)
dove b = pN a /pk . Una descrizione ancora più accurata è fornita dall’equazione di
stato stazionario [21] che considera anche gli effetti dei processi di trasporto attivo
della pompa ionica Na − K:
Vm=
kT r[K + ]e + b[Na+ ]e
ln
;
e
r[K + ]i + b[Na+ ]i
(1.7)
dove r è il rapporto di accoppiamento del sistema di trasporto (nel caso della pompa
Na − K si ha r = 3/2). Si capisce facilmente come gli effetti della pompa si
ripercuotano sul potenziale di membrana: infatti il diverso flusso di ioni Na+ e K +
(tre ioni sodio fuori dalla cellula per ogni due ioni potassio portati invece all’interno)
causato dalla pompa genera una corrente ionica netta verso l’esterno; questo flusso
di cariche positive verso l’esterno tende a iperpolarizzare la membrana ad un valore
leggermente più negativo (ossia avvicina il potenziale di membrana un po’ di più al
potenziale di equilibrio del potassio) di quello che ci si aspetterebbe solo in base a
meccanismi passivi. Per avere un’idea dell’entità del contrbuto delle pompe ioniche si
confronti il valore del potenziale di riposo predetto dall’equazione di campo costante
e dall’equazione di stato stazionario relativamente ad assoni di calamaro in acqua
di mare alla temperatura di T ≃ 300K: usando l’equazione di campo costante
si trova Vm ≃ −67mV , mentre usando l’equazione di stato stazionario si trova
Vm ≃ −73mV (abbiamo usato i seguenti valori realistici: [K + ]i = 400mM, [K + ]e =
10mM, [Na+ ]i = 50mM, [Na+ ]e = 460mM, b = pN a /pk = 0.04, r = 1.5).
1.8
Proprietà elettriche passive della membrana
Da un punto di vista elettrico la più semplice schematizzazione di una porzione di
membrana cellulare a riposo fa ricorso a tre elementi circuitali: una resistenza (R),
una capacità (C), ed un generatore di tensione V uguale al potenziale di riposo (vedi
fig.1.12 e fig.1.13). La presenza della resistenza si spiega con l’esistenza dei canali
Figura 1.12.
Schematizzazione elettrica di una porzione di membrana cellulare
del neurone. Vrest indica il potenziale di riposo [1].
Figura 1.13. Equivalente circuitale dell’intera membrana cellulare. I simboli R e
C in questo caso rappresentano il paralllelo rispettivamente di tutte le resistenze e
le capacità delle singole porzioni di membrana; Vrest indica il potenziale di riposo;
Iinj rappresenta una corrente iniettata dentro la cellula [1].
ionici che realizzano un contatto tra l’interno e l’esterno della cellula. La resistena
di membrana è di solito riportata come una resistenza di membrana specifica, Rm ,
definita come una resistenza per unità di superficie (in unità Ω · cm2 ). R è quindi
ottenuta dividendo Rm per l’area della membrana considerata. Rm è determinata
principalmente dalle permeabilità a riposo del potassio e del cloro. Valori tipici di
Rm variano da circa 103 Ω · cm2 per membrane con molti canali ionici a circa 5 x 104
Ω · cm2 per membrane con pochi canali ionici. Ma oltre a permettere il passaggio
di correnti ioniche, la membrana accumula cariche sulla superfici interna ed esterna,
ed è proprio questa separazione che detemina il potenziale di membrana. La realizzazione di questa separazione di cariche conferisce alla membrana le proprietà di un
condensatore. La capacità di membrana è di solito specificata in termini di una capacità di membrana specifica, Cm , definita come una capacità per unità di superficie
(in unità F/cm2 ). C è quindi ottenuta moltiplicando Cm per l’area della membrana considerata. Cm è tipicamente dell’ordine di 1µF/cm2 . Tramite la relazione
Qm = Cm V , dove Qm è la quantità di carica per unità di superficie, ed assumendo
V ≃ -65mV si ha che Qm ≃ (1µ F/cm2 ) x (65mV) ≃ 6.5 x 10−8 C/cm2 che equivale, dividendo per il valore assoluto della carica dell’elettrone, a circa 4 x 1011 ioni
monovalenti per cm2 . Ci preme sottolineare che tale schematizzazione descrive solo
il comportamento passivo della membrana e non prende in considerazione eventuali
componenti non lineari o attivi come ad esempio conduttanze voltaggio-dipendenti
(vedi ??).
Capitolo 2
Modelli semplificati di neuroni e
reti neurali
In questo capitolo uniamo tutti gli elementi costitutivi di un neurone (dendriti,
sinapsi, conduttanze dipendenti dal potenziale, assoni) al fine di ottenere un modello
funzionale della singola cellula; con questo modello a nostra disposizione possiamo
chiederci quali operazioni può effettuare o quanto sia efficace nel codificare informazione. Iniziamo questa operazione trascurando l’albero dei dendriti e rimpiazzando la descrizione dei processi di sparo fondata sulle conduttanze (ovvero la descrizione fornita dalle equazioni realistiche di Hodgkin-Huxley per le correnti di membrana), con una descrizione basata sull’utilizzo di modelli formali, come il modello
leaky integrate and fire, che tratteremo. Questo modello descrive in modo estremamente semplificato la dinamica sottosoglia, cioè la dinamica prima dell’insorgenza
del potenziale di azione, mentre il potenziale di azione è descritto sinteticamente
come evento impulsivo, assumendo implicitamente di aver a che fare con un impulso stereotipato. In questo modo possiamo ridurre incredibilmente la complessità
del problema e caratterizzare il comportamento elettrico dei neuroni attraverso una
singola equazione differenziale ordinaria piuttosto che tramite equazioni accoppiate,
non lineari e alle derivate parziali. Tali semplificazioni ci permettono di trattare reti
formate da un gran numero di neuroni interconnessi, di simularne la dinamica e di
analizzare le soluzioni collettive, non banali, e verificarne la stabilità. La comprensione di un qualsiasi sistema complesso passa dunque per la scelta di un livello di
descrizione che afferra le proprietà fondamentali del sistema e trascura quelle non
essenziali per lo scopo proposto.
2.1
Dal modello di Hodgkin-Huxley al modello
leaky integrate and fire
Il modello di Hodgkin-Huxley è un modello realistico a quattro dimensioni (in cui
cioè la dinamica del neurone è descritta da quattro variabili), pensato per riprodurre i dati sperimentali relativi ad una particolare fibra nervosa, l’assone gigante
del calamaro [5]. Questo modello è costituito da un sistema di quattro equazioni
differenziali del primo ordine che descrivono la dinamica del potenziale di membrana
e delle tre correnti ioniche fondamentali: la corrente di sodio (IN a ), la corrente del
potassio (IK ) e la corrente di perdita, o di dispersione, (IL dall’inglese leakage current), dovuta principalmente al cloro (Cl− ), ma che riassume anche l’effetto di altre
specie ioniche presenti, ma non descritte esplicitamente. Il meccanismo alla base di
queste correnti ioniche risiede nel fatto che le conduttanze della membrana cellulare
per il sodio (gN a ) e per il potassio (gK ) sono dipendenti dalla differenza di potenziale applicata alla membrana, dunque la probabilità che i canali si aprano aumenta
con la depolarizzazione della membrana. L’apertura dei canali avviene tuttavia con
tempi e modalità diverse: la depolarizzazione della membrana attiva inizialmente un
aumento della conduttanza del sodio (seguita da una successiva inattivazione) e solo
Figura 2.1.
Fase di salita del potenziale di azione.
con un certo ritardo temporale quella del potassio. Inoltre l’effetto sul potenziale di
membrana dell’aumento della conduttanza è diverso per il sodio e per il potassio:
• per quanto riguarda il sodio si ha un processo di retroazione positiva; infatti
una piccola depolarizzazione aumenta il numero di canali aperti e questo, a
sua volta, dà luogo ad un ulteriore ingresso del sodio secondo il gradiente
elettrochimico e ad una depolarizzazione ancor più grande;
• per quanto riguarda il potassio, si ha invece che il flusso in uscita secondo
il gradiente elettrochimico, dovuto alla depolarizzazione, porta alla ripolarizzazione della membrana e quindi alla conseguente riduzione della conduttanza
per il potassio fino al valore di riposo (retroazione negativa).
Il profilo tipico di un potenziale di azione è quindi spiegabile, per quanto riguarda
la fase di salita, con un improvviso grande aumento della permeabilità di membrana
al sodio (vedi figura 2.1); la conseguente corrente del sodio porta rapidamente il
potenziale di membrana a spostarsi verso il potenziale di equilibrio del sodio stesso
(EN a ). La fase di caduta del potenziale di azione, ovvero la ripolarizzazione della
membrana, è dovuta ad un successivo aumento della permeabilità al potassio (vedi
figura 2.2): a causa della corrente del potassio, il potenziale di membrana si sposta
Figura 2.2.
Fase di caduta del potenziale di azione.
questa volta, verso il potenziale di equilibrio del potassio (Ek ).
Figura 2.3.
Ricostruzione teorica dell’andamento del potenziale d’azione e relative
variazioni di conduttanza del sodio e del potassio [11].
Il modello di Hodgkin-Huxley spiega inoltre l’esistenza di un livello di soglia del
potenziale di membrana al di sopra del quale nasce l’impulso; tale fenomeno può
essere compreso immaginando di far passare una corrente attraverso la membrana
depolarizzandola solo sino alla soglia e poi di interrompere la corrente. Essendo il
potenziale di membrana lontano dal potenziale di equilibrio del potassio, vi sarà un
aumento della corrente di potassio in uscita, ma verranno attivati anche alcuni canali
di sodio, aumentando la corrente di sodio in ingresso. Alla soglia questi aumenti di
corrente sono esattamente uguali e opposti (equilibrio dinamico), e la membrana è in
una condizione simile a quella di riposo, a parte il fatto che la conduttanza del sodio
ora è instabile. La depolarizzazione oltre la soglia determina cosı̀ un aumento di
gN a sufficiente a superare immediatamente il valore della conduttanza del potassio a
riposo, ma, non appena uno ione in più di potassio lascia la cellula, rispetto al valore
di soglia, la depolarizzazione diminuisce e la prevalenza della corrente di potassio
determina la ripolarizzazione.
Un ultimo aspetto capace di essere spiegato con questo modello è il tempo di
refrattarietà; dopo l’emissione di un potenziale di azione abbiamo a che fare con due
periodi diversi di retrattarietà: il periodo di refrattarietà assoluto e quello relativo.
Il periodo assoluto è l’intervallo durante il quale non può essere assolutamente emesso un potenziale di azione, anche se il neurone è soggetto ad uno stimolo qualsivoglia
grande; il periodo relativo è l’intervallo temporale immediatamente successivo durante il quale la generazione di un nuovo potenziale di azione è inibita, ma non
impossibile. Il periodo refrattario assoluto coincide essenzialmente con l’intera durata del potenziale di azione ed è causato dall’inattivazione dei canali Na+ che in
precedenza si erano aperti per depolarizzare la membrana; questi canali rimangono
inattivi finché la membrana non si ripolarizza, dopodiché si chiudono, si riattivano e
riacquistano la loro capacità di aprirsi in risposta ad uno stimolo. Il periodo refrattario relativo segue temporalmente quello assoluto; i canali potassio si aprono per
terminare il potenziale di azione ripolarizzando la membrana, dunque la conduttanza di membrana del potassio cresce drasticamente. Gli ioni K + che fluiscono in gran
numero fuori dalla cellula fanno sı̀ che il potenziale di membrana si avvicini molto al
potenziale di equilibrio del potassio; questo determina una breve iperpolarizzazione
della membrana, cosiché il potenziale di membrana diventa più negativo dell’usuale
potenziale di riposo. Finché la conduttanza del potassio non raggiunge il suo valore
di riposo, è necessario uno stimolo maggiore per raggiungere il valore di soglia e dar
vita ad una seconda depolarizzazione. Il raggiungimento del potenziale di equilibrio
di riposo determina la fine del periodo di refrattarietà relativo.
Un neurone dunque genererà un potenziale di azione quando il suo potenziale di
membrana raggiungerà un valore di soglia compreso tra −55 e −50 mV . Durante lo
sparo del potenziale di azione, il potenziale di membrana descresce rapidamente e
assume un valore che è iperpolarizzato rispetto al potenziale di soglia. Il meccanismo
per cui le conduttanze dipendenti dal potenziale K + e Na+ producono dei potenziali
di azione è ben compreso e modellizzabile accuratamente; d’altra parte i modelli dei
neuroni possono essere semplificati se non sono esplicitamente inclusi i meccanismi
biofisici responsabili dei potenziali di azione. I modelli integrate-and-fire effettuano
questa semplificazione supponendo che il potenziale di azione sia generato ogni volta
che il potenziale di membrana del neurone modello raggiunge un valore di soglia Θ;
dopo l’emissione del potenziale di azione, al potenziale viene riassegnato un valore R
inferiore al potenziale di soglia, R < Θ. Tali modelli formali partono dal presupposto
che un potenziale di azione costituisca un evento stereotipato, per cui viene descritta
solo la dinamica sottosoglia di un’unica variabile (modello unidimensionale); inoltre
non riproducono in modo dettagliato i potenziali di azione né includono l’effetto di
adattamento o il tempo di refrattarietà. L’insorgenza del potenziale di azione è cosı̀
caratterizzata solo dal tempo di sparo (o in inglese firing time).
2.2
Neuroni leaky integrate-and-fire
Il modello integrate-and-fire è stato proposto da Lapicque nel 1907, molto prima che
fosse compreso il meccanismo di generazione dei potenziali di azione; nonostante la
sua età e la sua semplicità, questo modello rappresenta ancora una descrizione estremamente utile dell’attività neuronale. Trascurando una descrizione biofisica del
potenziale di azione, a questi modelli rimane il compito, più semplice, di modellizzare la dinamica del potenziale di membrana sotto soglia. Questo compito può
esser svolto con vari livelli di rigore; nella versione più semplice, sono ignorate tutte
le conduttanze di membrana attive, compresi gli input sinaptici, e l’intera conduttanza di membrana è schematizzata con un singolo termine di perdita, passivo,
im = ḡL (V − EL ), con im corrente di membrana, V potenziale di membrana, EL
potenziale di riposo di un singolo ione e ḡL parametro da aggiustare per ottenere la
conduttanza di membrana a riposo per uno ione. Questa versione è denominata passiva o modello leaky integrate-and-fire (al quale ci riferiremo anche come LIF). Le
conduttanze neuronali sono approssimativamente costanti per piccole fluttuazioni
attorno al potenziale di membrana di riposo; il modello LIF assume che questa
costanza si mantenga nell’intero range di variazione del potenziale sotto soglia. Per
alcuni neuroni, questa si rivela un’approssimazione ragionevole, mentre per altri non
lo è; con queste approssimazioni il neurone si comporta come un circuito elettrico
costituito da una resistenza ed una capacità in parallelo (figura 2.4) ed il potenziale
di membrana si determina cosı̀ attraverso l’equazione
cm
dV
Ie
= −im +
dt
A
(2.1)
dove cm è la capacità per unità di superficie della membrana, A è la superficie della
membrana, im è la corrente di membrana per unità di superficie ed Ie è la corrente
di elettrodo, che usualmente non è espressa come corrente per unità di superficie;
con im = ḡL (V − EL ) si ha
cm
dV
Ie
= −ḡL (V − EL ) + .
dt
A
(2.2)
È conveniente moltiplicare l’equazione (2.2) per la resistenza specifica di membrana
Figura 2.4. Circuito equivalente per il modello di neurone. Il neurone è rappresentato a sinistra, da un singolo insieme di superficie A con una sinapsi ed un
s indica
elettrodo che inietta corrente. Nel circuito equivalente a destra, il cerchio una conduttanza sinaptica che dipende dall’attività di un neurone presinaptico.
Viene indicata inoltre una singola conduttanza gs , anche se, in genere, ce ne posv indica una conduttanza che dipende dal
sono essere di tipi diversi. Il cerchio potenziale, mentre Ie è la corrente che passa attraverso l’elettrodo. [12].
rm , data in questo caso da rm = 1/ḡL ; questo cancella il fattore ḡL nel membro a
destra dell’equazione e lascia un fattore cm rm = τm nel membro di sinistra, dove τm
è la costante di tempo di membrana del neurone. L’ultimo termine del membro di
destra varia in accordo al fatto che rm /A = Rm , dove Rm è la resistenza di membrana
totale. Si arriva cosı̀ all’equazione fondamentale per i modelli leaky integrate-andfire:
τm
dV
= EL − V + Rm Ie .
dt
(2.3)
Per generare i potenziali di azione in questo modello occorre aggiungere una regola:
assegnare al potenziale il valore R ogniqualvolta il potenziale V raggiunga il valore di
soglia e venga sparato un potenziale di azione. L’equazione (2.3) indica che, quando
Ie = 0, il potenziale di membrana si rilassa esponenzialmente con una costante di
tempo τm a V = EL ; EL è dunque il potenziale di riposo della cellula modello.
Il potenziale di membrana per il modello passivo integrate-and-fire è determinato
integrando l’equazione (2.3) e applicando la regola di soglia e di riassegnazione del
valore del potenziale per la generazione del potenziale di azione. In figura (2.5) è
mostrata la risposta di un neurone LIF ad una corrente di elettrodo che varia nel
tempo.
Figura 2.5. Modello leaky integrate and fire guidato da una corrente di elettrodo
che varia temporalmente. Il grafico superiore indica il potenziale di membrana,
mentre quello inferiore la corrente guida. I potenziali d’azione sono semplicemente
sovrapposti alla traiettoria del potenziale di membrana ogniqualvolta il potenziale
raggiunga il valore di soglia. [12].
Il tasso di sparo di un modello LIF in risposta ad una corrente iniettata costante
può essere calcolato analiticamente. Quando Ie è indipendente dal tempo, il potenziale sotto soglia V (t) può essere facilmente calcolato risolvendo l’equazione (2.3):
V (t) = EL + Rm Ie + (V (0) − EL − Rm Ie )exp(−t/τm ),
(2.4)
dove V (0) è il valore di V al tempo t = 0. Questa equazione è valida per il modello
integrate-and-fire solo finché V rimane sotto soglia. Supponiamo che a t = 0 il
neurone abbia appena sparato un potenziale di azione e si abbia V (0) = R; il
potenziale di azione successivo si avrà quando il potenziale di membrana raggiunge
il valore di soglia, cioè, ad un tempo t = tisi dove
V (tisi ) = Θ = EL + Rm Ie + (R − EL − Rm Ie )exp(−tisi /τm ).
(2.5)
Risolvendo per tisi , ovvero per il tempo a cui si ha il potenziale di azione successivo,
possiamo determinare l’intervallo tra uno sparo e l’altro (in inglese interspike interval
o ISI) per una corrente Ie costante, o, equivalentemente, il suo inverso, che possiamo
chiamare il tasso di sparo del neurone,
risi =
1
Rm Ie + El − R
= τm ln(
)
tisi
Rm Ie + EL − Θ
−1
.
(2.6)
Questa espressione è valida se Rm Ie > Θ − EL , altrimenti risi = 0. Per valori
sufficientemente grandi di Ie , possiamo approssimare linearmente il logaritmo ln(1 +
z) ≈ z per piccoli z in modo da avere
risi
"
Rm Ie + El − Θ
≈
τm (Θ − R)
#
,
(2.7)
+
che mostra che il tasso di sparo cresce linearmente con Ie per grandi Ie .
La figura (2.6A) mostra risi in funzione di Ie ; il tasso di sparo, determinato come
l’inverso dell’intervallo temporale tra i primi due impulsi sparati da un neurone
corticale in vivo in risposta ad una corrente iniettata (cerchi pieni), è in accordo con i
risultati ricavati dal modello LIF, anche se il neurone reale esibisce una caratteristica
di adattamento del tasso di sparo prima di raggiungere uno stato stazionario (figura
2.6B), che il modello LIF può riprodurre solo usando parametri diversi da quelli che
venivano usati per riprodurre gli impulsi iniziali.
2.2.1
Correnti sinaptiche
Nel caso in cui il neurone riceva degli impulsi da altri neuroni, la cosa si può modelizzare nell’ambito dei modelli LIF sostituendo alla corrente esterna Ie che compare
nell’equazione (2.3) la corrente sinaptica Isin . In particolare l’effetto prodotto da un
solo impulso ricevuto dal neurone al tempo t corrisponde ad una corrente
Isin = −Gm [V + W ]τm δ(t)
(2.8)
per una sinapsi che risponda in modo infinitamente rapido [29]. Dove Gm = 1/Rm è
la conduttanza di membrana, W è il potenziale di inversione della sinapsi il cui segno
Figura 2.6. (A)Comparazione dei tassi di sparo in funzione della corrente iniettata, calcolati l’uno con il modello integrate and fire, l’altro attraverso le misure
su un neurone corticale in vivo. I dati puntiformi derivano da una cellula piramidale nella corteccia visiva primaria di un gatto. I cerchi pieni mostrano l’inverso
dell’ISI per i primi due impulsi sparati, mentre i cerchi vuoti mostrano il tasso
di sparo nello stato quasi stazionario, dopo l’adattamento del tasso di sparo. (B)
Registrazione dello sparo di un neurone corticale, soggetto ad una corrente iniettata costante, in cui è visibile l’adattamento. (C) Traiettoria del potenziale di
membrana e potenziali di azione per un modello integrate and fire con una corrente
aggiuntiva. [12].
determina se l’effetto dell’impulso è eccitatorio o inibitorio. Dato che il potenziale
di membrana V ha segno negativo, la sinapsi è detta eccitatoria (rispettivamente
inibitoria) se W < 0 (W > 0); il segno di V è all’origine anche del segno negativo
nell’equazione (2.8). Nel caso in cui il neurone sia connesso ad altri N neuroni
pre-sinaptici il modello LIF si può riscrivere come
τm V̇ = EL − V − τm (V + W )
(m)
dove il tempo tj
N X
X
j=1 m
(m)
δ(t − tj ) ,
(2.9)
rappresenta l’istante di ricezione dell’impulso m-esimo emesso dal
j-esimo neurone pre-sinaptico.
Un modello ancora più semplificato, ma largamente usato in letteratura e che
mette in connessione la dinamica LIF con quella di oscillatori è il seguente
v̇ = c − v −
N X
X
j=1 m
(m)
δ(t − tj ) ,
(2.10)
dove si è assunto che EL = 0, che il tempo unitario sia τm , che il potenziale di
membrana sia stato riscalato come v = (V − R)/(Θ − R), in modo che v ∈ [0,1].
Nell’equazione 2.10 il termine c rappresenta una corrente esterna adimensionale. In
assenza di stimoli esterni, la soluzione dell’equazione 2.10 è semplicemente v(t) =
-50
Θ
-52
-54
v
-56
-58
R
-60
150
175
tempo
200
Figura 2.7. Andamento temporale del potenziale di membrana per un neurone
LIF soprasoglia in assenza di stimoli presinaptici. Le frecce indicano l’istante in
cui avviene l’emissione di un potenziale di azione.
c(1 − exp(−t)), quindi se c < 1 il suo valore asintotico resta sempre sotto soglia,
altrimenti se c > 1 il potenziale di membrana raggiunge soglia e viene riazzerato in
modo ripetitivo con periodo tisi = ln[(c − 1)/c]. In questo caso il neurone è detto
soprasoglia e la sua dinamica ricorda quella di un semplice oscillatore armonico
sovrasmorzato ed è riportata in figura 2.7
2.2.2
Adattamento del tasso di sparo e refrattarietà
L’adattamento del tasso di sparo è una caratteristica comune dei neuroni piramidali
corticali e consiste nell’allungamento degli ISI col passare del tempo in presenza
di una corrente costante iniettata nella cellula, prima di raggiungere un valore di
stato stazionario. La considerazione di questo fenomeno ci permette di mostrare
come un modello LIF possa essere modificato per incorporare una dinamica più
complessa. Il modello LIF che abbiamo descritto nel paragrafo precedente è basato
su due approssimazioni separate: una descrizione altamente semplificata del potenziale di azione e una approssimazione lineare per la corrente di membrana totale.
I dettagli del processo di generazione del potenziale di azione non sono importanti
per l’obiettivo proposto dalla nostra modellizzazione, inoltre la corrente di membrana è modellizzata con dettagli sufficienti. Illustriamo il processo di adattamento
del tasso di sparo usando un modello di conduttanza che ha caratteristiche simili
a quelle delle conduttanze neuronali misurate che giocano un ruolo importante nel
produrre questo effetto. Modellizziamo l’adattamento del tasso di sparo includendo
nell’equazione fondamentale un’ulteriore corrente,
τm
dV
= EL − V − rm gsra (V − EK ) + Rm Ie .
dt
(2.11)
La conduttanza di adattamento del tasso di sparo gsra è stata schematizzata come
una conduttanza K + , cosiché, quando viene attivata, iperpolarizza il neurone, rallentando qualsiasi impulso che può sopraggiungere. EK è il potenziale di inversione
del potassio. Assumiamo che questa conduttanza si rilassi esponenzialmente a 0 con
una costante temporale τsra soddisfacendo l’equazione
τsra
dgsra
= −gsra .
dt
(2.12)
Ogniqualvolta un neurone genera un impulso, gsra è accresciuto di un fattore ∆gsra ,
cioè gsra → gsra + ∆gsra ; durante una sequenza di sparo ripetuta, la corrente si
costruisce attraverso una sequenza di passi causando l’adattamento del tasso di
sparo.
La probabilità che un neurone spari è significativamente ridotta nel breve lasso
temporale successivo alla generazione di un potenziale di azione; tale effetto refrattario non è incluso nel modello base integrate-and-fire. Il modo più semplice per
introdurre nel modello un periodo di refrattarietà assoluto è quello di aggiungere una
condizione alla regola base di superamento della soglia tale che proibisca lo sparo
per un periodo di tempo immediatamente successivo all’emissione dell’impulso. La
refrattarietà può essere incorporata in un modo più realistico aggiungendo una conduttanza simile a quella introdotta per l’adattamento del tasso di sparo; stavolta
la conduttanza dovrà avere un tempo di recupero più veloce ed un incremento più
grande in seguito ad un potenziale di azione. Grazie ad un consistente incremento, il
potenziale del neurone si avvicina, in valore, al potenziale di equilibrio del potassio
EK in seguito ad un potenziale di azione, prevenendo in maniera temporanea un
ulteriore sparo e producendo un periodo di refrattarietà assoluto. Nel momento in
cui questa conduttanza approssima il valore 0, lo sparo sarà possibile anche se inizialmente poco probabile, producendo un periodo di refrattarietà relativo. Quando
il recupero è completato, si ristabilisce la periodicità di sparo usuale.
2.3
Reti neurali
Una rete neurale è, formalmente, un grafo i cui nodi sono costituiti dai neuroni e
le cui connessioni sono costituite dalle sinapsi; ciascuna connessione è pesata con
la corrispondente efficienza sinaptica. Le sinapsi costituiscono cosı̀ un grafo con
connessioni specifiche e direzionate. Ciascun nodo è caratterizzato da un’equazione
di evoluzione in cui lo stato del neurone dipende dai neuroni spazialmente connessi,
ovvero dai neuroni presinaptici; i pesi sinaptici possono essere fissati ma possono
anche evolvere nel tempo (plasticità sinaptica), in accordo con la storia dei due
nodi connessi dalla sinapsi. Se consideriamo le reti neurali come sistemi dinamici,
possiamo dare una formulazione canonica della dinamica neuronale; ciascun neurone
i è caratterizzato dal suo stato, Xi , che appartiene ad un certo insieme compatto I ∈
RM . M è il numero di variabili che caratterizzano lo stato di un neurone; assumiamo
inoltre che tutti i neuroni siano descritti dallo stesso numero di variabili. Il LIF
corrisponde al caso in cui M = 1, Xi = Vi è il potenziale di membrana del neuroni
i e I = [Vmin ,Vmax ]. L’evoluzione di N neuroni è data cosı̀ da un sistema dinamico
deterministico del tipo:
dX
= Fγ (X,t),
dt
tempo continuo,
(2.13)
o,
X(t + 1) = Fγ [X(t),t],
tempo discreto.
(2.14)
La variabile X = {Xi }N
i=1 rappresenta lo stato dinamico di una rete con N neuroni
al tempo t; tipicamente X ∈ M = IN , dove M è lo spazio delle fasi dell’equazione
(2.14) ed Fγ (M) ⊂ M. La mappa Fγ : M → M dipende da un set di parametri
γ ∈ RP ; il caso tipicamente considerato in seguito sarà γ = (W,I(ext) ), dove W è
la matrice dei pesi sinaptici, mentre I(ext) rappresenta una corrente o uno stimolo
esterno. Cosı̀ γ è un punto nello spazio dei parametri di controllo P = N 2 + N
dimensionale.
Un neurone i emette un potenziale d’azione ogni qual volta il suo stato Xi appartiene ad una certa regione connessa P1 del suo spazio delle fasi, altrimenti è quiescente se X ∈ P0 = I\P1 . Per N neuroni identici questo porta ad una “partizione
naturale” P dello spazio delle fasi M. Chiamiamo Λ = {0,1}N , ω= [ωi ]N
i=1 ∈ Λ,
allora P = {Pω }ω∈Λ , dove Pω = Pω1 ×Pω2 × · · · × PωN . Equivalentemente, se X
∈ Pω , si ha che tutti i neuroni con ωi = 1 stanno sparando, mentre quelli con ωk = 0
sono quiescenti.
A ciascuna condizione iniziale X ∈ M possiamo associare un “raster plot” ω̃ = {ω
(t)}+∞
t=0 tale che X (t) ∈ Pω(t) , ∀t ≥ 0; cosı̀ ω̃ è la sequenza di configurazioni di sparo
mostrata dalla rete neurale quando viene preparata nella condizione iniziale X (vedi
figura 2.8). Conoscere il raster plot è dunque equivalente a conoscere la lista dei
tempi di sparo di tutti i neuroni. Ad esempio, se abbiamo a che fare con una rete
omogenea di N neuroni, dove la dinamica di ciascun neurone è periodica, possiamo
dedurre, dall’osservazione del raster plot, che la dinamica della rete è asincrona;
100
0.8
80
Indice di Neurone
1
0.6
vk
0.4
0.2
0
60
40
20
226
226.2
226.4
226.6
Tempo
226.8
227
227.2
0
1750
1800
1850
1900
1950
Tempo
Figura 2.8. (a) La figura mostra l’andamento del potenziale di membrana del kesimo neurone in funzione del tempo, in una rete omogenea di N neuroni. (b) Nella
seconda figura è riportato l’indice del neurone che spara in funzione del tempo.[26]
dunque, se indichiamo con T l’ISI di ciascun neurone, il tasso di sparo della rete è
costante e pari a T /N.
2.3.1
Rete di neuroni LIF globalmente accoppiati: il modello
La comprensione del meccanismo di elaborazione dell’informazione nel cervello può
essere perseguita analizzando le proprietà dinamiche dei modelli di reti neurali; pensare di avvicinarsi a questo problema nella sua assoluta generalità è un obiettivo
incredibilmente ambizioso, dal momento che occorre tenere in conto (i) del ruolo
della topologia delle connessioni, (ii) della dinamica delle stesse connessioni, al fine
di rappresentare la plasticità sinaptica, (iii) della dinamica interna a ciascun modello di neurone, che può dipendere dal numero di canali ionici ma anche da altre
variabili e parametri, (iv) dalla diversità tra i neuroni e le loro connessioni e, infine,
(v) dall’inevitabile presenza di rumore. Ad ogni modo possiamo congetturare che
almeno alcuni meccanismi di base siano robusti e possano dipendere solo da pochi
ingredienti; infatti anche i modelli semplici composti da unità identiche globalmente
accoppiate esibiscono proprietà dinamiche interessanti e, indubbiamente, non ovvie
e non totalmente comprese. Consideriamo ad esempio il cosidetto ”splay state”, che
costituisce un modo collettivo che emerge in reti di oscillatori non lineari completamente accoppiati (vedi figura 2.8); questo stato è caratterizzato dal fatto che tutte
le oscillazioni abbiano la stessa forma d’onda X e che le fasi di tali oscillatori si
dispongano sul cerchio unitario in modo equispaziato. Inoltre lo stato del singolo
oscillatore xk può essere descritto al tempo t da
xk (t) = X(t + kT /N) = A cos(ωt + 2πk/N);
ω = 2π/T ;
k = 1, · · · ,N
(2.15)
dove N è il numero di oscillatori del sistema, T il periodo dell’oscillazione collettiva,
X la forma d’onda comune ed A l’ampiezza dell’oscillazione. La stabilità degli
stati stazionari di questi sistemi è ancora un problema dibattuto. In particolare,
nel contesto delle reti neurali, ove lo “splay state” è caratterizzato da un tasso
di sparo costante dei neuroni, si possono trovare sia dimostrazioni del fatto che
lo “splay state” sia stabile solo in presenza di accoppiamenti eccitatori [28], sia
dimostrazioni del fatto che sia possibile trovare tale stato stabile in presenza di reti
con accoppiamento completamente inibitorio [25].
Il metodo usato di solito per determinare le proprietà di stabilità di tali semplici modelli è basato sull’approssimazione di campo medio; questo ci permette di
ottenere lo spettro degli autovalori associati alla matrice di stabilità nel limite termodinamico N → ∞, dove N denota il numero di neuroni. La stima della stabilità
lineare dello splay state costituisce il passo preliminare verso una completa comprensione delle proprietà dinamiche della rete neurale; per effettuare tale stima si
può introdurre la sezione di Poincaré, vedi (??), che trasforma il sistema dinamico
originale in una mappa che connette le configurazioni dinamiche della rete neurale
corrispondenti a momenti in cui si ha l’emissione di impulsi neurali consecutivi. La
mappa viene costruita tra gli impulsi consecutivi emessi da qualsivoglia neurone e
viene combinata con un opportuno riscalamento degli indici dei neuroni in modo da
ridurre la complessità computazionale del calcolo e da ottenere espressioni analitiche
per valori grandi ma finiti di N.
Consideriamo dunque una rete di N identici neuroni LIF; la dinamica dell’iesimo neurone è descritta da una singola variabile, il potenziale di membrana vi (t),
che obbedisce all’equazione differenziale
v̇i = a − vi + gE(t)
(2.16)
dove tutte le variabili e i parametri sono espressi in unità adimensionali opportunamente riscalate. In accordo con la precedente equazione, il potenziale di membrana
rilassa al valore a + gE(t), ma, non appena raggiunge il valore di soglia vi = 1,
viene riscalato a vi = 0 e viene inviato, simultaneamente, un impulso a tutti gli
altri neuroni (questa procedura di riassegnazione del valore del potenziale è un modo approssimato per descrivere il meccanismo di scarica presente nei neuroni reali).
Il parametro a > 1 corrisponde alla corrente di input soprasoglia, mentre g limita
la forza del campo E(t) agendo come accoppiamento efficace. Il campo E(t) è la
sovrapposizione lineare degli impulsi emessi ogniqualvolta il potenziale di membrana
di ciascun singolo neurone raggiunge il valore di soglia. Assumiamo che la forma di
un impulso emesso a t = 0 sia data da Es (t) =
α2 t −αt
e
N
, dove 1/α è l’ampiezza del-
l’impulso. Questo è equivalente ad affermare che il campo totale evolva in accordo
all’equazione
Ë(t) + 2αĖ(t) + α2 E(t) =
α2 X
δ(t − tn ) ,
N n|tn <t
(2.17)
dove la sommatoria nel membro a destra rappresenta il termine di sorgente dovuto
agli impulsi emessi a tempi tn < t. Quindi la dinamica della rete è data da N
equazioni (2.16) più la (2.17) che descrive l’evoluzione del campo.
2.3.2
Mappa guidata dall’evento
È conveniente trasformare le equazioni differenziali in una mappa a tempo discreto;
per fare questo occorre integrare l’equazione (2.17) tra il tempo tn e il tempo tn+1 ,
dove tn è il tempo immediatamente successivo all’emissione dell’n-simo impulso. La
mappa risultante è
E(n + 1) = E(n)e−ατ (n) + NQ(n)τ (n)e−ατ (n)
Q(n + 1) = Q(n)e−ατ (n) +
α2
,
N2
(2.18)
(2.19)
dove τ (n) = tn+1 − tn è l’intervallo temporale tra un impulso e il successivo e dove
abbiamo introdotto la nuova variabile Q := (αE + Ė)/N. L’ equazione (2.16) può
essere integrata anche esplicitando la dipendenza temporale nota del campo E
vi (n + 1) = vi (n)e−τ (n) + a 1 − e−τ (n) + gF (n)
i = 1, . . . ,N .
(2.20)
dove F è
NQ(n)
τ (n)e−ατ (n)
e−τ (n) − e−ατ (n)
E(n) +
−
NQ(n) .
F (n) =
α−1
α−1
(α − 1)
!
(2.21)
L’intervallo temporale tra un impulso e l’altro τ è ottenuto imponendo la condizione
vm (n + 1) = 1,
"
vm (n) − a
τ (n) = ln
1 − gF (n) − a
#
.
(2.22)
dove l’indice m identifica il neurone più vicino a soglia. Le equazioni (??, 2.19)
e (2.21) possono essere scritte in una forma più compatta esprimendo F (n) come
funzione di τ (n) per mezzo dell’equazione (2.22),
vi (n + 1) = vi (n)e−τ (n) + 1 − vm (n)e−τ (n)
j = 1, . . . ,N − 1 .
(2.23)
Dal momento che in una rete di neuroni indistinguibili viene preservato l’ordine dei
potenziali vi , è conveniente per prima cosa ordinarli e poi introdurre il sistema di
riferimento comovente, ovvero xj (n) = vj−n (n). In questo sistema di riferimento
l’indice del neurone più vicino a soglia è costante e può essere scelto sempre uguale
a 1, senza perdere di generalità; l’equazione di aggiornamento può dunque essere
scritta come
xj−1 (n + 1) = xj (n)e−τ (n) + 1 − x1 (n)e−τ (n)
j = 1, . . . ,N − 1 ,
(2.24)
con la condizione al contorno xN = 0 e dove,
"
x1 (n) − a
τ (n) = ln
1 − gF (n) − a
#
.
(2.25)
L’insieme di equazioni (2.18, 2.19, 2.24, 2.25, 2.21) definisce una mappa a tempo
discreto che è completamente equivalente all’insieme di equazioni differenziali di
partenza. Si ottiene cosı̀, che una rete di N neuroni identici può essere descritta per
mezzo di N + 1 equazioni, due delle quali tengono conto della dinamica di E(n),
mentre le rimanenti N − 1 equazioni descrivono l’evoluzione dei neuroni (un grado
di libertà è stato perso perso andiamo da uno sparo all’altro, ovvero xN non è più
una variabile dal momento che è stata posta, per definizione, sempre uguale a 0). Il
modello ha una dimensione finita, inoltre, in questo sistema di riferimento, lo splay
state periodico si riduce ad un punto fisso che soddisfa le seguenti condizioni:
τ (n) ≡
T
,
N
E(n) ≡ Ẽ ,
(2.26)
Q(n) ≡ Q̃ ,
x̃j−1 = x̃j e−T /N + 1 − x̃1 e−T /N ,
(2.27)
(2.28)
dove T è il tempo che intercorre tra due emissioni di impulso consecutive dello stesso
neurone. Attraverso un semplice calcolo si ottiene
−1
−1
α2 Q̃ = 2 1 − e−αT /N
, Ẽ = T Q̃ eαT /N − 1
.
N
La soluzione dell’equazione (2.28) coinvolge una serie geometrica, la quale, insieme
alla condizione di bordo x̃N = 0, porta ad un’equazione trascendentale per il periodo
T ; senza dar luogo a sorprese, il risultato è indipendente dall’ampiezza dell’impulso
α. Per semplicità riportiamo solo i termini all’ordine O(1/N) nel limite N ≫ 1,
aT + g 1 − e−j T /N ,
"T
#
aT + g
T = ln
.
(a − 1)T + g
x̃N −j =
(2.29)
(2.30)
Se supponiamo di aver a che fare con neuroni disaccoppiati in regime di sparo ripetitivo, cioè se prendiamo a > 1, il periodo T è ben definito nel caso eccitatorio (g > 0)
solo per g < 1 (T → 0 quando g si avvicina ad 1), mentre nel caso inibitorio (g < 0),
esiste una soluzione significativa per qualsiasi valore dell’accoppiamento (T → ∞
per g → −∞).
2.3.3
Stabilità lineare
Al fine di effettuare l’analisi di stabilità dello splay state, è necessario linearizzare le
equazioni (2.18, 2.19, 2.24) attorno al punto fisso (2.26, 2.27, 2.28),
δE(n + 1) = e−αT /N δE(n) + T e−αT /N δQ(n)
−
αẼ − N Q̃e−αT /N δτ (n) ,
δQ(n + 1) = e−αT /N δQ(n) − αQ̃e−αT /N δτ (n) ,
δxj−1 (n + 1) = e−T /N [δxj (n) − δx1 (n)] + e−T /N (x̃1 − x̃j )δτ (n) ,
(2.31)
(2.32)
(2.33)
dove abbiamo introdotto δτ (n), la cui espressione può essere ottenuta linearizzando
le equazioni (2.25,2.21)
δτ (n) = τx δx1 (n) + τE δE(n) + τQ δQ(n) ;
(2.34)
dove τx := ∂τ /∂x1 e dove sono state adottate definizioni analoghe per τE e τQ .
La condizione al contorno xN ≡ 0 imposta dal sistema di riferimento comovente
dà δxN = 0. In pratica, il problema di stabilità è risolto calcolando lo spettro di
1.0
Im{µk}
0.5
0.0
-0.5
-1.0
-1.0
-0.5
0.0
Re{µκ}
0.5
1.0
Figura 2.9. Cerchio unitario e moltiplicatori esatti dello spettro di Floquet per la
mappa completa per N = 20 (cerchi rossi) e N = 10 (cerchi blue) per accoppiamento eccitatorio. I parametri sono a = 3.0, g = 0.4, e α = 30.0.[26]
Floquet dei moltiplicatori {µk }, k = 1, · · · ,N + 1, associati con il problema agli autovalori dell’insieme di equazioni lineari (2.31,2.32,2.33); tale calcolo deve essere, in
generale, effettuato, numericamente. Discutiamo innanzitutto il caso banale g = 0;
in questo caso si trova che µk = exp(iϕk ), dove ϕk =
2πk
,
N
k = 1, · · · ,N − 1, e
µN = µN +1 = exp(−αT /N). Gli ultimi due esponenti interessano la dinamica del
campo di accoppiamento E(t), il cui decadimento è regolato dalla scala temporale α−1 . Non appena l’accoppiamento è acceso, piccole fluttuazioni di ampiezza
∼ O(g/N) influenzano la dinamica dei neuroni e i moltiplicatori dello spettro di
Floquet assumono la forma
µk = eiϕk eT (λk +iωk )/N , ϕk =
2πk
, k = 1, . . . ,N − 1 ,
N
(2.35)
µN = eT (λN +iωN )/N , µN +1 = eT (λN+1 +iωN+1 )/N ,
dove λk e ωk sono la parte reale e immaginaria degli esponenti di Floquet.
In figura (2.9) mostriamo i moltiplicatori dello spettro di Floquet dello splay
state nel caso di accoppiamento eccitatorio e valori di N finiti. I moltiplicatori con
k = 1, · · · ,N − 1 sono molto vicini al cerchio unitario, mentre i due moltiplicatori
isolati µN e µN +1 giacciono molto vicini all’asse reale all’interno del cerchio unitario.
Dal momento che, già per g/N ≈ O(10−2 ), i moltiplicatori del caso accoppiato
possono essere visti come una “perturbazione” piccola del caso non accoppiato (cioè
con g = 0), possiamo cercare di dar vita ad un approccio perturbativo. Prima
di effettuare questo tipo di analisi occorre sottolineare che la variabile ϕk gioca lo
stesso ruolo giocato dal numero d’onda nell’analisi di stabilità lineare di sistemi
spazialmente estesi, cosı̀ che possiamo dire che λk caratterizza la stabilità del kesimo modo. Nell’analisi che segue è conveniente distinguere tra i modi caratterizzati
da ϕk ≈ 0, mod(2π) +O(1/N) e tutti gli altri modi. Si identificano dunque due
componenti spettrali che richiedono di essere trattate in modo matematicamente
diverso: la prima componente corrisponde alla condizione kµk − 1k ∼ N −1 ed è
identificata con la dicitura “lunghezze d’onda grandi” (in inglese long wavelenghts
o LWs); la seconda componente corrisponde a kµk − 1k ∼ O(1) ed è identificata con
“lunghezze d’onda brevi” (in inglese short wavelenghts o SWs).
2.4
Impulso di durata finita
Analizziamo adesso il problema di stabilità dello splay state per reti soggette ad
impulsi con α finito (cioè indipendente dalla dimensione del sistema) per grandi
valori di N. Considerando i termini all’ordine 1/N, la mappa ad evento guidato
(vedi equazioni (2.18, 2.19, 2.24) ) si semplifica nel seguente insieme di N + 1
equazioni:
E(n + 1) = (1 − ατ )E(n) + NQ(n)τ ,
Q(n + 1) = (1 − ατ )Q(n) +
α2
,
N2
xj−1 (n + 1) = (1 − τ )xj (n) + 1 − x1 (n) + τ ,
(2.36)
(2.37)
(2.38)
dove j = 1, . . . ,N −1 mentre τ x1 è stato approssimato con τ poiché 1−x1 ≈ O(1/N).
L’espressione per l’intervallo di intersparo (2.25) si semplifica cosı̀ in
τ (n) =
1 − x1 (n)
.
a − 1 + gE(n)
(2.39)
La soluzione periodica per il campo che tiene conto di tutti gli impulsi diventa
Ẽ = T −1 e Q̃ = α/NT , mentre x̃j e il periodo T sono ancora dati dall’equazioni
(2.29, 2.30). Lo spettro degli autovalori di Floquet µk , k = 1, · · · ,N + 1 può essere
ottenuto linearizzando le equazioni (2.36, 2.37, 2.38) nell’intorno di questa soluzione
periodica e assumendo che ciascuna perturbazione cresca come µnk
µk δE = (1 − αT /N)δE + T δQ ,
µk δQ = (1 − αT /N)δQ −
(2.40)
α2
δτ ,
NT
(2.41)
µk δxj−1 = (1 − T /N)δxj − δx1 + (1 − x̃j )δτ ,
(2.42)
Un’espressione esplicita per δτ si può ottenere valutando la derivata dell’equazione
(2.39)
δτ = −
T2
T
δE − δx1 .
N
g
Sostituendo quanto trovato nelle equazioni (2.40,2.41,2.42), vediamo che il problema
agli autovalori consiste nel trovare le N + 1 radici µk del polinomio associato; una
semplificazione parziale del problema può essere ottenuta estraendo dalle equazioni
(2.41) e (2.42) la dipendenza di δτ dalla perturbazione del potenziale del neurone
più vicino a soglia δx1
δτ = Kδx1
(2.43)
dove
α2 gT
K = −(a − 1 + g/T ) + 2
N (µk − 1 + αT /N)2
"
#−1
.
(2.44)
Infine, sostituendo questa espressione nell’equazione (2.40), otteniamo un insieme
chiuso di equazioni per le perturbazioni del potenziale di membrana,
µk δxj−1 = (1 − T /N)δxj + (K − 1)δx1 − K x̃j δx1 .
(2.45)
Dopo aver imposto la condizione di bordo δxN = 0, l’equazione (2.45) si riduce alla
seguente equazione agli autovalori:
µkN −1 eT
1 − µkN −1
1 − µkN −1 eT
= K(a + g/T )
− [K(a − 1 + g/T ) + 1]
,
1 − µk
1 − µk eT /N
(2.46)
dove K è una funzione di µk . Al fine di risolvere questa equazione analiticamente è
necessario effettuare la distinzione tra lunghezze d’onda grandi e piccole.
2.4.1
Lunghezze d’onda grandi
Consideriamo i modi per cui kµk −1k ∼ N −1 (o, equivalentemente, ϕk ≈ 0, mod(2π)
+O(1/N)). Al fine di semplificare la notazione definiamo
Λk :=
N
ln µk .
T
All’ordine principale, K vale
α2 g
K = −(a − 1 + g/T ) +
T (Λk + α)2
"
#−1
.
Sostituendo questa espressione nell’equazione agli autovalori (2.46) e rimuovendo i
termini in 1/N, si ottiene
aT + g 2
T
−Λk T
−Λk T
, ||Λk || =
6 0.
(Λ
+
α)
(Λ
+
1)
=
Λ
e
−
e
1
−
e
k
k
k
α2 g
(2.47)
Questa equazione coincide con quella derivata attraverso l’analisi di campo medio
[28], eccetto per il fattore ||Λk || = 0, che corrisponde all’esponente di Floquet zero
dell’evoluzione temporale continua (2.16) e scompare nella dinamica a tempo discreto. Occorre sottolineare ancora che, nonostante l’equazione (2.47) abbia N +1 radici,
questa dà un’opportuna approssimazione solo per quelli autovalori che soddisfano la
relazione ||µk − 1|| ∼ N −1 .
2.4.2
Lunghezze d’onda piccole
La seconda componente dello spettro (2.35) è ottenuta per ||µk − 1|| ∼ O(1). In
questo caso K ha la semplice forma
K = −(a − 1 + g/T )−1 .
Introducendo nell’equazione (2.46) la forma esplicita della soluzione periodica (2.30),
si ottiene una notevole semplificazione per lo spettro, ovvero
−T
µN
k = e
a + g/T
=1,
a − 1 + g/T
(2.48)
i.e., questo coincide con uno spettro di Floquet completamente degenere,
ω k ≡ 0 , λk ≡ 0
(2.49)
Notiamo che questa approssimazione vale solo per quelli autovalori per cui ||µk −1|| ∼
O(1), ovvero vale per la maggior parte dello spettro, eccetto quelli autovalori che
giacciono vicino al punto (1,0), dove il cerchio unitario intercetta l’asse reale (vedi
fig. 2.9).
Per quanto riguarda gli autovalori isolati µN e µN +1 , si può facilmente intuire
che questi possano essere sempre contenuti all’interno del cerchio unitario, vicino
all’asse reale, per N finiti e ampiezze dell’impulso finite, e che si avvicinino al punto
(1,0) da sinistra nel limite N → ∞; dunque questi possono al più contribuire alla
stabilità marginale della dinamica.
2.4.3
Diagramma di fase e correzioni di taglia finita
In accordo con i precedenti risultati possiamo dire che, nel limite N → ∞, il manifestarsi dell’instabilità è determinato dagli esponenti di Floquet associati con le LW;
inoltre si ottiene che lo splay state è sempre instabile per accoppiamento inibitorio
α
200
150
INSTABILE
100
50
STABILE
0
0
0.2
0.4
g
0.6
0.8
1
Figura 2.10. Diagramma di fase per la stabilità dello splay state in una rete
neurale con accoppiamento eccitatorio che agisce attraverso un impulso di durata
finita. La linea continua che separa la regione stabile da quella instabile nel piano
(g,α) è stata ricavata dalla formula analitica dello spettro di Floquet (2.47) con
a = 1.3 . Occorre sottolineare che, in questo contesto, stabile si riferisce ad N finiti,
dal momento che per sistemi infiniti la stabilità diventerà marginale.[26]
(g < 0). Nel caso di accoppiamento eccitatorio l’analisi di campo medio predice
stabilità per lo splay state per α ≤ αc (g,a), dove αc (g,a) è la linea critica che separa
la regione stabile da quella instabile (vedi figura 2.10). Questa linea corrisponde
ad una biforcazione di Hopf che dà vita ad un nuovo comportamento periodico collettivo chiamato sincronizzazione parziale . Inoltre si ha che αc diverge a +∞ per
g → 1 ( per g > 1 non può essere sostenuto un regime stazionario dal momento che
l’evoluzione accelera in maniera uniforme ). Nel limite opposto di accoppiamento
che si annulla (g → 0), la biforcazione sopravvive; dall’equazione (2.47) si può vedere
inoltre che la frequenza ωc della soluzione di biforcazione converge a ωc = 2π/T e
αc = −1 +
q
1 + ωc2.
Includendo il ruolo delle SW possiamo concludere che, nel limite N → ∞, lo
stato stazionario può essere al più marginalmente stabile per α ≤ αc (g,a). La degenerazione perfetta dell’esponente zero di Floquet associata con le lunghezze d’onda
brevi toglie i dubbi sulle proprietà di stabilità efficaci di reti grandi ma finite, dal momento che tali modi sono marginalmente stabili. Risolvendo inoltre numericamente
le equazioni agli autovalori (2.31,2.32,2.33) al variare delle dimensioni del sistema
10
-2
|λk|
10
λk
(a)
0
(b)
-0.001
-3
-0.002
10
10
-4
-0.003
-0.004
-5
-0.005
10
-6
10
0
10
1
10
2
k
10
3
-600 -400 -200
0
ϕkN
200
400
600
Figura 2.11. (a) Grafico log-log dei valori assoluti degli esponenti di Floquet λk ,
ordinati dal più grande al più piccolo come funzione dell’indice k = 1,...,N per
N = 100,200,400. La linea tratteggiata ha una pendenza di -2. (b) Esponente
di Floquet come funzione della fase riscalata ϕN , per N = 100 (cerchi neri) and
N = 200 (cerchi rossi). In entrambe le figure i valori dei parametri sono a = 3.0,
g = 0.4, e α = 30.0.[26]
e al variare di g e α si ottiene che lo splay state è strettamente stabile in reticoli
finiti e che l’esponente di Floquet massimo tende a zero da sotto con un andamento
del tipo 1/N 2 (vedi figura 2.11). Questo implica che una teoria delle perturbazioni
fatta fino all’ordine 1/N non può tener conto delle instabilità del modello originale.
Questo è confermato dalla figura 2.12 dove gli spettri di Floquet ottenuti da approssimazioni al primo e al secondo ordine danno luogo ad uno splay state instabile,
anche se la soluzione numerica del problema di stabilità indica che il modello ad N
finito è stabile.
Riassumendo, la stabilità dello splay state può essere indagata riducendo un
modello di equazioni differenziali globalmente accoppiate a delle opportune mappe
guidate dall’evento, che mettono in relazione le configurazioni interne della rete corrispondenti a due emissioni consecutive del potenziale di azione. L’analisi analitica
dello Jacobiano nel limite di grandi N rivela che lo spettro degli autovalori è costituito da due componenti: (i) modi propri di grandi lunghezze d’onda; (ii) modi propri
di brevi lunghezze d’onda. Un approccio di campo medio è capace di riprodurre la
parte dello spettro associata ai modi di grandi lunghezze d’onda col rischio di non
catturare l’instabilità che si manifesta a lunghezze d’onda piccole.
8×10
-4
λk
4×10
-4
0
-4×10
-4
-4
-8×10 -π
-π/2
0
π/2
ϕk
π
Figura 2.12. Esponenti di Floquet λk (ϕ) come funzione della fase ϕk per impulsi
di durata finita α = 30.0 e numero di neuroni finito N = 500 nel caso di accoppiamento eccitatorio g = 0.4. Le cerchi pieni rappresentano il risultato esatto per
N finito, mentre i quadrati rossi quadrati e i triangoli blue vuoti si riferiscono a
risultati approssimati corretti rispettivamente fino al primo e al secondo ordine in
1/N . Il parametro qui è a = 3.[26]
2.4.4
Altri stati collettivi della rete
Discutiamo brevemente adesso della soluzione collettiva che nasce al di sopra della
linea αc (g,a) (vedi figura 2.10), detta sincronizzazione parziale. In questo regime il
campo medio esibisce una dinamica periodica che si manifesta in assenza di qualsiasi
sincronizzazione tra i singoli neuroni, i quali si comportano in modo quasi periodico.
La sincronizzazione parziale deriva dalla destabilizzazione del regime splay state,
che è invece caratterizzato da un campo medio costante e da un comportamento
periodico dei singoli neuroni, le cui fasi sono equispaziate.
In una rete di neuroni LIF, in cui l’accoppiamento è modellizzato da una funzione
α, come in (2.17), troviamo che, per accoppiamento eccitatorio, le reti evolvono verso uno stato asincrono (splay state) se le costanti di accoppiamento temporale sono
sufficientemente basse (piccoli α). Quando α aumenta, la rete inizia a sincronizzarsi; per costanti di tempo finite la rete non raggiunge sincronia completa anche
se è costituita da oscillatori identici e il sistema è completamente privo di rumore.
Solo nel limite di α → ∞ e di durata dell’impulso che tende a zero, lo stato diventa
completamente sincronizzato. Dunque se attraversiamo il diagramma di fase nel
piano (g,α) mantenendo g = costante, passiamo, al crescere di α dallo splay state
alla sincronizzazione parziale e solo nel limite α → ∞ otteniamo una sicronizzazione
completa. Se la rete è composta da più di due unità, i neuroni sparano quasi periodicamente nello stato parzialmente sincronizzato; in sistemi di grandi dimensioni
il tasso di sparo medio della rete in questo stato parzialmente sincronizzato varia
periodicamente, anche se le singole unità sono quasiperiodiche.
Con accoppiamento inibitorio la rete sincronizza completamente per α piccoli;
per α grandi la rete si rompe in due o più cluster completamente sincronizzati. Il numero medio di cluster che si forma cresce al crescere di α, sebbene il numero esatto di
cluster formati dipenda dalle condizioni iniziali. Per una rete con un numero grande
ma finito di oscillatori il numero di cluster formati tenderà ad essere pari al numero
di neuroni, dunque, lo stato finale sarà indistinguibile dallo splay state. Cosı̀ con
accoppiamento inibitorio, il sistema passa da uno stato completamente sincronizzato per piccoli α, ad uno stato sostanzialmente asincrono per grandi α, attraverso
la formazione di un numero crescente di cluster completamente sincronizzati; nel
limite α → ∞ si ritrova lo splay state. La transizione da un sistema sincrono ad
uno asincrono è accompagnata dall’allargamento di un cluster piuttosto che dalla
rottura in più cluster.
In figura (2.13) mostriamo alcuni risultati di simulazioni numeriche effettuate
nel regime di sincronizzazione parziale. Analizziamo in particolare la figura (b).
Se indichiamo con tn [i] il tempo a cui l’i-esimo neurone emette un impulso, e con
T (tn [i]) l’ultimo ISI dello stesso neurone, possiamo ricostriure tutti i tempi di sparo
passati iterando semplicemente la formula ricorsiva
tn−1 [i] = tn [i] − T (tn [i]).
(2.50)
Geometricamente, implementare questa formula corrisponde ad eseguire la seguente
procedura (fig. 2.13(b)): dato il punto (tn ,T (tn )) ci muoviamo verso il basso lungo
la retta di pendenza 1 fino a raggiungere l’asse t al tempo tn−1 ; a questo punto ci
spostiamo verticalmente, verso l’alto, fino ad incontrare la curva T . Considerando
che T (t) è una funzione periodica definita positiva, l’equazione (2.50) non è nient’altro che l’equazione di evoluzione di un oscillatore periodico forzato; ci aspettiamo
dunque l’insorgere di fenomeni di bloccaggio ( in inglese locking ). D’altra parte le
simulazioni numeriche non presentano alcun fenomeno di bloccaggio, anche quando
il rapporto tra le frequenze caratteristiche del termine forzante e del campo forzato
è razionale. Questa caratteristica rimane inspiegata.
In figura (2.13(c)) è riportato l’andamento del “flusso istantaneo” in funzione del
tempo; tale flusso è definito da
π(t) =
1/N
,
tm+1 − tm
(2.51)
dove (tm+1 −tm ) ≈ (1/N) è l’intervallo tra due spari consecutivi della rete; il membro
a sinistra di questa equazione non presenta il pedice m, perché nel limite N → ∞
la variabile temporale diventa nuovamente continua.
Un’altra peculiarità dello stato di sincronizzazione parziale è il fatto che gli ISI
dei singoli neuroni differiscano dal periodo della dinamica macroscopica; in altre
parole i tempi tra un’emissione e la successiva di un impulso, da parte del singolo
neurone, sono sempre più piccoli del periodo di oscillazione del campo forzante.
Possiamo spiegare il fenomeno, in maniera qualitativa, osservando che, da un lato,
i neuroni tendono a raggrupparsi, dall’altro, i neuroni che si trovano sul fronte del
raggruppamento tendono a scappare, mentre quelli che raggiungono il gruppo dalle
retrovie vi si uniscono. Questo giustifica anche il nome di “sincronizzazione parziale”
attribuito a questo fenomeno.
Infine, dalle analisi numeriche svolte sul modello originale soggetto a rumore
additivo, uniformemente distribuito e a media nulla, vediamo (figura 2.13(a)) che il
comportamento collettivo persiste, nonostante sia depresso dall’azione del rumore.
Il campo E ha un’ampiezza più piccola in presenza del rumore, mentre la larghezza
della curva sembra descrescere all’aumentare del numero di oscillatori presenti nella
√
rete con un andamento del tipo 1/ N .
Figura 2.13. (a) Rappresentazione nel piano delle fasi (E,Ė); i punti corrispondono a simulazioni effettuate in presenza di rumore additivo uniformemente distribuito. (b) Evoluzione, in funzione del tempo, dell’intervallo temporale tra uno
sparo e l’altro del singolo neurone (T ). In figura è rappresentato anche un metodo
per ricostruire il tempo di sparo del singolo neurone. (c) Evoluzione temporale del
flusso istantaneo π.[22]
2.5
Desincronizzazione in reti neurali diluite
In questa sezione vogliamo analizzare l’effetto della diluizione delle connessioni fra i
neuroni sulla dinamica di una rete neurale con accoppiamenti solo inibitori. Per rete
diluita si intende una rete neurale in cui siano stati recisi dei legami fra neuroni anche
in modo asimmetrico. Per comprendere il ruolo della diluizione, ricordiamo innanzitutto i risultati noti per reti di neuroni LIF globalmente accoppiati. In quest’ambito
sono di notevole importanza i risultati rigorosi pubblicati da Jin in Ref. [30] per una
rete non omogenea di neuroni LIF globalmente accoppiati, le cui connessioni sono
3
2.5
2
E 1.5
1
0.5
0
Figura 2.14.
354
356
358
Tempo
360
362
364
Andamento del campo E in funzione del tempo nel regime di sincronizzazione parziale e in assenza di rumore additivo.
dominate da inibizione globale. In questo caso sia il numero dei neuroni, sia la distribuzione delle correnti esterne che le ampiezze delle connettività sono arbitrarie;
ogni neurone inoltre può avere una diversa soglia di sparo, un diverso potenziale
di riposo della membrana e un diverso valore a cui riassegnare il potenziale dopo
l’emissione di un impulso. Ciononostante Jin ha dimostrato che, in questo sistema,
la sequenza di impulsi converge a configurazioni periodiche stabili da quasi tutti gli
stati iniziali. Ha dimostrato inoltre che il tempo necessario a tale convergenza (detto
transiente) è finito ed al massimo diverge come una potenza del numero di neuroni
nella rete; il transiente si abbrevia al crescere dell’inibizione globale. Si potrebbe
osservare una divergenza del transiente solo nell’eventualità che due neuroni raggiungessero contemporaneamente la soglia, ma tale situazione si ottiene solo in un
insieme ristretto di stati iniziali dei neuroni che si restringe sempre di più al crescere
del livello di inibizione.
A partire dal modello di rete neurale con accoppiamento inibitorio, descritto in
[30], introduciamo la diluizione e mostriamo che nella versione diluita di tale modello
sono osservati tipicamente dei transienti esponenzialmente lunghi, in presenza di un
accoppiamento sufficientemente grande, anche se l’esponente di Lyapunov1 massimo
1
La caratterizzazione della dinamica in termini di esponenti di Lyapunov verraà discussa in
del sistema rimane negativo. In altri termini, per piccoli valori della costante di
accoppiamento la dinamica converge, dopo un breve transiente, verso lo splay state
e l’unico effetto dovuto alla soppressione di una piccola percentuale di legami tra
i neuroni è la presenza di inomogeneità nelle mutue interazioni che porta a piccole
difformità negli intervalli tra un’emissione e l’altra dell’impulso. D’altra parte, per
valori dell’accoppiamento sufficientemente grandi, sono osservati dei transienti di
tipo stocastico, la cui durata è esponenzialmente lunga con la dimensione della
rete. Dal momento che vari indicatori mostrano che questo regime è stazionario,
è logico aspettarsi che, nel limite di reti infinitamente grandi, questo transiente
rappresenti una fase termodinamica perfettamente legittima. Dal momento che il
comportamento pseudocaotico è sostenuto dalle discontinuità nella regola con cui
viene effettuata una mappatura [27], è naturale aspettarsi che questo valga anche
nel caso presente; osserviamo infatti che in presenza di disordine, dove i neuroni
non sono più l’uno equivalente all’altro, si verificano cambiamenti nell’ordine di
sparo che accompagnano le discontinuità nella regola di evoluzione della mappa. La
transizione si manifesta dunque come un fenomeno di desincronizzazione collettivo;
tale fenomeno è analizzabile solo attraverso simulazioni numeriche, dal momento che
l’analisi di stabilità lineare non permette di identificare la soglia oltre la quale si ha
la transizione poiché tutte le traiettorie sono asintoticamente stabili in entrambi i
regimi. Riportiamo di seguito i principali risultati conseguiti da Zillmer et al. [25]
grazie all’analisi numerica.
In una rete di N neuroni LIF, lo stato dell’i-esimo neurone è completamente
determinato dal potenziale di membrana Vi (t̃) ed obbedisce all’equazione
τ V̇i = C − Vi − τ (Vi + W )
N X
X
j=1 m
(m)
gij δ(t̃ − t̃j ) ,
(2.52)
dove τ è la costante di tempo di membrana, C è la corrente in ingresso sopra soglia
dettaglio nel capitolo successivo.
(che si riferisce ad una resistenza di membrana unitaria) e W è il potenziale di
inversione. Ogniqualvolta il potenziale Vj (t̃) raggiunge il valore di soglia Θ, viene
riassegnato al valore R < Θ e viene emesso un impulso; tale impulso è ricevuto
(m)
istantaneamente da tutti i neuroni connessi a quello che ha sparato, al tempo t̃j
(m identifica l’evento di sparo del j-esimo neurone). La ricezione dell’impulso da
parte dell’i-esimo neurone provoca un abbassamento del potenziale di membrana di
tale neurone, in accordo con la trasformazione
Vi′ + W = (Vi + W ) exp(−gij ).
(2.53)
L’ultimo ingrediente che definisce la dinamica del sistema è la matrice di connettività
gij . La forza di accoppiamento è riscalata con la connettività del neurone che riceve
l’impulso, per cui
gij =









G/ℓi , se i e j sono connessi,
0,
(2.54)
altrimenti,
dove G è la costante di accoppiamento e li il numero di connessioni in ingresso al
neurone i. In altre parole, consideriamo il tipo più semplice di disordine, determinato dalla presenza, o dall’assenza, dei legami tra i neuroni (le autointerazioni sono
escluse). La frazione rm di legami mancanti è determinata fissando deterministicamente il numero totale Nm di legami recisi [Nm = rm N(N −1)]; scegliendo di tagliare
il 5% dei legami si ha rm = 0.05 (caso di debole disordine). A differenza del modello
analizzato in Ref. [30], dove sono distribuite in maniera casuale sia le costanti di
accoppiamento gij , che le correnti di soglia Cij , qui l’unica sorgente di disordine è la
presenza (assenza) di connessioni inibitorie. L’altra importante differenza riguarda
la costante di accoppiamento: mentre in [30] non è ipotizzata nessuna dipendenza
dalla dimensione del sistema, in questo caso è assunta una dipendenza inversamente
proporzionale dal numero di connessioni entranti.
-3.8
N=100
N=200
N=300
Λ
-4
-4.2
-4.4
0
0.1
0.05
rc
0.15
0.2
Figura 2.15. Esponente di Lyapunov massimo in funzione della frazione di legami
recisi e per tre valori diversi della dimensione della rete.[25]
10
5
10
10
10
<Tr>i,d , <Tp>i,d
<Tr>i,d
N=100
N=200
4
10
3
10
1
g
1.5
Transiente
Periodo
Transiente
Periodo
6
10
g=2.5
5
4
10
10
0.5
7
g=1.8
3
2
40
60
80
100
120
140
N
Figura 2.16. (a) Lunghezza media del transiente < ttr > in funzione della costante
di accoppiamento G per due dimensioni diverse della rete. (b) Lunghezza media del
transiente < ttr > (linea continua) e corrispondente periodo < T > dell’attrattore
periodico (linea tratteggiata) in funzione della dimensione della rete. In ascissa la
scala usata è logaritmica. [25]
Ci aspettiamo che il debole disordine introdotto dalla diluizione riduca la forza
della costante di accoppiamento tra i neuroni e faccia aumentare il valore dell’esponente di Lyapunov massimo Λ, rispetto al caso di neuroni completamente accoppiati. Analizzando la figura (2.15) vediamo che l’esponente di Lyapunov massimo
cresce al crescere della frazione di legami tagliati, ma rimane negativo almeno fino
a rm = 0.2. Inoltre le simulazioni numeriche indicano che Λ rimane finito nel limite
termodinamico N → ∞.
Dunque, prima o poi, la dinamica deve convergere verso un’orbita periodica
stabile.
La durata del transiente ttr è definita come il tempo più piccolo necessario affinché
la presente configurazione del potenziale di membrana sia ε vicina ad uno stato
precedente,
ttr =
min t max |vi (t + T ) − vi (t)|
i
<ε ,
dove vi = (Vi − R)/(Θ − R), 1 ≤ i ≤ N e 1 ≤ T ≤ t − 1. Con questa procedura
determiniamo non solo la lunghezza del transiente, ma anche la periodicità T della
soluzione asintotica. Calcoliamo a questo punto la lunghezza media del transiente
< ttr >: la media è effettuata sia su differenti realizzazioni della rete sia su differenti condizioni iniziali dei potenziali di membrana. In figura (2.16a) è riportato
l’andamento della lunghezza media del transiente in funzione di G, per due reti di
dimensione diversa (N = 100,200). Per G ≤ 1, < ttr > decresce leggermente all’aumentare della forza di accoppiamento; aumentando la forza di accoppiamento si
verifica un’improvvisa crescita di < ttr >. Inoltre il tasso di crescita è significativamente più rilevante quando la dimensione della rete viene raddoppiata. Questi dati
suggeriscono dunque l’esistenza di due fasi distinte, che corrispondono approssimativamente a G minore o maggiore di 1. Vediamo adesso come la lunghezza media del
transiente < ttr > e il periodo medio dello stato finale < T > scalano con N (figura
2.16b): per G = 0.5 la lunghezza del transiente cresce linearmente con N, mentre
il periodo medio dell’attrattore asintotico rimane pressoché costante; per G = 1.8
e per G = 2.5 il transiente cresce in modo esponenzialmente veloce. Inoltre per
G = 2.5 anche il periodo cresce esponenzialmente e ciò può essere considerato come
un’indicazione preliminare del fatto che ci possa essere un’ulteriore transizione per
valori della forza di accoppiamento maggiori. Ad ogni modo, focalizziamo la nostra attenzione sui cambiamenti qualitativi che avvengono a G ≈ 1 dove comincia a
crescere esponenzialmente solo il transiente.
50
Indice di Neurone
40
30
20
10
0
10250
10300
10350
10400
10450
Tempo
250
50
200
40
Indice di Neurone
Indice di Neurone
Figura 2.17. Configurazione di sparo (indice del neurone che spara vs tempo) di
un tipico attrattore periodico per G = 2, N = 50 nella LP.[25]
150
30
100
20
50
0
10
140
150
Tempo
160
170
0
17350
17400
17450
17500
17550
17600
Tempo
Figura 2.18. (a) Configurazione di sparo per G = 2, N = 50 nella UP. (b) Configurazione di sparo associata ad un attrattore periodico nella UP per G = 20,
N = 50. Il periodo è indicato dalle linee verticali.[25]
Per G <≃ 1, l’evoluzione dinamica del sistema è simile a quella del caso completamente accoppiato. Dopo un transiente di breve durata, il sistema converge ad
uno stato caratterizzato da una sequenza di N spari ( emessi da N neuroni ), che
si ripetono periodicamente (vedi figura 2.17). Tutti i neuroni sparano con lo stesso
ritmo, ma le loro fasi sono equispaziate; in altri termini la soluzione asintotica è
uno stato sincronizzato (in inglese locked phase o LP). La differenza sostanziale con
il caso completamente accoppiato sta nel fatto che le sequenze di impulsi differenti
non sono equivalenti l’una all’altra. Nel limite di neuroni identicamente accoppiati
la dinamica è invariante sotto qualsiasi permutazione, cosa che non è più vera nel
momento in cui si introducono delle eterogeneità nella connettività della rete. Ne
deriva cosı̀ che, per rm >≃ 0 esiste un numero esponenzialmente grande di attrattori periodici. Più precisamente, il numero totale di attrattori è dell’ordine di
N!/(
QM
d=1
Nd !), dove Nd è il numero di neuroni connessi agli stessi neuroni (sia in
entrata che in uscita) nella rete ed M è il numero di queste classi di equivalenza
presenti in una data realizzazione della rete.
Per valori della costante di accoppiamento più grandi, si manifesta un regime
dinamico irregolare (detto unlocked phase o UP), dove il mutuo ordinamento cambia
durante l’intero transiente, come si può vedere in figura 2.18, dove compare un lento
ma sistematico aggiustamento delle configurazioni.
Riassumendo, la dinamica di transiente ossevata per G ≈> 1: (i) è caratterizzata
da un esponente di Lyapunov negativo; (ii) è effettivamente stazionaria; (iii) ha
durate temporali esponenzialmente lunghe. Queste sono le caratteristiche distintive
del ”caos stabile”, associato alla presenza di discontinuità nello spazio delle fasi.
Nel presente caso la discontinuità è dovuta alla presenza di legami unidirezionali tra
neuroni: nel caso in cui uno dei due legami sia tagliato, uno solo dei due inibisce
l’altro e non si ha più una mutua inibizione. La presenza di discontinuità nello
spazio delle fasi è una condizione per l’instaurarsi di dinamica caotica stabile, ma
il fatto che non si manifestino transienti anomali per piccoli valori della forza di
accoppiamento indica che la condizione è necessaria ma non sufficiente.
Bibliografia
[1] C. Koch, Biophysics of computation, Oxford University Press, New York
(1999).
[2] H.C Tuckwell, Introduction to theoretical neurobiology - Vol. n. 2, Cambridge University Press, New York (1988).
[3] F. Rieke, D. Warland, Rob de Ruyter van Steveninck e W. Bialek, Spikes: exploring the neural code, Massachusetts Institute of Technology: Cambridge,
Massachusetts (1996).
[4] A.L. Hodgkin, A.F. Huxley e B. Katz, Measurement of current-voltage
relations in the membrane of the giant axon of Loligo, J. Physiol. 116,
424-448 (1952).
[5] A.L. Hodgkin e A.F. Huxley, Currents carried by sodium and potassium
ion throught the membrane of the giant axon of Loligo, J. Physiol. 116,
449-472 (1952).
[6] A.L. Hodgkin e A.F. Huxley, A quantitative description of membrane
current and its application to conduction and excitation in nerve, J.
Physiol. 117, 500-544 (1952).
[7] S.H. Strogatz, Exploring Complex Networks, Nature 410, 268-276 (2001).
[8] J.D. Murray, Mathematical Biology, Springer-Verlag, Berlino (1989).
[9] W. Gerstner e W. Kistler, Spiking Neuron Models, Cambridge University
Press, Cambridge (2002).
[10] S. Ramón y Cayal, Histologie du Système Nerveux de l’Homme et des
Vertébré, A. Maloine, Parigi (1909).
[11] J.G. Nicholss, R.A. Martin e B.G. Wallace, Dai Neuroni al cervello,
Zanichelli, Bologna (1997).
58
[12] P. Dayan e L.F. Abbott, Theoretical Neuroscience: Computational and
Mathematical Modeling of Neural Systems, The MIT Press, Cambridge
(2001).
[13] M.N. Shadlen e W.T. Newsome, The variable discharge of cortical neurons: implications for connectivity, computation, and information
coding, J. Neurosci. 18, 3870-3896 (1998).
[14] D.K.S. Smetters, Electrotonic structure and synaptic integration in cortical neurons, Massachusetts Institute of Technology: Cambridge, Massachusetts(1995).
[15] S.G. Cull-Candy, R. Miledi e I. Parker, Single glutamate-activated channels recorded from locust muscle fibres with perfused patch-clamp
electrodes, J. Physiol. 321, 195-210 (1980).
[16] E.R. Kandel, J.H.Schwartz e T.M. Jessell, Principles of neural science,
McGraw-Hill (2000).
[17] D. Johnston e S. Miao-Sin Wu, Foundations of Cellular Neurophysiology,
Massachusetts Institute of Technology: Cambridge, Massachusetts (1995).
[18] K. Huang, Statistical mechanics, John Wiley & Sons, New York (1987).
[19] D.E. Goldman, Potential, impedance and rectification in membranes,
J. Gen. Physiol. 342, 37-60 (1943).
[20] A.L. Hodgkin e B. Katz, The efffect of sodium ions on the electrical
activity of the giant axon of the squid, J. Physiol. 108, 37-77 (1949).
[21] L.J. Mullins e K. Noda, The influence of sodium-free solutions on membrane potential of frog muscle fibers, J. Gen. Physiol. 47, 117-132 (1963).
[22] P.K. Mohanty e A. Politi, A new approach to partial synchronization in
globally coupled rotators, J. Phys. A: Math. Gen. 39, L415-L421 (2006).
[23] A. Beuter, L. Glass, M.C. Mackey, M.S. Titcombe, Nonlinear dynamics in
physiology and medicine, Springer-Verlag, New York (2003).
[24] S.G Lee, A. Neiman e S. Kim, Coherence resonance in a Hodgkin-Huxley
neuron, Phys. Rev. E 57, 3292-3297 (1998).
[25] R. Zillmer, R. Livi, A. Politi e A. Torcini, Desynchronization in diluted
neural networks, Phys. Rev. E 74, 036203 (2006).
[26] R. Zillmer, R. Livi, A. Politi e A. Torcini, Stability of splay state in pulsecoupled networks, Phys. Rev. E 76, 046102 (2007).
[27] F. Ginelli, R. Livi, A. Politi e A. Torcini, Relationship between directed
percolation and the synchronization transition in spatially extended
systems, Phys. Rev. E 67, 046217 (2003).
[28] L.F. Abbott e C. van Vreeswijk, Asynchronous states in networks of
pulse-coupled oscillators, Phys. Rev. E 48, 1483 (1993).
[29] Referenza da trovare
[30] D.Z. Jin, Fast convergence of spike sequences to periodic patterns in
recurrents networks, Phys. Rev. Lett. 89, 208102 (2002).
[31] Y. Yu, W. Wang, J. Wang e F. Liu, Resonance-enhanced signal detection
and transduction in the Hodgkin-Huxley neuronal systems, Phys. Rev.
E 63, 21907 (2001).
[32] R.B. Stein, The frequency of nerve action potentials gerated by applied
currents, Proc. Roy. Soc. Lond. B 167, 64-86 (1967).
[33] J. Guckenheimer e R.A. Oliva, Chaos in the Hodgkin-Huxley model, SIAM
J. Applied Dynamical Systems Vol.1, N.1, 105-114 (2002).
[34] J. Rinzel, On repetitive activity in nerve, Fed. Proc. 37, 2793-802 (1978).
[35] J. Rinzel e R. Miller, Numerical calculations of stable and unstable periodic solutions to the Hodgkin-Huxley equations, Math. Biosci. 49, 27-59
(1980).
[36] T.B. Kepler, L.F. Abbott e E. Marder, Reduction of conductance-based
neuron models, Biol. Cybern. 66, 381-387 (1992).
[37] B. van der Pol, On relaxation oscillations, Phil. Mag. 2, 978-992 (1926).
[38] J. Cronin, Mathematical Aspects of Hodgkin-Huxley Neural Theory,
Cambridge University Press: Cambridge, Regno Unito (1987).
[39] C.E. Shannon, A mathematical theory of communication, The Bell System Technical J. 27, 623 (1948); 27, 379 (1948).
[40] G. Boffetta, M. Cencini, M. Falcioni e A. Vulpiani, Predictability: a way to
characterize complexity, Physics Reports 356, 367-474 (2002).
[41] D.M. MacKay e W.S. McCulloch, The limiting information capacity of a
neuronal link, Bull. math. Biophysics 14, 127 (1952)
[42] J.D. Farmer, Information Dimension and the Probabilistic Structure
of Chaos, Z. Naturforsch. 37 a, 1304-1325 (1982).
[43] F. Moss, A. Bulsara e M.F. Shlesinger, Proceedings of the NATO Advanced Research Workshop on Stochastic Resonance in Physics and
Biology, J. Stat. Phys. 70 (1993).
[44] R. Mannella e P.V.E. McClintock, Proceedings of the International Workshop on Fluctuations in Physics and Biology: Stochastic Resonance,
Signal Processing and Related Phenomena, Nuovo Cimento Soc. Ital.
Fis. 17 (1995).
[45] L. Gammaitoni, P. Hänggi, P. Jung e F. Marchesoni, Stochastic resonance,
Reviews of Modern Physics 70, 223-287 (1998)
[46] H.E. Plesser e W. Gerstner, Noise in integrate and fire neurons: from
stochastic input to escape rates, Neural Comput. 12, 367-384 (2000).
[47] A. Neiman, B. Shulgin, V. Anishchenko, W. Ebeling, L. Schimansky-Geier e J.
Freund, Dynamical Entropies applied to Stochastic Resonance, Phys.
Rev. Lett. 76, 4299-4302 (1996).
[48] E. Salinas e T.J. Sejnowski, Impact of correlated synaptic input on output firing rate and variability in simple neuronal models, J. Neurosci.
20, 6193-6209 (2000).
[49] D.R. Cox, Renewal Theory, Methuen, Londra (1962).
[50] D.R. Cox e H.D. Miller, The Theory of Stochastic Processes, Wiley, New
York (1965).
[51] D. Brown, J. Feng e S. Feerick, Variability of firing of Hodgkin-Huxley
and FitzHugh-Nagumo neurons with stochastic synaptic input, Phys.
Rev. Lett. 82, 4731-4734 (1999).
[52] J. Feng, Behavior of integrate-and-fire and Hodgkin-Huxley models
with correlated inputs, Phys. Rev. E. 63, 51902 (2001).
[53] A.S. Pikovsky e J. Kurths, Coherence Resonance in a Noise-Driven Excitable System, Phys. Rev. Lett. 78, 775-778 (1997).
[54] N.G. van Kampen, Stochastic processes in physics and chemistry, NorthHolland personal library, Amsterdam (1997).
[55] H.A. Kramers, Brownian motion in a field of force and the diffusion
model of chemical reaction, Physica 7, 284 (1940).
[56] B. Lindner, J. Garcı̀a Ojalvo, A. Neiman e L. Schimansky-Geier, Effects of
noise in excitable systems, Physics Reports 392, 321-424 (2004).
[57] W.J. Wilbur e J. Rinzel, A Theoretical Basis for Large Coefficient of
Variation and Bimodality in Neuronal Interspike Interval Distributions, J. theor. Biol. 105, 345-368 (1983).
[58] L. Sacerdote e R. Sirovich, Multimodality of the interspike interval distribution in a simple jump-diffusion model, Scientiae Mathematicae Japonicae Online 8, 359-374 (2003).
[59] G. Giacomelli, M. Giudici, S. Balle e J.R. Tredicce, Experimental evidence
of coherence resonance in an optical system, Phys. Rev. Lett. 84, 3298
(2000).
[60] S. Zhong e H. Xin, Noise-induced oscillations and internal stochastic
resonance in a model of excitable biomembrane, Chem. Phys. Lett. 321,
309 (2000).
[61] A. Ganopolski e S. Rahmstorf, Abrupt glacial climate changes due to
stochastic resonance, Phys. Rev. Lett. 88, 38501 (2002).
[62] A. M. Lacasta, F. Saguès e J.M. Sancho, Coherence and anticoherence
tuned by noise, Phys. Rev. E 66, 45105 (2002).
[63] E. Salinas e T.J. Sejnowski, Correlated neuronal activity and the flow of
neuronal information, Nature Reviews in Neuroscience 2, 539 (2001).
[64] P. Bergé, Y. Pomeau e C. Vidal, Order within chaos, Herman e John Wiley
& Sons, Parigi (1984).
[65] J. Clinton Sprott, Chaos and Time-Series Analysis, Oxford University
Press, New York (2003).
[66] W.H. Press, S.A. Teukolsky, W.T. Vetterling e B. P. Flannery, Numerical
recipes in fortran, Cambridge University Press (1992).
[67] Th. Kreuz, comunicazione privata (2005).
Scarica